El cerebro humano sería capaz de almacenar 10 veces más información de lo que se creía, según un nuevo estudio que podría permitir comprender mejor el deterioro de la memoria a raíz del envejecimiento y las enfermedades.
En estudios anteriores, se ha demostrado que aprender y recordar nueva información refuerza las conexiones nerviosas del cerebro llamadas sinapsis. Dichas conexiones, a su vez, pueden fortalecerse o debilitarse con el tiempo, lo cual afecta a la memoria.
Sin embargo, medir la fuerza de las sinapsis individuales ha sido un reto constante para los neurocientíficos.
Resulta especialmente difícil identificar cómo se debilitan o fortalecen las conexiones entre nervios, además de medir la cantidad de datos que almacena cada una.
Sin embargo, una nueva técnica, descrita en la revista Neural Computation, ofrece nuevas perspectivas sobre la fuerza sináptica, la precisión de la plasticidad y la cantidad de información que pueden almacenar estas conexiones nerviosas.
La técnica podría ayudar a medir la fuerza de las sinapsis y a comprender mejor los procesos de aprender y de recordar en los seres humanos. Asimismo, se podría empezar a entender más a fondo cómo dichos procesos cambian con la edad o a raíz de las enfermedades.
“Cada vez entendemos mejor dónde y cómo se conectan las neuronas entre sí”, afirmó Terrence Sejnowski, coautor del estudio.
Explicó a continuación: “Ahora creamos una técnica mediante la cual se puede estudiar la fuerza de las sinapsis, la precisión con la que las neuronas controlan esa fuerza y la cantidad de información que las sinapsis son capaces de almacenar. En concreto, descubrimos que nuestro cerebro puede almacenar 10 veces más información de lo que pensábamos”.
La información se transmite en el cerebro en forma de impulsos eléctricos que se envían de neurona a neurona a través de un minúsculo espacio que se encuentra entre las dos células. Cuando hacemos alusión a una sinapsis, nos referimos precisamente a este espacio entre dos neuronas.
El impulso se transmite por las sinapsis a través de medios químicos, y cada sinapsis emite impulsos de una intensidad diferente: algunas pueden ser débiles, mientras que otras pueden ser fuertes señales químicas.
Algunas sinapsis se refuerzan para permitir la retención de nueva información en un proceso denominado “la plasticidad sináptica”.
El cerebro humano tiene más de 100 billones de sinapsis y se sabe que la fuerza sináptica influye en la forma de almacenar los recuerdos.
Afecciones como el Alzheimer tienden a debilitar las sinapsis y reducir la capacidad del cerebro para almacenar información.
En el nuevo estudio, los científicos evaluaron pares de sinapsis de un hipocampo de rata, una región cerebral clave que rige el aprendizaje y la memoria.
Aplicaron un método que se suele utilizar en el campo informático para determinar cuántos bits de información podían contener las sinapsis.
Descubrieron que cada sinapsis del hipocampo de rata podía almacenar entre 4,1 y 4,6 bits de información.
Esto significa que el cerebro humano sería capaz de albergar al menos un petabyte de información, lo cual equivale a los datos contenidos en todo Internet.
“Disponer de esta visión detallada de la fuerza sináptica y la plasticidad podría impulsar de forma significativa la investigación sobre el aprendizaje y la memoria. Además, podemos utilizarla para explorar estos procesos en todas las partes diferentes de los cerebros humanos, los cerebros animales, los cerebros jóvenes y los cerebros viejos”, afirmó Kristen Harris, coautora del estudio.
Agregó: “En última instancia, los resultados deberían aportar nuevos conocimientos sobre cómo la alteración de las sinapsis provoca el deterioro cognitivo durante el envejecimiento o como consecuencia de patologías neurológicas”.
Traducción de Anna McDonnell