Se considera que el cerebro comprime la información para procesar eficazmente los datos sensoriales que le llegan continuamente. Ahora, los científicos han descubierto que puede utilizar este mismo truco para las funciones cognitivas y la toma de decisiones, según publican en la revista 'Nature Neuroscience'.
"Comprimir las representaciones del mundo exterior equivale a eliminar toda la información irrelevante y adoptar una "visión de túnel temporal de la situación", afirma uno de los autores principales del estudio, Christian Machens, jefe del laboratorio de Neurociencia Teórica de la Fundación Champalimaud de Portugal.
"La idea de que el cerebro maximiza el rendimiento y minimiza el coste mediante la compresión de datos está muy presente en los estudios sobre el procesamiento sensorial. Sin embargo, no se ha examinado realmente en las funciones cognitivas", afirma el autor principal, Joe Paton, director del Programa de Investigación en Neurociencia Champalimaud.
"Utilizando una combinación de técnicas experimentales y computacionales, demostramos que este mismo principio se extiende a una gama de funciones mucho más amplia de lo que se apreciaba anteriormente"
"Utilizando una combinación de técnicas experimentales y computacionales, demostramos que este mismo principio se extiende a una gama de funciones mucho más amplia de lo que se apreciaba anteriormente", añade.
En sus experimentos, los investigadores utilizaron un paradigma de sincronización. En cada ensayo, los ratones tenían que determinar si dos tonos estaban separados por un intervalo superior o inferior a 1,5 segundos. Al mismo tiempo, los investigadores registraron la actividad de las neuronas de la dopamina en el cerebro del animal mientras éste realizaba la tarea.
"Es bien sabido que las neuronas dopaminérgicas desempeñan un papel clave en el aprendizaje del valor de las acciones --explica Machens--. Así que si el animal estimaba erróneamente la duración del intervalo en un ensayo determinado, la actividad de estas neuronas produciría un 'error de predicción' que debería ayudar a mejorar el rendimiento en futuros ensayos".
Asma Motiwala, primera autora del estudio, construyó diversos modelos de aprendizaje por refuerzo computacional y probó cuál era el que mejor captaba tanto la actividad de las neuronas como el comportamiento de los animales. Los modelos compartían algunos principios comunes, pero diferían en cómo representaban la información que podía ser relevante para realizar la tarea.
El equipo descubrió que sólo los modelos con una representación comprimida de la tarea podían explicar los datos. "El cerebro parece eliminar toda la información irrelevante. Curiosamente, también parece deshacerse de alguna información relevante, pero no lo suficiente como para que la recompensa que obtiene el animal se vea realmente afectada. Está claro que sabe cómo triunfar en este juego", señala Machens.
Curiosamente, el tipo de información representada no era sólo sobre las variables de la tarea en sí. En cambio, también captaba las propias acciones del animal.
"Las investigaciones anteriores se habían centrado en las características del entorno independientemente del comportamiento del individuo"
"Las investigaciones anteriores se habían centrado en las características del entorno independientemente del comportamiento del individuo. Pero nosotros descubrimos que sólo las representaciones comprimidas que dependían de las acciones del animal explicaban plenamente los datos", subraya Motiwala.
"De hecho, nuestro estudio es el primero que demuestra que la forma en que se aprenden las representaciones del mundo exterior, especialmente las más exigentes como en esta tarea, puede interactuar de forma inusual con la forma en que los animales deciden actuar", añade. Según los autores, este hallazgo tiene amplias implicaciones para la neurociencia y la inteligencia artificial.
"Mientras que el cerebro ha evolucionado claramente para procesar la información de forma eficiente, los algoritmos de IA suelen resolver los problemas por fuerza bruta: utilizando muchos datos y muchos parámetros. Nuestro trabajo proporciona un conjunto de principios para guiar futuros estudios sobre cómo las representaciones internas del mundo pueden apoyar el comportamiento inteligente en el contexto de la biología y la IA", concluye Paton.