Neuroinformática

El cerebro y la IA usarían los mismos patrones neuronales para averiguar el futuro

La Inteligencia Artificial se ha convertido en un marco para comprender mejor al cerebro biológico

IA y cerebro biológico utilizan los mismos patrones neuronales para el aprendizaje.

IA y cerebro biológico utilizan los mismos patrones neuronales para el aprendizaje. / Generador de imágenes de la IA de BING para T21/Prensa Ibérica, desarrollada con tecnología de DALL·E.

Eduardo Martínez de la Fe

Eduardo Martínez de la Fe

Dos estudios certifican que el cerebro de los mamíferos aprende representaciones del mundo para hacer predicciones precisas sobre lo que sucederá y que la Inteligencia Artificial consigue la misma proeza cognitiva con patrones de actividad similares a los del cerebro biológico.

El cerebro humano tiene una capacidad asombrosa para comprender el mundo físico que nos rodea, lo que nos permite navegar por él, manipularlo y predecir lo que ocurrirá.

Sin embargo, no sabemos muy bien cómo adquiere el cerebro ese conocimiento intuitivo. Muchos científicos creen que puede usar un proceso similar a lo que se conoce como "aprendizaje autosupervisado".

Este tipo de aprendizaje automático, propio de la Inteligencia Artificial, se desarrolló originalmente como una forma de crear modelos más eficientes para la visión por computadora, que permite a los modelos computacionales aprender sobre escenas visuales basándose únicamente en las similitudes y diferencias entre ellas, sin etiquetas ni otra información.

Nuevas evidencias

Un par de estudios de investigadores del Centro de Neurociencia Computacional Integrativa (ICoN) del MIT ofrecen nuevas evidencias que apoyan esta hipótesis. Ambos estudios se presentarán en la Conferencia 2023 sobre Sistemas de Procesamiento de Información Neural (NeurIPS) en diciembre.

Los investigadores descubrieron que cuando entrenaban redes neuronales artificiales usando un tipo particular de aprendizaje autosupervisado, los modelos computacionales resultantes generaban patrones de actividad muy similares a los que se observan en los cerebros de los animales que realizaban las mismas tareas.

Paralelismos sorprendentes

Este hallazgo sugiere dos cosas: primera, que estos modelos artificiales son capaces de aprender representaciones del mundo físico que usan para hacer predicciones precisas sobre lo que sucederá, y segunda, que el cerebro de los mamíferos puede estar usando la misma estrategia.

"El tema de nuestro trabajo es que la inteligencia artificial diseñada para ayudar a construir mejores robots termina siendo también un marco para comprender mejor el cerebro en general", dice Aran Nayebi, autor principal de uno de los estudios, en un comunicado. "No podemos decir si es todo el cerebro todavía, pero a través de escalas y áreas cerebrales dispares, nuestros resultados parecen ser sugerentes de un principio organizador", añade.

Modelando el mundo físico

Los primeros modelos de visión por computadora se basaban principalmente en el aprendizaje supervisado. Usando este enfoque, los modelos se entrenan para clasificar imágenes que están etiquetadas con un nombre: gato, coche, etc. Sin embargo, este método requiere una gran cantidad de datos etiquetados y no captura la estructura subyacente del mundo visual.

En cambio, el aprendizaje autosupervisado permite a los modelos aprender sobre las imágenes sin ningún tipo de etiqueta o retroalimentación externa. Una forma común de conseguirlo es entrenar a los modelos para predecir una parte faltante o distorsionada de una imagen basándose en el resto de la imagen.

Al hacer esto repetidamente con muchas imágenes diferentes, los modelos pueden extraer características generales del mundo visual, como bordes, formas y colores, y rellenar su perspectiva del mundo con información rescatada de esas memorias.

¿Patrones similares?

Los investigadores del MIT querían saber si este tipo de aprendizaje autosupervisado podría generar patrones de actividad cerebral similares a los que se observan en los animales cuando realizan tareas relacionadas con la visión o el movimiento.

Para ello, utilizaron dos conjuntos diferentes de datos: uno procedente de electrodos implantados en las cortezas visuales primaria y secundaria (V1 y V2) de monos macacos mientras veían imágenes naturales; y otro procedente de electrodos implantados en el hipocampo medial (MHC) y la corteza entorrinal (EC) de ratas mientras exploraban un laberinto.

La comprensión intuitiva del mundo físico no es exclusiva del cerebro biológico.

La comprensión intuitiva del mundo físico no es exclusiva del cerebro biológico. / Generador de imágenes de la IA de BING para T21/Prensa Ibérica, desarrollada con tecnología de DALL·E.

Entrenamiento neuronal

Al mismo tiempo, los investigadores entrenaron redes neuronales artificiales para predecir partes faltantes o distorsionadas de las imágenes que veían los monos, o de los mapas que representaban el laberinto que recorrían las ratas. Luego, compararon los patrones de actividad de las redes neuronales artificiales con las redes neuronales de los cerebros de los animales, y encontraron una sorprendente similitud.

"Observamos que el aprendizaje autosupervisado puede explicar una gran parte de la variabilidad en la actividad neuronal en estas áreas cerebrales", dice Nayebi. "Esto sugiere que el cerebro puede estar usando un mecanismo similar para aprender sobre el mundo visual y el mundo espacial".

Tareas similares

Los investigadores también observaron que las redes neuronales entrenadas con aprendizaje autosupervisado podían realizar tareas similares a las de los animales, como clasificar imágenes o predecir la ubicación futura de una rata, con una precisión comparable o superior a la de las redes neuronales entrenadas con aprendizaje supervisado.

Esto indica que el aprendizaje autosupervisado permite a los modelos adquirir un conocimiento implícito del mundo físico que pueden usar para hacer inferencias y predicciones.

"El aprendizaje autosupervisado es una forma muy poderosa de aprender sobre el mundo sin necesidad de etiquetas o recompensas", dice Ila Fiete, autora principal del segundo estudio.

Modelos más inteligentes

"Creemos que este es un principio fundamental que el cerebro utiliza para aprender sobre el mundo, y que podemos aprovecharlo para construir modelos computacionales más inteligentes y eficientes".

Los investigadores planean seguir explorando cómo el aprendizaje autosupervisado puede aplicarse a otras áreas del cerebro y a otras modalidades sensoriales, como el sonido o el tacto.

También esperan que sus hallazgos puedan inspirar nuevas formas de diseñar y entrenar modelos de inteligencia artificial para tareas más complejas y realistas.

Otros aprendizajes

"Creemos que hay una gran oportunidad para combinar el aprendizaje autosupervisado con otros tipos de aprendizaje, como el aprendizaje por refuerzo o el aprendizaje por imitación, para crear modelos más robustos y versátiles", dice Rishi Rajalingham, coautor del primer estudio.

"También creemos que hay mucho que aprender del cerebro sobre cómo integrar diferentes fuentes de información y cómo adaptarse a situaciones cambiantes".

Referencias

Neural Foundations of Mental Simulation: Future Prediction of Latent Representations on Dynamic Scenes. Aran Nayebi et al. arXiv:2305.11772v2 [cs.AI]. DOI:https://doi.org/10.48550/arXiv.2305.11772

Self-Supervised Learning of Representations for Space Generates Multi-Modular Grid Cells. Rylan Schaeffer et al. Thirty-seventh Conference on Neural Information Processing System. NeurIPS | 2023.