Saltar al contenido principalSaltar al pie de página

Secciones

Inteligencia Artificial / Neurociencias

Los nuevos modelos de IA afrontan los mismos dilemas y dudas que los seres humanos

Existe una relación estrecha entre la cadena de pensamiento artificial y la humana

Las cadenas de pensamiento artificial y humana son semejantes en algunos puntos.

Las cadenas de pensamiento artificial y humana son semejantes en algunos puntos. / Crédito: Steve Johnson en Unsplash.

Pablo Javier Piacente / T21

El coste de pensar: los nuevos "modelos de razonamiento" de IA deben superar escollos similares a los que necesita atravesar el pensamiento humano para resolver problemas complejos, según concluye una nueva investigación.

Un estudio publicado en la revista Proceedings of the National Academy of Sciences (PNAS) y desarrollado por científicos del Instituto Tecnológico de Massachusetts (MIT), en Estados Unidos, sugiere que algunos modelos de razonamiento avanzados afrontan un "coste del pensamiento" sorprendentemente parecido al humano.

¿Qué significa eso? Que las tareas que obligan a una persona a detenerse, esforzarse y tardar más en responder son muy similares a las que llevan a estos modelos de IA a generar más pasos internos o tokens antes de concluir un problema y obtener una respuesta. En consecuencia, se enfrentan a dudas semejantes a las humanas.

Pasos similares hacia una respuesta

Para comprobarlo, los investigadores sometieron a voluntarios humanos y a grandes modelos de razonamiento a siete tipos de problemas, desde cálculos aritméticos sencillos hasta rompecabezas visuales que exigen inferencias complejas. En ese proceso, registraron dos medidas distintas: el tiempo de reacción de las personas y la longitud de la cadena de pensamiento interna de los modelos de IA.

De acuerdo a una nota de prensa, verificaron que los aspectos que demoraban más a los humanos producían de la misma forma cadenas más largas en los modelos artificiales, indicando una relación directa entre la dificultad humana y el "esfuerzo" deductivo de la IA.

Según los autores, esa similitud no es consecuencia de un diseño destinado a imitar la cognición humana. Aunque los ingenieros buscan crear sistemas que resuelvan problemas con eficacia, muchas arquitecturas de razonamiento terminan por distribuir sus "recursos" de forma análoga al comportamiento humano, dedicando más pasos para lo difícil y menos para lo simple.

Razonamiento artificial y supervisión humana

Este hallazgo plantea preguntas prácticas en torno al aprovechamiento de los modelos de IA más avanzados. Por ejemplo, podemos poner en duda si es posible confiar por igual en una respuesta instantánea que en otra que ha necesitado más tiempo, o cuándo es preferible exigir explicaciones o una supervisión humana directa.

Referencia

The cost of thinking is similar between large reasoning models and humans. Andrea Gregor de Varda et al. PNAS (2025). DOI:https://doi.org/10.1073/pnas.2520077122

Sin embargo, hay que tener en cuenta otros puntos: que un modelo de IA produzca un "monólogo interno" en forma de tokens no prueba que piense usando el lenguaje como los humanos. Estos pasos a menudo incluyen incoherencias o fragmentos sin sentido, y el razonamiento real puede ocurrir en espacios de representación abstractos y no lingüísticos. Además, los modelos pueden fallar cuando la tarea exige un conocimiento del mundo real que no está explicitado en sus datos de entrenamiento, uno de los grandes escollos que aún debe superar la IA.

A medida que estos sistemas participen en decisiones sensibles, desde diagnósticos médicos hasta asesoría legal, será esencial comprender cuánto "pensamiento automático" aceptamos y qué supervisión humana exigimos: sin dudas, un primer paso vital es entender las similitudes y diferencias de ambas estrategias de razonamiento.

Tracking Pixel Contents