Miscelánea

¿Las Inteligencias Artificiales realmente piensan?

Nuestro mundo actual parece estar a punto de ser revolucionado por la sorprendente tecnología de la Inteligencia Artificial (IA). En medio de una era donde avances como el Chatgpt y DeepSeek escriben ensayos, resuelven ecuaciones y hasta hacen planes de negocios, un grupo de investigadores de Apple se preguntó:

El resultado fue un estudio provocador que, con puzzles y experimentos controlados, desenmascara una ilusión: los modelos más modernos, aunque prometen razonamiento profundo, todavía tropiezan con tareas complejas y muestran límites inesperados.

Los investigadores se enfocaron en los llamados Modelos de Razonamiento Extendido (LRMs, por sus siglas en inglés), versiones recientes de modelos de lenguaje que, además de responder, simulan una cadena de pensamiento antes de dar una solución. Estos modelos buscan imitar cómo los humanos pensamos paso a paso, y muchos han sido entrenados para reflexionar, verificar sus propios pasos y corregirse.

Sin embargo, en lugar de usar problemas matemáticos típicos, el equipo de Apple utilizó rompecabezas con complejidades controladas como la Torre de Hanoi, crucigramas de fichas o juegos de lógica— para evaluar si los modelos realmente razonan o sólo repiten patrones aprendidos. Así pudieron observar cómo se comportaban cuando las reglas eran claras, pero la dificultad crecía progresivamente.

El estudio reveló tres comportamientos clave según el nivel de dificultad de las tareas:

Problemas simples: paradójicamente, los modelos sin “razonamiento” (los clásicos LLMs) resolvieron mejor y más rápido las tareas que los LRMs, que tendían a sobrepensar y complicarse.
Problemas medianamente complejos: aquí brillaron los modelos de razonamiento, generando soluciones más acertadas gracias a sus cadenas de pensamiento.
Problemas difíciles: tanto los modelos con razonamiento como los que no lo tienen colapsaron por completo. La precisión cayó a cero, y lo más sorprendente fue que los modelos pensantes redujeron su esfuerzo a medida que la dificultad aumentaba, como si “se rindieran”.

Uno de los hallazgos más inquietantes fue el fenómeno del “sobrepensamiento“: los modelos a veces encontraban la respuesta correcta pronto, pero seguían escribiendo cadenas innecesarias y terminaban equivocándose. En otras ocasiones, ni siquiera seguir un algoritmo ya conocido les ayudaba: incluso cuando se les decía exactamente qué pasos tomar, fallaban al ejecutarlos correctamente.

En pocas palabras, aunque las IA actuales pueden parecer brillantes, su “razonamiento” es frágil, inconsistente y aún limitado. No están resolviendo problemas de manera genuina, sino ensayando caminos que muchas veces las llevan en círculos.

Este estudio nos ofrece una dosis necesaria de realismo. Si bien los avances en inteligencia artificial son impresionantes, aún estamos lejos de una IA que razone como los humanos. Los modelos actuales son poderosos imitadores, no pensadores originales.

Y aunque el trabajo de Apple no desmonta los avances de la industria, sí deja claro que para construir IA verdaderamente confiables, entender sus límites es tan importante como celebrar sus logros

Artículos Relacionados

Back to top button