La inteligencia artificial está alcanzando niveles de desempeño que hace una década parecían ciencia ficción. Pero el verdadero reto que plantea hoy no es tecnológico, sino filosófico: ¿qué significa que un sistema artificial sea más inteligente que nosotros, si aún no sabemos si es más racional?
La diferencia es clave. La inteligencia puede asociarse a la capacidad de resolver problemas o acumular conocimiento; la racionalidad, en cambio, está vinculada con el buen juicio, la toma de decisiones informadas, la resistencia al sesgo y, en última instancia, con la sabiduría.
Esta distinción es el núcleo de una nueva generación de pruebas desarrolladas por investigadores como Keith Stanovich y Maggie Toplak, que presentan en su documento Assessment of Rational Thinking for Youth (ART-Y). Esta batería permite medir en adolescentes capacidades como el razonamiento probabilístico, la resistencia al efecto marco, el pensamiento científico o la calibración del conocimiento. Y, lo más importante: muestra que estas habilidades no dependen del cociente intelectual, sino de estilos cognitivos como la apertura mental activa o la capacidad deliberativa.
Y sin embargo, mientras medimos —por fin— cómo evoluciona la racionalidad en humanos, también estamos empezando a aplicarle estas métricas a modelos artificiales.
Una reciente adaptación experimental del test ART-Y al modelo de lenguaje Llama 4 Maverick ofrece un resultado desconcertante: el modelo supera a los adolescentes humanos en todas las subpruebas, y lo hace especialmente bien en razonamiento estadístico, pensamiento científico y gratificación diferida. En otras palabras, razona con mayor precisión lógica, evalúa evidencia de forma más estructurada y «piensa en el largo plazo» mejor que un joven promedio.
Esto nos enfrenta a una paradoja inquietante: mientras diseñamos sistemas cada vez más racionales, seguimos formando personas que aún están lejos de serlo.
En parte, esta asimetría se debe al modo en que los humanos pensamos. Lo hacemos con heurísticos, creencias previas, atajos mentales. La IA, en cambio, opera sin emociones, ejecuta paso a paso, calcula sin sesgos. Pero ¿es eso suficiente? ¿Basta con que un modelo sea más racional en sus respuestas para considerar que su impacto será beneficioso?
La respuesta no es trivial. Porque la racionalidad humana incluye dimensiones que aún no podemos replicar: el contexto moral, la construcción de sentido, la empatía social, la reflexión sobre uno mismo. Y, sobre todo, el hecho de que nuestras decisiones no son aisladas: están encarnadas en cuerpos, relaciones y consecuencias. La racionalidad, en última instancia, no es solo cálculo: es juicio.
Por eso, los investigadores insisten en que el benchmark de racionalidad para LLMs no puede quedarse en lo lógico. Debe incluir capacidades deliberativas, calibración del conocimiento y resistencia al sesgo de formulación. En su experimento, el rendimiento de Llama 4 fue muy alto en los ítems más «computables» (probabilidad, lógica, evidencia), pero mucho más similar al humano en los de juicio subjetivo y toma de decisiones encuadradas. Es decir: donde el contexto importa, aún hay margen humano.
Este matiz es fundamental. Porque no se trata solo de construir una IA que piense como nosotros, sino de preguntarnos si nosotros mismos estamos pensando como deberíamos. Estudios recientes apuntan a una peligrosa tendencia, la llamada «descarga cognitiva»: cuando los humanos delegamos en la IA tareas que antes implicaban análisis, reflexión o comparación. La consecuencia: menos pensamiento crítico, menor resistencia al sesgo, sobreconfianza mal calibrada.
Especialmente entre los jóvenes —como ha demostrado la evaluación ART-Y—, el uso constante de herramientas generativas puede dar una falsa sensación de competencia. Si el sistema acierta, creemos que nosotros también lo hemos hecho. Pero no siempre es así. Sin un esfuerzo deliberado por comprender y razonar, el aprendizaje se vuelve superficial, y el juicio, sustituible.
Y aquí es donde se encierra la paradoja racional.
Estamos construyendo modelos que simulan el razonamiento humano mientras nosotros —humanos— dejamos de practicarlo.
Pero también aquí se abre una oportunidad. Porque si somos capaces de medir y entrenar la racionalidad, podemos construir sistemas que no solo predigan, sino que enseñen. Que no solo respondan, sino que cuestionen. Que no sustituyan nuestro juicio, sino que lo acompañen y lo desafíen. La clave está en que la IA no aspire solo a resolver tareas, sino a alinearse con los fines humanos: prosperidad, autonomía, justicia.
¿Estamos listos para convivir con sistemas más racionales que nosotros? Solo si entendemos que la racionalidad no es una amenaza, sino un espejo. Y que nuestra tarea no es imitar a la IA, sino cultivar lo que nos hace racionales a nuestra manera: el juicio situado, el sentido ético, la capacidad de dudar.
Porque tal vez el futuro no sea un desfile de AGI con pancartas, sino algo más sutil: una conversación entre modelos y personas sobre lo que significa pensar bien. Y en esa conversación, los humanos aún tenemos mucho que decir.