En este 2025 nos encontramos en el año de los agentes de IA, pero este concepto de «agentes» sigue generando debates sobre qué significa realmente ser autónomo o poseer autonomía.
Muchos reconocidos expertos en el ámbito de la IA, como Andrew Ng, ofrecen una perspectiva pragmática y práctica: en lugar de obsesionarnos por determinar si un sistema es o no verdaderamente autónomo, deberíamos enfocarnos en la idea de agenticidad (agenticness), un término que permite reconocer distintos grados de autonomía en los sistemas tecnológicos actuales.
Esta visión práctica busca superar las discusiones filosóficas estériles para dirigir la atención hacia la construcción efectiva de soluciones. En concreto, se identifica una enorme oportunidad en procesos sencillos y lineales que actualmente ocupan un tiempo considerable en tareas manuales, repetitivas y de poco valor añadido, como copiar, pegar y buscar información.
La clave está en transformar estas tareas simples en flujos de trabajo agénticos efectivos, bien definidos y claramente evaluables.
Para conseguirlo, resulta fundamental descomponer cada tarea en micropasos, definiendo claramente qué debe hacer cada parte del proceso y cómo evaluar su desempeño de forma precisa. Según Andrew Ng, una habilidad crucial y todavía poco extendida en el ámbito empresarial es precisamente esta capacidad de identificar y evaluar cada micropaso de forma individual y precisa.
Aquí entra en juego el concepto de evaluaciones (evals), marcos sólidos que permiten detectar rápidamente en qué parte del proceso se producen errores o bloqueos.
Para ilustrar este punto, podemos comparar las herramientas actuales disponibles en IA, como RAG, chatbots, sistemas de memoria digital y mecanismos de seguridad (guardrails), con ladrillos Lego. Cuanta mayor variedad y familiaridad se tenga con estas herramientas, más rápido y sencillo será construir soluciones flexibles y robustas.
Esta flexibilidad no solo acelera la implementación inicial, sino que facilita enormemente ajustes rápidos cuando algo no funciona adecuadamente.
Sin embargo, más allá del pragmatismo, existe otra línea complementaria y profundamente inspiradora sobre los agentes: la idea de imitar, no replicar, las funciones del cerebro humano.
Según la investigación reciente Advances and Challenges in Foundation Agents (2024), en la que participan instituciones prestigiosas como Stanford, Microsoft Research, Mila y Duke University, el reto está precisamente en inspirarse en las funciones cognitivas humanas para construir sistemas artificiales más coherentes, adaptables y útiles.
En el cerebro humano, la cognición es un proceso dinámico que implica continuamente memoria, razonamiento y decisiones. La investigación plantea imitar esto en los agentes mediante circuitos funcionales que actualizan un estado mental artificial después de cada experiencia o interacción.
No se trata de replicar literalmente el cerebro, sino de tomar su estructura como referencia para mejorar las capacidades prácticas de estos agentes.
Una de las limitaciones principales de los agentes actuales reside en su fragilidad respecto al manejo de la memoria. Para enfrentar esta problemática, la investigación propone arquitecturas de memoria más completas inspiradas en la memoria sensorial (para lo inmediato), memoria a corto plazo (para información útil en el presente) y memoria a largo plazo (para lo que se mantiene relevante en el tiempo).
Aquí no hablamos de recuerdos reales, sino de estructuras artificiales que simulan cómo los humanos almacenamos y recuperamos conocimiento.
Esto implica reconocer claramente que los agentes artificiales no «piensan» ni tienen conciencia real, sino que simulan estructuras lógicas y probabilísticas capaces de predecir resultados. Es como un jugador de ajedrez que, sin comprender la esencia del juego, puede anticipar movimientos y calcular efectos con precisión.
La parte más desafiante de esta imitación cerebral es la integración efectiva entre percepción, planificación, memoria y objetivos para traducir la intención en acciones coherentes, y no solo en reflejos automáticos. Este desafío técnico es enorme, pero abre la puerta a sistemas capaces de tomar decisiones más efectivas y coherentes en contextos diversos y dinámicos.
Es crucial mantener claridad sobre los límites reales de la IA. Aunque los agentes puedan parecer inteligentes, recordar experiencias o actuar con aparente intención, detrás solo hay algoritmos, estructuras de datos y parámetros ajustables. No hay conciencia ni emociones reales.
Esta precisión conceptual permite mantener un enfoque claro y responsable sobre la utilidad real y los límites éticos y operativos de los sistemas inteligentes.
Unir la perspectiva pragmática y empresarial con la visión cerebralmente inspirada propuesta por la investigación, podemos encontrar una sinergia para construir agentes artificiales más efectivos, adaptables y responsables, siempre enfocados en resolver problemas reales y beneficiando así al tejido empresarial y social.