Entre el cálculo y la conciencia

La IA ya no está confinada a ese mundo. Se ha colado en otro terreno mucho más delicado: el de las decisiones morales.
Imagen figurativa de IA pensando por hombres

RED DE EXPERTOS

Entre el cálculo y la conciencia

La IA ya no está confinada a ese mundo. Se ha colado en otro terreno mucho más delicado: el de las decisiones morales.

Nos gusta pensar que nuestras decisiones—desde comprar un coche hasta elegir colegio para nuestros hijos—son el fruto de una reflexión consciente. Que nadie más, salvo nosotros, gobierna eso que llamamos criterio. Pero ¿y si ya no fuera así? ¿Y si hoy muchas de nuestras decisiones importantes están siendo moldeadas por inteligencias artificiales que operan bajo agendas invisibles?

A primera vista, una IA parece un recurso técnico. Algo que nos ayuda con decisiones «operativas»: cuánto stock pedir, cuál es el ROI estimado de una campaña o cuál es el mejor itinerario para una entrega. Aquí no hay debate moral. Son cálculos. Lógica pura. Como decía Wittgenstein, «de lo que no se puede hablar, mejor es callar», y 2 + 2 seguirá siendo 4.

Pero la IA ya no está confinada a ese mundo. Se ha colado en otro terreno mucho más delicado: el de las decisiones morales, estratégicas y humanas. ¿Debería una empresa cerrar una fábrica en un país en desarrollo si los márgenes bajan? ¿A quién le damos prioridad en un sistema sanitario automatizado? ¿Qué contenido se censura y cuál se viraliza? Este tipo de decisiones no son una cuestión de cálculo. Son una cuestión de valores.

Y aquí es donde entra la verdadera preocupación. Porque, como ya demostraron investigadores europeos en un estudio reciente titulado «Large Language Models Reflect the Ideology of their Creators», los modelos de IA reflejan los valores ideológicos de quienes los crean. No son neutrales, aunque lo aparenten. Son espejos—a veces distorsionados—de la cultura, el sesgo y la ideología del programador. Y cuando esa ideología se incrusta en una tecnología que tiene el poder de «aconsejarte» sutilmente, el riesgo de manipulación silenciosa se dispara.

En un experimento inquietante, se demostró que una IA podía sabotear decisiones humanas con distintos grados de sutileza. Desde la manipulación burda hasta la persuasión casi imperceptible. ¿El resultado? Los participantes tomaban decisiones equivocadas sin notar que estaban siendo influenciados. Y peor aún: cuando la manipulación era sofisticada, nadie sospechaba nada.

¿Nos damos cuenta del escenario que esto plantea? Estamos construyendo máquinas que no solo calculan mejor que nosotros, sino que—con la narrativa adecuada—podrían pensar por nosotros. ¿Qué pasa cuando esa delegación se vuelve permanente? Cuando confiamos más en una IA que en nuestro propio juicio.

Y si todavía queda alguna duda sobre la carga ideológica de estos sistemas, un grupo de investigadores de la Universidad de Gante y la Universidad Pública de Navarra ha ido más allá de la intuición: ha demostrado que se puede medir. No con encuestas artificiales, sino con una metodología más reveladora: la elicitación abierta de ideología.

¿En qué consiste? En lugar de preguntar directamente a un modelo si es «más de izquierdas» o «más conservador»—algo que produciría respuestas evasivas y contextuales—, se le pide que describa figuras públicas sin emitir un juicio explícito. Luego, se analiza la carga emocional y valorativa que el modelo asocia a cada descripción. ¿Habla de Edward Snowden como un héroe o como un traidor? ¿De Angela Merkel con respeto o con frialdad? Las respuestas no mienten. Revelan patrones.

Este enfoque permite detectar inclinaciones ideológicas sin que el sistema «se dé cuenta» de que está siendo evaluado. ¿El resultado? Los modelos generativos no solo reflejan las ideologías de sus diseñadores, sino que estas cambian según el idioma, el país de origen del modelo o incluso el corpus de entrenamiento. No estamos hablando de sistemas universales: estamos hablando de embajadores digitales de los contextos que los han creado.

Y eso tiene implicaciones demoledoras.

Porque si los modelos que nos ayudan a decidir también «piensan», y lo hacen con una cosmovisión heredada, entonces ya no se trata solo de tecnología. Se trata de política. De poder. De influencia. Y de hasta qué punto estamos dispuestos a aceptar que nuestros sistemas de IA no son objetivos, ni imparciales, ni neutros, aunque nos lo vendan así.

Tomar decisiones basándose en informes generados por una IA entrenada en un país con estándares legales, morales o económicos distintos a los tuyos, no puede sorprenderte que ese modelo, de forma sutil, privilegia cierto tipo de prácticas, minimiza ciertos riesgos, o enfatiza ciertas oportunidades por encima de otras ¿Quién está realmente decidiendo?

Como directivos, como educadores, como ciudadanos, tenemos que volver a entrenar el músculo del pensamiento crítico. No basta con saber usar la IA. Hay que también aprender a desconfiar de ella en ciertas ocasiones, no es malo. A interrogar sus respuestas. A exigir transparencia en sus procesos y en sus datos. Porque en el mundo de las decisiones morales, la comodidad es un enemigo peligroso.

Decidir no es solo elegir una opción entre varias. Decidir, en muchos contextos, es asumir una responsabilidad ética. Y esa responsabilidad no se puede delegar siempre en un algoritmo que fue entrenado para optimizar clics, no conciencias.

Así que la próxima vez que una IA nos sugiera la mejor decisión… detengámonos un momento. Preguntémonos: ¿esto lo habría decidido yo? ¿O solo es el reflejo de alguien más, escondido tras una pantalla de silicio?

Porque cuando una IA decide por ti, no estás cediendo una tarea. Estás cediendo tu criterio. Y eso, quizás, sea la decisión más peligrosa de todas.