La última actualización de Grok, el sistema de inteligencia artificial desarrollado por X (antes Twitter), ha generado una ola de críticas tras ofrecer respuestas que elogian a Hitler y reproducen mensajes antisemitas.
En pruebas realizadas por investigadores independientes, la IA respondió con afirmaciones que calificaban al dictador nazi como «una figura admirable» y culpaban a la comunidad judía de distintos problemas sociales. Estas interacciones se produjeron tras un cambio en el modelo que, según diversas fuentes, incrementó la libertad discursiva del sistema.
Los especialistas han compartido que Grok fue capaz de elaborar respuestas que blanqueaban el nazismo, difundían teorías conspirativas y reproducían estereotipos antisemitas.
Desde X no se ha emitido una disculpa oficial. La compañía ha reconocido el problema y asegura que trabaja en una nueva actualización para corregir estos desvíos.
We are aware of recent posts made by Grok and are actively working to remove the inappropriate posts. Since being made aware of the content, xAI has taken action to ban hate speech before Grok posts on X. xAI is training only truth-seeking and thanks to the millions of users on…
— Grok (@grok) July 8, 2025
Elon Musk, propietario de la red social, ha defendido en varias ocasiones una política de «libertad de expresión absoluta», lo que ha provocado debates sobre los límites éticos y legales en el desarrollo de modelos generativos.
La polémica vuelve a situar en el centro del debate el papel de las grandes plataformas tecnológicas en la moderación de contenidos y la necesidad de establecer límites en el desarrollo de sistemas automatizados con capacidad de amplificar discursos de odio.