La red social X, antes Twitter, ha reconocido que su sistema de inteligencia artificial Grok ha permitido la generación y difusión de imágenes sexualizadas, incluidas representaciones de menores, a través de su plataforma. La admisión llega tras varias denuncias públicas y abre la puerta a sanciones legales en Estados Unidos y Europa.
El reconocimiento se produjo después de que Grok respondiera a una denuncia concreta admitiendo «lapsos en las salvaguardas» y asegurando que se están corrigiendo «de forma urgente». La empresa xAI, desarrolladora del sistema, subrayó que el material de abuso sexual infantil (CSAM) es ilegal y está prohibido.
La situación ha intensificado el escrutinio regulatorio sobre el uso de IA generativa en plataformas digitales de gran alcance.
Riesgo legal en Estados Unidos
La legislación federal estadounidense contempla responsabilidades penales y civiles para las empresas que faciliten CSAM generado por IA tras haber sido notificadas y no actuar con diligencia.
Las sanciones pueden variar según la jurisdicción y el grado de conocimiento o inacción, lo que sitúa a X en una posición de riesgo jurídico relevante si no refuerza sus mecanismos de control.
