La Comisión Europea ha publicado este jueves un código de conducta para los desarrolladores de inteligencia artificial generativa, un texto de adhesión voluntaria que marca las líneas rojas que deberán respetar tecnologías como ChatGPT o Gemini. El documento anticipa los requisitos clave para cumplir con la Ley de Inteligencia Artificial de la UE, que entrará en vigor el 2 de agosto de 2025.
El código exige a los desarrolladores de modelos de IA generativa considerados de alto riesgo que evalúen y mitiguen posibles impactos en derechos fundamentales. También plantea la obligación de analizar peligros como la pérdida de control humano sobre los sistemas o el riesgo de accidentes químicos, biológicos o nucleares.
Propiedad intelectual bajo vigilancia
Uno de los puntos centrales del código prohíbe el entrenamiento de modelos con contenidos que vulneren derechos de autor, e impone a las empresas la creación de mecanismos de reclamación para los titulares de propiedad intelectual. La medida responde a las críticas de autores y eurodiputados, que pedían garantías jurídicas más sólidas.
Pese a que el documento no es vinculante, Bruselas lo considera una guía clave para cumplir la futura legislación. Sin embargo, empresas como Meta ya han anunciado que no lo firmarán. La Comisión confía en que más compañías se sumen voluntariamente en los próximos meses.
Según Henna Virkkunen, vicepresidenta de Soberanía Tecnológica: «Invito a todos los proveedores de modelos de inteligencia artificial generativa a adherirse al código. Hacerlo les garantizará una vía clara y colaborativa para cumplir con la ley»
El último borrador del código, presentado a inicios de año, fue cuestionado por eurodiputados, expertos y creadores, que lo consideraban insuficiente para garantizar el respeto a los derechos fundamentales. La publicación final busca reforzar estas salvaguardas, pero la adhesión sigue siendo opcional y su cumplimiento no será exigible hasta 2026.
La publicación del código coincide con la polémica sobre la IA de la red social X, llamada Grok, tras la difusión de mensajes que elogiaban a Hitler. La falta de filtros de moderación reavivó el debate sobre los límites de estas tecnologías y la necesidad de una supervisión activa.