La inteligencia artificial generativa ha entrado de lleno en los tribunales. Disney, Universal y otros gigantes del entretenimiento han demandado a empresas como Midjourney y Runway por usar contenido protegido para entrenar sus modelos sin consentimiento ni compensación.
Los estudios acusan a las tecnológicas de entrenar modelos con películas, guiones, diseños y obras visuales extraídas de sus catálogos, lo que consideran una violación masiva de la propiedad intelectual. En la denuncia, presentada por la asociación Author’s Guild y respaldada por grandes productoras, se exige la retirada inmediata de estos datos de los sistemas de IA.
«No se puede construir tecnología innovadora sobre el expolio sistemático del trabajo creativo ajeno», señala la demanda. El caso recuerda al conflicto entre Napster y la industria discográfica en los 2000, pero con una escala y complejidad aún mayor.
El precedente de los artistas visuales
Esta demanda se suma a otros procesos abiertos en EE. UU. En enero de 2023, tres artistas gráficos —Sarah Andersen, Kelly McKernan y Karla Ortiz— denunciaron a Stability AI, Midjourney y DeviantArt, acusándolas de entrenar modelos como Stable Diffusion con millones de obras sin autorización.
En sus alegatos, sostenían que los modelos generaban imágenes que reproducían su estilo personal, lo que consideran una forma de plagio automatizado. El caso sigue en curso en California, pero ha impulsado el debate sobre los derechos morales de autor en la era digital.
En diciembre de 2023, The New York Times presentó una demanda histórica contra OpenAI y Microsoft. El diario alegó que sus artículos fueron usados para entrenar ChatGPT y otros modelos sin permiso, y que el sistema era capaz de reproducir fragmentos textuales completos de sus noticias.
«La IA no puede sobrevivir sin grandes cantidades de contenido creado por humanos. Ese contenido tiene un coste y unos derechos», declaró el equipo legal del Times. El caso busca no solo compensación económica, sino también una normativa que regule el uso de datos editoriales en la IA.

Otros medios, como Le Monde, Radio France y El País, han explorado alianzas con desarrolladores para licenciar contenidos de forma controlada, pero el ecosistema aún carece de una regulación clara.
Autores como Margaret Atwood, Jonathan Franzen y Jodi Picoult han respaldado la campaña del sindicato de escritores Author’s Guild, que exige al Congreso de EE. UU. una reforma legal del copyright adaptada a la IA.
En paralelo, el mundo de la música también ha iniciado acciones legales. En mayo de 2024, la discográfica Universal Music Group denunció a Anthropic por usar letras protegidas en su modelo Claude, alegando que la IA podía generar versos casi idénticos a los originales.
Las primeras sentencias, aún no firmes, respaldan a las tecnológicas. La pasada semana, la justicia de EE. UU. desestimó parcialmente los cargos contra a Anthropic, que acusaban a la startup de violar derechos de autor al entrenar su modelo de IA generativa con contenido protegido.
El núcleo del conflicto reside en si el uso de obras protegidas para entrenar modelos constituye un uso legítimo bajo el principio de fair use (uso justo), o si supone una violación directa del copyright. Las tecnológicas defienden que sus modelos no almacenan obras, sino que aprenden patrones estadísticos.
Pero muchos creadores sostienen que el resultado final —imágenes, textos, canciones generadas— puede copiar el estilo o contenido de forma identificable, lo que justificaría una regulación específica.
Europa empieza a moverse
La Unión Europea ha incluido restricciones al uso de datos protegidos en el AI Act, aprobado en 2024. La normativa exige que los modelos fundacionales identifiquen claramente sus fuentes de entrenamiento y permite a los titulares de derechos optar por no ser incluidos en los datasets, aunque su aplicación práctica sigue generando dudas.
España, Francia y Alemania estudian además sistemas de compensación colectiva para los sectores creativos, inspirados en los modelos de gestión de derechos de autor.
La expansión de la inteligencia artificial generativa obliga a repensar los equilibrios entre innovación tecnológica y protección del trabajo creativo. Si los tribunales fallan a favor de los demandantes, podrían establecer límites claros al uso de contenidos con copyright en los sistemas de IA.
Pero si las tecnológicas vencen, se abrirá un escenario donde el acceso masivo a datos culturales sea la norma, y los creadores deberán encontrar nuevas formas de monetización, licenciamiento y control sobre su obra.