El modelo de inteligencia artificial Claude Mythos, desarrollado por la empresa Anthropic, ha puesto en evidencia la presencia de vulnerabilidades en el código generado por la IA. Desde el 7 de abril, el modelo ha sido capaz de descubrir fallos sistémicos en sistemas operativos y navegadores web que habían pasado desapercibidos durante décadas.
Según Logixs, boutique tecnológica especializada en IA generativa, Mythos ha logrado identificar y generar exploits para el 72% de las vulnerabilidades encontradas, proceso que realizaría en horas en lugar de semanas requeridas por equipos humanos. Debido a su potencial ofensivo, el acceso al modelo se ha limitado a empresas como Amazon, Apple, Microsoft y Google bajo la iniciativa Project Glasswing.
Impacto en la seguridad empresarial
A pesar de las restricciones, el 22 de abril se informó de un acceso no autorizado al modelo, evidenciando los riesgos asociados. El informe de Palo Alto Networks de 2025 señala que el 99% de las grandes empresas utilizan agentes de IA para generar código, y Veracode destaca que el 45% de este código presenta vulnerabilidades.
Además, el Parlamento Europeo ha planteado a la Comisión Europea la necesidad de implementar estrategias para afrontar los desafíos que la IA ofensiva como Mythos presenta. Esta situación subraya la urgencia de adaptar el marco legislativo para mejorar la investigación de vulnerabilidades en la UE.
El auge del desarrollo con IA
Desde Logixs, se enfatiza que el principal desafío no radica solo en las capacidades ofensivas de Mythos, sino en el contexto actual donde la práctica de desarrollar software con IA sin conocimientos técnicos está aumentando. Esto incrementa la producción de código y la superficie de ataque de las organizaciones.
El rápido avance de la tecnología, sin la adecuada supervisión humana y seguridad, ha llevado a que las empresas adopten la IA sobre estructuras no preparadas. Mythos es un reflejo de las carencias reales existentes en la implementación y gobernanza del dato.
