La tecnológica Anthropic sufre una nueva filtración de datos internos, apenas días después de otra exposición accidental. La brecha afecta al código fuente de su herramienta Claude Code, lo que incrementa el impacto sobre su seguridad y desarrollo tecnológico.
La incidencia permite a perfiles técnicos acceder a información sensible del sistema, incluyendo detalles internos de funcionamiento. Este tipo de exposición supone un riesgo directo para la protección de la propiedad intelectual en entornos de inteligencia artificial.
Código fuente expuesto
La filtración incluye parte del código fuente de Claude Code, lo que facilita la extracción de datos internos por parte de terceros. Expertos en ciberseguridad señalan que este tipo de acceso puede revelar arquitectura, vulnerabilidades y estrategias de desarrollo.
El incidente se considera más grave que el anterior, en el que se filtró un borrador relacionado con un nuevo modelo de IA. En este caso, la exposición afecta directamente a activos técnicos clave de la compañía.
Nuevos modelos al descubierto
El código filtrado confirma la existencia de nuevos modelos en desarrollo, entre ellos uno denominado «Capybara». También se habían detectado referencias previas a otro modelo interno llamado «Mythos».
Estas filtraciones adelantan información estratégica sobre la hoja de ruta de Anthropic en inteligencia artificial, lo que puede afectar a su posición competitiva en el mercado.
Miles de archivos comprometidos
La brecha se produce tras la exposición accidental de cerca de 3.000 archivos internos, lo que amplía el alcance del incidente. Esta acumulación de fallos pone en evidencia debilidades en los protocolos de seguridad de la compañía.
El caso refuerza la creciente relevancia de la ciberseguridad en el desarrollo de IA, donde la protección del código y los datos se convierte en un factor crítico para la competitividad empresarial.
