El Gobierno de Estados Unidos ha abierto un pulso con Anthropic, la empresa creadora del modelo de IA generativa Claude, tras negarse a permitir su uso en armas autónomas letales y vigilancia masiva.
El Departamento de Defensa amenaza con romper su contrato de 200 millones de dólares y bloquear a la compañía en el ecosistema militar.
Claude es actualmente el único modelo de IA generativa integrado en sistemas clasificados del Pentágono. Hasta ahora, la relación había sido estratégica y estable, pero el choque por los límites éticos impuestos por la empresa ha tensionado el vínculo.
El contrato y la presión del Pentágono
Pete Hegseth, el secretario de Defensa, estudia designar a Anthropic como «riesgo para la cadena de suministro», una figura que obligaría a las compañías con contratos militares a dejar de utilizar su tecnología. La medida suele reservarse para adversarios extranjeros.
Desde el Pentágono se exige que los proveedores de IA permitan el uso de sus modelos «para todos los fines legales». Paralelamente, Defensa ha cerrado acuerdos con OpenAI, Google y xAI, cuyos modelos se emplearán en sistemas no clasificados.
