EEUU amenaza con vetar a Anthropic

El Pentágono amenaza a Anthropic por limitar el uso militar de Claude en armas autónomas y vigilancia masiva en EEUU.
Imagen del Capitolio de los EE.UU. Imagen del Capitolio de los EE.UU.
Imagen del Capitolio de los EE.UU. :: The Officer

El Gobierno de Estados Unidos ha abierto un pulso con Anthropic, la empresa creadora del modelo de IA generativa Claude, tras negarse a permitir su uso en armas autónomas letales y vigilancia masiva.

El Departamento de Defensa amenaza con romper su contrato de 200 millones de dólares y bloquear a la compañía en el ecosistema militar.

Claude es actualmente el único modelo de IA generativa integrado en sistemas clasificados del Pentágono. Hasta ahora, la relación había sido estratégica y estable, pero el choque por los límites éticos impuestos por la empresa ha tensionado el vínculo.

El contrato y la presión del Pentágono

Pete Hegseth, el secretario de Defensa, estudia designar a Anthropic como «riesgo para la cadena de suministro», una figura que obligaría a las compañías con contratos militares a dejar de utilizar su tecnología. La medida suele reservarse para adversarios extranjeros.

Desde el Pentágono se exige que los proveedores de IA permitan el uso de sus modelos «para todos los fines legales». Paralelamente, Defensa ha cerrado acuerdos con OpenAI, Google y xAI, cuyos modelos se emplearán en sistemas no clasificados.

Te damos More

Si te está gustando este contenido elaborado y te cuadra nuestro magazine, tenemos nuestro more.

¡Suscríbete! Te pondremos en tu correo contenidos exclusivos, análisis y reviews, charlas con expertos, podcasts, planes, regalos y utilidades.

Suscribirme

El origen del conflicto

La tensión se intensificó tras el uso de Claude en la operación para capturar al presidente venezolano Nicolás Maduro el 3 de enero. La herramienta fue desplegada mediante la alianza entre Anthropic y Palantir Technologies, proveedor habitual del Departamento de Defensa.

Fuentes citadas por medios estadounidenses señalan que ejecutivos de Anthropic cuestionaron internamente si su software había sido empleado en una operación con fuego real. Las directrices de la empresa prohíben expresamente el uso de Claude en violencia directa, desarrollo de armas o vigilancia masiva.

La posición de Dario Amodei

Dario Amodei, el consejero delegado, sostiene que la IA debe desarrollarse bajo principios de seguridad y control humano. La compañía se muestra dispuesta a flexibilizar ciertos términos, pero rechaza que su tecnología sirva para crear sistemas capaces de disparar sin intervención humana.

Para la administración estadounidense, esta postura resulta excesivamente restrictiva y podría limitar la capacidad operativa del ejército. Un alto mando militar admitió que romper el acuerdo sería «un enorme dolor de cabeza».

Impacto económico y estratégico

Anthropic factura alrededor de 14.000 millones de dólares anuales y su exclusión del circuito militar supondría un golpe relevante para su negocio. La empresa nació como escisión de OpenAI con el objetivo de impulsar un desarrollo más ético de la inteligencia artificial.

El debate se enmarca en la creciente integración de la IA en defensa, desde análisis de datos clasificados hasta sistemas autónomos en el campo de batalla. El conflicto entre el Pentágono y Anthropic refleja la tensión entre innovación militar y límites éticos en la nueva era de la ciberdefensa.

Add a Comment

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

PUBLICIDAD