Esta medida podría provocar la cancelación de un contrato de hasta 200 millones de dólares entre ambas partes.
La controversia estalló después de que Anthropic se negara a levantar las barreras técnicas que impedían que la tecnología de la empresa se utilizara para controlar armas automáticas o desplegar la vigilancia en territorio estadounidense.
El portavoz del Pentágono, Sean Parnell, escribió en la red social X que el Departamento de Guerra no tiene intención de usar la IA para monitorear a una serie de ciudadanos estadounidenses, ni quiere desarrollar armas autónomas que funcionen completamente sin control humano.
Dijo que la solicitud del Pentágono era utilizar el modelo de IA de Anthropic para todos los fines legítimos y fijó un plazo para que la empresa tomara una decisión. Si no está de acuerdo, el Pentágono pondrá fin a la cooperación y considerará a Anthropic como un "riesgo de cadena de suministro".
En un comunicado el 26 de febrero, el director ejecutivo de Anthropic, Dario Amodei, afirmó que la empresa se opone al uso de su modelo para la vigilancia interna a gran escala o la operación de armas totalmente autónomas. Dijo que los sistemas de IA avanzados actuales no son lo suficientemente fiables para tareas vitales.
Una fuente cercana a la empresa dijo que Anthropic no acusa al Pentágono de planear implementar la IA en estas direcciones, sino que solo proporciona una evaluación de la seguridad tecnológica.
Según fuentes, la IA puede comportarse de manera impredecible en nuevas situaciones, lo que lleva al riesgo de disparar por error, fracaso de misión o escalada involuntaria. El uso de la IA para la vigilancia a gran escala también es preocupante porque la ley actual no limita claramente las inferencias que la IA puede extraer de los grandes datos.
El Sr. Amodei dijo que si se cancela el contrato, Anthropic apoyará el proceso de transferencia a otro proveedor. Sin embargo, enfatizó que la presión del Pentágono, incluida la amenaza de excluir a la empresa del sistema o citar la Ley de Producción de Defensa, no cambiará la postura de la empresa.
El viceministro de Guerra Emil Michael respondió en X, criticando al Sr. Amodei y afirmando que el Pentágono siempre cumple con la ley y no permite que ninguna empresa tecnológica de lucro domine la política de defensa.
Anthropic, respaldada por Google y Amazon, tiene actualmente un contrato con el Departamento de Guerra de EE. UU. por un valor máximo de 200 millones de dólares. La compañía dijo que todavía está dispuesta a continuar el diálogo y garantizar que las operaciones no se interrumpan.
Más de 200 empleados de Google y OpenAI firmaron una carta abierta apoyando la postura de Anthropic. Google y OpenAI no hicieron comentarios de inmediato.
Anthropic es una empresa de inteligencia artificial con sede en San Francisco, fundada en 2021 por ex líderes de OpenAI, incluido Dario Amodei. La empresa desarrolla modelos de IA como Claude y recibe grandes inversiones de Google y Amazon.