El modelo de inteligencia artificial (IA) Claude de Anthropic se ha utilizado en la campaña militar estadounidense para arrestar al presidente venezolano Nicolás Maduro.
La información fue publicada por el periódico estadounidense Wall Street Journal, citando muchas fuentes informadas.
La implementación de Claude se lleva a cabo a través de una relación de cooperación entre Anthropic y la empresa de datos Palantir Technologies, una unidad con plataformas de software ampliamente utilizadas por el Departamento de Defensa de EE. UU. y las agencias federales de aplicación de la ley.
El Pentágono está impulsando a las principales empresas de IA, incluidas OpenAI y Anthropic, a introducir herramientas de inteligencia artificial en redes de seguridad sin aplicar muchas restricciones estándar destinadas a los usuarios comunes.
Muchas empresas de IA están construyendo sus propias herramientas para el ejército estadounidense, pero la mayoría solo opera en redes no seguras, que a menudo se utilizan para el trabajo administrativo militar.
Anthropic es la única empresa que tiene herramientas implementadas en un entorno seguro a través de un tercero, pero el gobierno aún debe cumplir con las políticas de uso de la empresa.
La política de uso de Anthropic, una empresa que acaba de recaudar 30 mil millones de dólares en la última ronda de financiación y está valorada en unos 380 mil millones de dólares, prohíbe el uso de Claude para apoyar la violencia, diseñar armas o realizar actividades de vigilancia.
Estados Unidos arrestó al presidente venezolano Nicolás Maduro en una operación de allanamiento a principios de enero, y luego lo llevó a Nueva York. Maduro se enfrenta actualmente a cargos de tráfico de drogas.