El director ejecutivo de Anthropic, Dario Amodei, criticó públicamente a OpenAI después de que la aplicación ChatGPT registrara una fuerte ola de desinstalaciones. Se cree que la razón está relacionada con el acuerdo de cooperación de inteligencia artificial entre OpenAI y el ejército estadounidense.
Inmediatamente después de que el gobierno de Estados Unidos llegara a un acuerdo con OpenAI sobre el uso de la tecnología de IA, los datos de Sensor Tower mostraron que el número de desinstalaciones de la aplicación ChatGPT se disparó alrededor del 295% el sábado 28 de febrero, en comparación con el aumento diario promedio de solo el 9% en los últimos 30 días.
Esto muestra una reacción negativa de una parte de los usuarios ante la posibilidad de que la IA se aplique en el campo militar.
Ante la creciente ola de críticas, el CEO de OpenAI, Sam Altman, dijo que la compañía no se apresurará a implementar el acuerdo.
Afirmó que OpenAI está revisando los términos de cooperación para aclarar aún más cómo se utiliza la tecnología de IA para fines prohibidos.
En una publicación en la red social X, Altman dijo que el acuerdo está siendo ajustado para agregar una cláusula que afirma que los modelos de IA de OpenAI no se utilizan para fines de vigilancia nacional.
La compañía también dijo que había añadido regulaciones para evitar que el gobierno utilice datos comerciales a gran escala de ciudadanos estadounidenses para actividades de vigilancia.
Sin embargo, la reacción de los competidores es bastante dura. En un memorándum interno al que accedieron los medios, el CEO de Anthropic, Dario Amodei, dijo que el acuerdo de OpenAI con el ejército estadounidense es solo una "drama de seguridad".
Según Amodei, OpenAI acepta cooperar principalmente para calmar a los empleados y a la opinión pública, mientras que Anthropic afirma que se centra en prevenir el riesgo de abuso de inteligencia artificial.
También acusó a Altman de enviar mensajes falsos al autodenominarse "mediador y mediador de acuerdos".
El Sr. Amodei cree que muchas personas en el público y los medios de comunicación están considerando el acuerdo de OpenAI con el Pentágono como turbio o sospechoso.
La controversia también gira en torno a una cláusula del contrato del Departamento de Defensa de Estados Unidos, que permite que la tecnología de IA se utilice para todos los fines legítimos.
Los expertos creen que esta forma de expresión podría abrir la posibilidad de utilizar la IA en muchos campos sensibles, dependiendo de cómo se aplique la ley en el futuro.
OpenAI afirma que la vigilancia interna a gran escala se considera actualmente ilegal según las regulaciones vigentes.
Sin embargo, algunas opiniones sugieren que la ley puede cambiar con el tiempo, haciendo que los límites actuales sean más laxos.
Mientras tanto, después de que las negociaciones anteriores no dieran resultados, se dice que Anthropic continúa en contacto con el gobierno de Estados Unidos para discutir la posibilidad de proporcionar tecnología de IA al ejército.
La controversia entre las dos principales empresas de IA muestra los complejos problemas que rodean la aplicación de la inteligencia artificial en el campo militar, especialmente cuando esta tecnología juega un papel cada vez más importante en la estrategia de seguridad nacional.