La ultima edicion del Indice de Seguridad de la IA publicado recientemente por el Instituto para el Futuro de la Vida muestra que las medidas de seguridad de muchos de los principales grupos de inteligencia artificial incluidos: Anthropic OpenAI xAI y Meta todavia estan lejos de los estandares globales que se estan formando gradualmente para garantizar que la IA se desarrolle de forma segura.
Los resultados de la evaluacion fueron realizados por un grupo de expertos independientes despues de un proceso de analisis de muchas politicas estrategias y informes publicos sobre IA.
Segun el grupo de investigacion aunque la carrera por desarrollar sistemas de superinteligencia se esta desarrollando ferozmente ninguna empresa posee una estrategia completa para controlar modelos de IA que puedan superar a los humanos en razonamiento y pensamiento logico.
Esto aumenta las preocupaciones del publico especialmente despues de algunos casos de usuarios que se suicidan o se autolesionan relacionados con la interaccion con chatbots.
El profesor Max Tegmark presidente del Future of Life Institute y profesor del MIT enfatizo: 'A pesar de las controversias sobre los hackers y los comportamientos peligrosos que aprovechan la IA las empresas estadounidenses de IA siguen siendo gestionadas mas estrechamente que los restaurantes mientras continuan movilizandose contra la aplicacion de estandares de seguridad vinculantes'.
Las advertencias surgen en un contexto en el que la carrera por la IA no muestra signos de desaceleracion. Las grandes corporaciones tecnologicas continuan comprometiendose a invertir cientos de miles de millones de dolares para ampliar la infraestructura y la capacidad de aprendizaje automatico.
Sin embargo segun los expertos la velocidad de desarrollo demasiado rapida de la tecnologia esta superando con creces los esfuerzos de control de riesgo de las propias empresas.
Future of Life Institute se fundo en 2014 y ha recibido el apoyo de Elon Musk una organizacion que ha sido durante mucho tiempo lider en la advertencia de riesgos de la IA.
En octubre pasado muchos cientificos famosos incluidos Geoffrey Hinton y Yoshua Bengio pidieron una suspension temporal del desarrollo de inteligencia artificial super inteligente hasta que la sociedad logre el consenso y la ciencia encuentre una direccion segura.