OpenAI (desarrollador de ChatGPT) acaba de advertir que el nacimiento de sistemas de IA super inteligentes puede traer riesgos de desastre si no se controlan.
Esta empresa enfatizo que la industria se esta acercando al hito de la 'AI autoevolucionista' es decir la capacidad de aprender y mejorarse sin la intervencion humana lo que podria llevar a consecuencias fuera de control.
OpenAI cree que ninguna organizacion deberia implementar sistemas super inteligentes que no hayan demostrado la capacidad de controlar y vincular de forma segura.
Esta es la advertencia mas fuerte de la empresa desde que el mundo comenzo la carrera mundial por la IA en la que los nuevos modelos son cada vez mas fuertes e impredecibles.
Segun OpenAI los riesgos potenciales no solo se detienen en la informacion erronea o el abuso de tecnologia sino que tambien estan relacionados con el riesgo de terrorismo biologico la violacion de la privacidad y los ciberataques a gran escala.
La empresa recomienda que los laboratorios de IA compartan informacion estandares de seguridad y nuevas lecciones de riesgo para construir una plataforma de defensa comun para toda la industria.
OpenAI tambien propone un sistema de vigilancia global coordinado entre el gobierno las organizaciones de investigacion y el sector privado para crear un ecosistema de recuperacion de la IA similar al modelo de seguridad cibernetica actual.
Este sistema incluira software de cifrado estandares de seguridad un equipo de respuesta de emergencia y un mecanismo para prevenir el uso indebido.
La empresa tambien pide a las agencias de gestion internacionales que eviten las leyes parcheadas y las regulaciones dispersas en lugar de un marco legal unificado para la IA para ayudar a asegurar tanto la promocion de la innovacion como la proteccion de los usuarios de los riesgos.
La advertencia de OpenAI surge en un contexto en el que muchas figuras publicas desde el principe Harry Meghan Markle hasta cientificos y politicos estadounidenses tambien piden una suspension temporal del desarrollo de superinteligencia artificial. Creen que esta tecnologia podria ir mas alla del control y amenazar la existencia humana.
Sin embargo el cientifico de IA Andrej Karpathy cree que la AGI (inteligencia artificial general) todavia esta a una decada de nosotros. El opina que los sistemas actuales todavia carecen de la capacidad de aprendizaje continuo un factor clave para lograr la inteligencia humana.
Con una perspectiva cautelosa pero optimista OpenAI predice que en 2026 la IA podra realizar pequeños descubrimientos cientificos y en 2028 podra lograr hallazgos mas importantes.
Sin embargo la empresa reconoce que la transformacion socioeconomica que traera la IA no sera facil y que la humanidad necesita estar preparada para la posibilidad de que las plataformas socioeconomicas actuales puedan tener que cambiar fundamentalmente.
Necesitamos actuar hoy para asegurar que el futuro de la IA sea seguro y beneficie a toda la humanidad concluyo OpenAI.