Si la inteligencia artificial puede traer riesgos a la humanidad entonces el profesor Zico Kolter es quien esta desempeñando uno de los papeles mas importantes para controlarlo.
Es el presidente del Comite de Seguridad y confidencialidad de OpenAI una agencia que tiene derecho a impedir la emision de cualquier sistema de IA si se detecta un riesgo de inseguridad desde modelos que pueden ser explotados por los malos para fabricar armas hasta chatbots que afectan negativamente la salud mental humana.
El profesor Kolter dijo que su grupo no solo gestiona los riesgos y preocupaciones sobre los grandes problemas que afectan a las personas sino que tambien se centra en todos los temas de seguridad y proteccion y impacto social a medida que la IA se aplica cada vez mas ampliamente.
Kolter fue nombrado hace mas de un año pero este puesto se ha vuelto particularmente importante cuando California y Delaware acaban de incluir su supervision en los acuerdos legales permitiendo que OpenAI se reestructure en un modelo de bienestar publico.
Segun el acuerdo todas las decisiones sobre seguridad e confidencialidad de la IA deben priorizarse a los intereses financieros. Kolter aunque no pertenece al consejo de administracion de la empresa por lucro todavia tiene derecho a observar plenamente y a acceder a toda la informacion relacionada con las decisiones de seguridad en OpenAI.
Junto con el estan otros tres miembros entre ellos el ex Comandante del Comando de Inteligencia Cibernetica de Estados Unidos Paul Nakasone. Su presencia muestra la estrictitud a la que OpenAI quiere aspirar en la gestion de riesgos tecnologicos.
Se sabe que Zico Kolter de 42 años es profesor de informatica en la Universidad Carnegie Mellon. Entro en el campo de la robotica a principios de la decada de 2000 cuando la IA todavia era un concepto poco entendido y distante de la realidad.
Desde ese momento se convirtio en un experto lider en aprendizaje profundo y seguridad de la IA en colaboracion con muchos grandes laboratorios antes de seguir OpenAI desde los primeros dias de su lanzamiento en 2015.
Kolter cree que la velocidad de desarrollo de la IA ha superado todas las predicciones lo que conlleva riesgos sin precedentes desde la seguridad de la red los datos hasta la capacidad de la IA para apoyar la fabricacion de armas biologicas.
Y finalmente el impacto de la IA en la salud mental y el comportamiento humano algo que no entendemos por completo' dijo el profesor Kolter.
OpenAI despues de lanzar ChatGPT fue acusado de lanzar productos demasiado rapido para mantener el liderazgo. El caso del despido temporal del CEO Sam Altman en 2023 hizo que surgieran mas sospechas de que la empresa habia descuidado su mision por lucro.
A partir de ahi el papel de Kolter y el Comite de Seguridad se convirtio en un escudo de confianza para el publico. Aunque no revelo detalles sobre los retrasos en la emision del modelo Kolter afirmo: 'Podemos solicitar la suspension temporal de cualquier publicacion hasta que se reduzcan los riesgos'.
En medio de la ola de la comercializacion de la IA la presencia de personas como Zico Kolter es un recordatorio de que la innovacion tecnologica debe ir de la mano con la responsabilidad social.
Porque para el la IA no es solo una herramienta para generar ganancias sino un poder que puede dar forma al futuro de la humanidad.