La confianza en la IA esta en crisis.
Segun una encuesta de Bentley-Gallup de mas de 5.400 estadounidenses (2024), hasta el 79% de los participantes dijeron que no creen que las empresas actuales esten utilizando la IA de manera responsable.
Esta es una cifra sin precedentes, que muestra el creciente nivel de preocupacion en el publico sobre la falta de transparencia, el sesgo y la violacion de la privacidad de los sistemas de IA.
Esta preocupacion no es infundada. En marzo de 2025, se envio una denuncia formal a la Autoridad de Proteccion de Datos de Noruega cuando el ChatGPT de OpenAI genero informacion gravemente erronea sobre un ciudadano que no tenia hijos, el chatbot invento que habia matado a dos hijos e intento matar a un tercero.
Anteriormente, el Comite de Proteccion de Datos de Irlanda (DPC) investigo la plataforma de redesocial (ex Twitter) para sospechar la extraccion de datos publicos del usuario europeo para capacitar al modelo AI Grok sin consenso legal. Aunque X ha detenido el comportamiento, la investigacion aun esta en curso.
Necesitamos una IA responsable
En ese contexto, la IA responsable se esta convirtiendo en el nuevo estandar etico en la era tecnologica, cuando los usuarios exigen que la IA no solo sea inteligente, sino que tambien sea explicable, justa, solida, transparente y proteja la privacidad.
Sin embargo, muchas empresas, a pesar de reconocer la importancia de estos principios, todavia estan luchando para hacerlos realidad. Segun una encuesta de la firma de auditoria PwC en 2024, solo el 11% de las organizaciones creen que han implementado las capacidades suficientes para practicar una IA responsable. El problema es que las empresas carecen de un sistema de gobierno claro para convertir los principios en acciones.
Esa es la razon por la que nacio ISO/IEC 42001, el primer conjunto de estandares internacionales dedicados exclusivamente a los sistemas de gestion de inteligencia artificial (AIMS), que se publicara en 2024. No es solo un marco teorico, sino un sistema de gestion completo que ayuda a las empresas a controlar el ciclo de vida de la IA, desde la estrategia hasta la operacion, siguiendo el modelo PDCA (Planificacion, Ejecucion, Verificacion, Mejoramiento).
La norma tambien incluye 7 clausulas basicas y 39 controles obligatorios, que aseguran que la IA no solo es tecnica, sino tambien etica y legal.
En general, la inteligencia artificial no dejara de crecer, pero cuando la tecnologia supera la velocidad de la administracion, el riesgo es inevitable. Para convertir la IA en una ventaja en lugar de una amenaza, las empresas deben comenzar con una buena administracion, estandares claros y una plataforma operativa segura.
Esta es una de las principales razones por las que VNetwork organizo una conferencia en linea con el tema "Diseñando el futuro de la IA - Con IA responsable & ISO/IEC 42001" el 24 de abril.
Aqui, los expertos en seguridad cibernetica compartieron valiosas ideas, exploraron por que las empresas deben poner la administracion responsable de la IA a la cabeza con perspectivas profundas; aprendieron los secretos para implementar la IA de manera mas transparente, segura y eficiente que nunca; escucharon experiencias reales de expertos y empresas pioneras en la aplicacion de la IA...
A traves de ella, las empresas pueden encontrar soluciones para poder controlar la IA, desarrollarse de forma segura y sostenible...