OpenAI acaba de emitir una advertencia notable sobre una vulnerabilidad de seguridad inherente en los navegadores web que son compatibles con la inteligencia artificial que sugiere que esta vulnerabilidad podria no ser completamente solucionada.
Segun el desarrollador de ChatGPT los ataques de inyeccion de malware tambien conocidos como inyeccion de repeticion se estan convirtiendo en una amenaza persistente para los sistemas de IA modernos.
Los navegadores de IA como ChatGPT Atlas o Perplexity Comet estan cambiando gradualmente la forma en que los usuarios buscan e interactuan con la informacion en Internet.
En lugar de mostrar solo una lista de enlaces estas herramientas pueden leer sintetizar y realizar tareas en lugar de usuarios.
Sin embargo la capacidad de 'conocer el contexto' hace que se conviertan en un objetivo atractivo para los ciberdelincuentes.
Atacar y insertar codigo malicioso es una forma en la que los malos disfrazan las instrucciones dañinas en contenido aparentemente legitimo para engañar a los grandes modelos de lenguaje como GPT Gemini o Llama.
Cuando cae en la trampa la IA puede filtrar involuntariamente datos sensibles ignorar las solicitudes de los usuarios o difundir informacion falsa.
Por ejemplo un correo electronico diseñado sofisticadamente puede hacer que el agente de IA transmita documentos fiscales o informacion interna al atacante.
OpenAI admite que a pesar de estar corrigiendo continuamente errores y mejorando el sistema de defensa el prompt injection es un tipo de ataque muy dificil de eliminar por completo.
En una publicacion en un blog la empresa comparo esta forma de ataque con el fraude y las tecnicas sociales tradicionales en la web que son peligros que han existido durante decadas pero nunca han sido eliminados por completo.
Segun OpenAI el enfoque mas practico es actualizar continuamente las capas de proteccion en lugar de esperar una solucion de'solucion definitiva'.
Un informe de la empresa de navegadores Brave tambien señala que la causa central del problema radica en la naturaleza de los navegadores de IA basados en factores.
Estos modelos tienen dificultades para distinguir que contenido es necesario extraer para responder a los usuarios y que instrucciones deben seguir. Esta amplitud crea condiciones para que las directivas toxicas se filtren y ocupen el control del comportamiento de la IA.
Para hacer frente a esto OpenAI dijo que ha construido una herramienta de ataque automatico basada en el propio modelo de lenguaje grande para detectar proactivamente escenarios peligrosos de injection prompt.
Esta herramienta esta entrenada para desempeñar el papel de atacante lo que ayuda a los ingenieros a identificar y corregir las debilidades antes de ser explotada fuera de la realidad.
No solo OpenAI el Centro Nacional de Seguridad de Redes del Reino Unido (NCSC) tambien hizo una evaluacion similar y dijo que los ataques de insercion de malware dirigidos a aplicaciones de IA de nueva generacion probablemente nunca se reduciran por completo.
Esto plantea un gran desafio para la proteccion de los datos especialmente a medida que la IA se integra cada vez mas profundamente en los servicios en linea y los sistemas empresariales.
Actualmente OpenAI no ha anunciado en detalle si la nueva herramienta de ataque automatico es lo suficientemente capaz de contrarrestar los ataques de insercion de codigo rapida.
Sin embargo la empresa dijo que esta cooperando con muchos socios de terceros para reforzar la seguridad de ChatGPT Atlas incluso cuando este navegador aun no se ha lanzado oficialmente.
La advertencia de OpenAI se considera un recordatorio de que la era de los navegadores de IA aunque tiene mucho potencial tambien viene con riesgos de seguridad cibernetica que no se pueden ignorar.