Los navegadores web de nueva generacion que integran inteligencia artificial como ChatGPT Atlas de OpenAI y Comet de Perplexity se estan promocionando como una puerta inteligente hacia Internet.
Estos agentes de IA de navegacion web pueden hacer clic automaticamente en la pagina leer formularios y completar muchas tareas en lugar de los usuarios.
Sin embargo detras de esa conveniencia hay serios riesgos de seguridad que los expertos advierten continuamente.
Los investigadores de ciberseguridad comparten que los agentes de los navegadores de IA pueden causar mayores riesgos que los navegadores tradicionales porque requieren acceso profundo a correos electronicos calendarios y contactos de usuario.
En las pruebas ChatGPT Atlas y Comet funcionan bien con tareas simples pero a menudo son lentos y se cometen errores al manejar situaciones complejas.
La vulnerabilidad de insercion rapida de malware es el mayor peligro
El mayor riesgo radica en el ataque de insercion de malware rapido donde los malos ocultan comandos maliciosos en el contenido del sitio web. Cuando el atacante IA escanea el sitio puede ejecutar involuntariamente los comandos de los hackers lo que lleva a filtraciones de correo electronico contraseñas o a realizar acciones no deseadas como publicar articulos o realizar transacciones en linea.
Los expertos llaman a esto un 'problema sistematico' de toda la industria de navegadores de IA. Segun un informe de Brave una empresa de desarrollo de navegadores de seguridad este tipo de ataques son cada vez mas sofisticados y dificiles de detectar.
Shivan Sahib un ingeniero senior de Brave advirtio: 'Cuando el navegador hace todo en tu lugar el riesgo tambien aumenta en consecuencia. Es un nuevo paso adelante pero muy peligroso'.
Las empresas de IA reconocen la vulnerabilidad
El director de Seguridad de la Informacion de OpenAI Dane Stuckey admitio que la vulnerabilidad de insercion de malware sigue siendo un problema que no se puede resolver por completo. Del mismo modo el grupo de seguridad de Perplexity tambien afirmo que este es un problema que requiere una revision de todo el enfoque de seguridad.
Para minimizar los riesgos OpenAI presenta un modo de desactivacion en el que el actor no inicia sesion en la cuenta del usuario al navegar por la web lo que ayuda a limitar el acceso a los datos.
Perplexity tambien agrego un sistema de deteccion de ataques en tiempo real pero los expertos creen que estas medidas son solo temporales.
Advertencia para los usuarios
Steve Grobman director de tecnologia de McAfee cree que el problema radica en los grandes modelos de lenguaje: 'La IA no entiende realmente de donde vienen las ordenes y por eso estos ataques son dificiles de prevenir'.
Mientras tanto Rachel Tobac CEO de Social Proof Security recomienda a los usuarios que utilicen una sola contraseña activen la autenticacion multifactor y limiten el acceso de los navegadores de IA a datos sensibles como los bancos o los registros medicos.
Rachel Tobac enfatizo: 'La tecnologia sera gradualmente mas segura pero actualmente lo mejor es no darle a la IA demasiado control'.