OpenAI acaba de advertir que sus nuevos modelos de IA entrañan un alto riesgo de ciberseguridad si son abusados.
Segun esta empresa estos modelos se pueden utilizar para desplegar vulnerabilidades sin parchear (explotaciones de cero dias) o penetrar en las operaciones complejas de la empresa causando graves impactos practicos.
En una publicacion en su blog el 10 de diciembre (hora local) OpenAI dijo que esta invirtiendo fuertemente en el entrenamiento de IA para llevar a cabo tareas de ciberseguridad y defensa al tiempo que desarrolla herramientas para apoyar a los grupos de seguridad a verificar y parchear rapidamente vulnerabilidades.
No solo OpenAI sino que las grandes corporaciones tecnologicas tambien estan mejorando la capacidad de la IA para combatir la falsificacion.
Google anuncio recientemente la mejora de la arquitectura de seguridad del navegador Chrome para combatir los ataques de insercion de comandos sofisticados para tomar el control de los agentes de IA preparandose para la implementacion generalizada de Gemini.
En noviembre de 2025 Anthropic revelo que un grupo de ciberataques intento manipular Claude Code pero esta campaña fue bloqueada.
La capacidad de la IA en la seguridad de la red aumenta rapidamente. OpenAI dice que el GPT-5.1-Codex-Max alcanzo el 76% en desafios de toma de decisiones (CTF) un aumento significativo en comparacion con el 27% del GPT-5 en agosto. Esta es una prueba del rapido desarrollo de la capacidad de defensa y ataque cibernetico de la IA.
Para minimizar los riesgos OpenAI aplica un sistema de seguridad multicapa que incluye el control de acceso la seguridad de la infraestructura el control de salidas y la supervision de todo el sistema. Las medidas especificas incluyen:
- Entrenar a la IA para que rechace o responda de forma segura a los requisitos nocivos pero aun utiles en la educacion y la defensa.
- Supervisar todo el sistema para detectar actividades de red sospechosas.
- Cooperar con expertos en simulacion de ataque (red teaming) para evaluar y mejorar las medidas de reduccion de riesgos.
OpenAI tambien esta probando Aardvark un asistente de IA que escanea codigo fuente para encontrar vulnerabilidades y proponer parches rapidos que se espera que proporcione de forma gratuita a algunas tiendas de codigo abierto no comerciales.
Esta empresa ha establecido un 'Colegio de Prevencion de Riesgos Pioneros' formado por expertos externos en ciberseguridad y al mismo tiempo ha establecido un programa de acceso confiable para usuarios y desarrolladores.
Las actividades anteriores destacan los esfuerzos de OpenAI para prepararse para el futuro con amenazas de IA cada vez mas sofisticadas y mantener la seguridad para la comunidad tecnologica global.