La competencia en el campo de la inteligencia artificial (IA) continúa calentando cuando OpenAI anuncia el nuevo modelo GPT-5.4-Cyber, solo una semana después de que Anthropic lanzara el sistema Mythos para la seguridad cibernética.
GPT-5.4-Cyber es una variante refinada de la línea de modelos avanzados de OpenAI, centrada en el soporte para la defensa de la seguridad cibernética.
Según el anuncio, esta herramienta está diseñada para ayudar a los expertos a detectar, analizar y procesar vulnerabilidades de seguridad en sistemas de software.
Esta medida se produce justo después de que Anthropic presentara Mythos en el marco del "Proyecto Glasswing". Este modelo se está probando actualmente de forma controlada, lo que permite a algunas organizaciones utilizar versiones no publicadas para fines defensivos.
Según Anthropic, Mythos ha descubierto miles de vulnerabilidades graves en sistemas operativos, navegadores y muchos otros programas.
Ante la presión competitiva, OpenAI optó por un enfoque más cauteloso. GPT-5.4-Cyber no se difundirá ampliamente de inmediato, sino que solo se implementará de forma limitada para proveedores de seguridad, organizaciones e investigadores censurados.
La empresa dijo que el control del acceso tiene como objetivo minimizar el riesgo de abuso de tecnología en las actividades de ciberataques.
Junto con eso, OpenAI amplió el programa Trusted Access for Cyber (TAC), que se lanzó a principios de este año.
Este programa proporciona acceso en múltiples niveles, en el que los usuarios verificados al nivel más alto podrán usar GPT-5.4-Cyber con menos restricciones para tareas sensibles como la investigación de vulnerabilidades.
Los expertos opinan que la aparición de modelos de IA especializados para la seguridad cibernética muestra una nueva tendencia cuando la IA no solo es una herramienta para crear contenido, sino que también se está convirtiendo en un "escudo digital" ante las amenazas cada vez más sofisticadas.
Sin embargo, equilibrar la fortaleza tecnológica y el control de riesgos sigue siendo un gran problema para las empresas que desarrollan IA.