OpenAI acaba de anunciar dos nuevas medidas de seguridad para ChatGPT, que incluyen el modo de bloqueo (Lockdown mode) y el sistema de alerta de alto riesgo, con el objetivo de mejorar la protección de los datos y ayudar a los usuarios a controlar mejor al utilizar la inteligencia artificial en el trabajo.
Régimen de bloqueo para entornos de alto riesgo
Según OpenAI, estas dos funciones funcionan en paralelo para proporcionar información más clara sobre los riesgos de seguridad, al tiempo que agregan una capa de control de sistema más estricta para organizaciones e individuos con alto riesgo de ciberataques.
El modo de bloqueo es una función de seguridad mejorada, opcional y actualmente solo está destinada a un pequeño grupo de usuarios con altos requisitos de seguridad, como líderes empresariales, expertos en seguridad o grandes organizaciones.
Cuando se activa, este modo limitará estrictamente la capacidad de ChatGPT para interactuar con el sistema externo, desactivando algunas herramientas que pueden ser explotadas a través de comandos maliciosos.
Por ejemplo, al navegar por la web en modo bloqueado, el sistema solo accede al contenido que se ha guardado en el caché en lugar de enviar solicitudes de red directamente fuera del entorno de seguridad de OpenAI.
Si una función no puede garantizar un nivel de protección de datos lo suficientemente fuerte, esa función puede desactivarse por completo.
Los administradores de espacio de trabajo pueden activar el modo de bloqueo creando un rol dedicado en la configuración del sistema.
Cuando se activa, este modo aplica restricciones adicionales sobre las configuraciones de seguridad existentes, y al mismo tiempo permite a los administradores seleccionar de forma flexible qué aplicaciones o acciones se permiten usar.
Además, también se proporcionan herramientas de registro de cumplimiento para rastrear el uso de aplicaciones, datos compartidos y sistemas conectados, ayudando a las empresas a cumplir con los requisitos de gestión y auditoría.
Advertencia clara para características de alto riesgo
La segunda actualización se centra en la transparencia de la información. Algunas funciones de IA con acceso a Internet o sistemas externos pueden tener riesgos de seguridad más altos.
Para que los usuarios entiendan mejor, OpenAI etiquetará las advertencias de "alto riesgo" consistentes en las funciones de ChatGPT, ChatGPT Atlas y Codex.
Estas advertencias explican específicamente lo que se ve afectado al activar la función, los riesgos que pueden ocurrir y cuándo usarla.
Por ejemplo, permitir el acceso a la red a través de herramientas de programación puede aumentar el riesgo de vulnerabilidades de seguridad, y el sistema lo indicará claramente.
OpenAI dijo que las medidas de seguridad seguirán desarrollándose siguiendo las nuevas amenazas.
Cuando el riesgo disminuye o la tecnología de protección mejora, la etiqueta de "alto riesgo" puede eliminarse de algunas funciones.
La adición del modo de bloqueo junto con un nuevo sistema de alerta muestra que el objetivo de OpenAI es proteger mejor a los usuarios, al tiempo que proporciona una opción más clara a medida que la IA se integra cada vez más profundamente en el entorno de trabajo y las operaciones comerciales.