La empresa de inteligencia artificial Anthropic acaba de presentar una nueva función llamada Claude Code Security, que permite a los asistentes de programación de IA escanear código fuente y proponer parches para solucionar vulnerabilidades de seguridad.
Esta herramienta está integrada directamente en la versión web de Claude Code, con el objetivo de ayudar a los grupos de desarrollo a detectar riesgos que los métodos tradicionales pueden omitir.
Según un anuncio de Anthropic, Claude Code Security no solo busca patrones de errores conocidos como muchas herramientas de análisis estático actuales, sino que también lee e interpreta la estructura de código de manera similar a la que lo hace un experto en seguridad.
El sistema rastrea el flujo de datos en la aplicación, analiza cómo interactúan los componentes para detectar vulnerabilidades complejas, incluidas las debilidades difíciles de identificar mediante reglas disponibles.
La nueva función ahora se implementa de forma limitada para algunos clientes de pago de Claude Enterprise y Team, mientras que los mantenedores de código abierto pueden tener prioridad para el acceso temprano.
El lanzamiento se produce en un contexto en el que cada vez más personas no profesionales utilizan herramientas de IA para crear sitios web y aplicaciones, pero carecen de conocimientos de seguridad para verificar el código generado por la IA.
Un informe reciente de Tenzai (una unidad especializada en investigación y desarrollo tecnológico) muestra que los sitios web construidos con herramientas de OpenAI, Anthropic, Cursor, Replit o Devin pueden ser explotados para filtrar datos confidenciales o transferir dinero a los hackers sin querer si no se verifican cuidadosamente.
Anthropic enfatiza que, aunque la IA pueda proponer parches, la decisión final sigue siendo humana. Claude Code Security opera según un proceso de verificación de múltiples etapas, que incluye la eliminación de resultados falsos positivos y la reevaluación de los hallazgos antes de mostrarlos en la consola central.
Las vulnerabilidades se clasifican por gravedad y fiabilidad del sistema al realizar la evaluación.
En particular, a principios de este mes, el Director de Producto Mike Krieger (a cargo de las operaciones de ingeniería de productos, gestión de productos y diseño de Anthropic), reveló que las herramientas de programación de IA de la empresa se están utilizando internamente para crear casi todo el código fuente del producto.
Claude fue escrito por Claude", dijo Mike Krieger, destacando el alto nivel de automatización en el proceso de desarrollo.
En cuanto a las pruebas, Anthropic dijo que Claude Code Security ha sido probada a través de eventos competitivos Capture-the-Flag, y también ha cooperado con el Laboratorio Nacional del Pacífico Noroeste (Ministerio de Energía de EE. UU.) para evaluar la capacidad de proteger infraestructuras clave con IA.
Según la empresa, el equipo de investigación ha descubierto más de 500 vulnerabilidades sin precedentes en proyectos de código abierto gracias al modelo Claude Opus 4. 6.
Actualmente, Anthropic se está coordinando con la comunidad para divulgar información de manera responsable y continuar expandiendo los esfuerzos de seguridad en el ecosistema de software abierto.