La empresa de inteligencia artificial Anthropic acaba de confirmar un grave incidente relacionado con la filtración del código fuente de Claude Code, una herramienta de programación de IA que se está utilizando ampliamente.
Aunque no se considera un ataque de ciberseguridad, el incidente sigue generando muchas preocupaciones, especialmente en el contexto de una competencia cada vez más feroz en el campo de la IA.
Según información de Anthropic, la causa proviene de un error humano en el proceso de empaquetado del lanzamiento del software.
Específicamente, la versión 2.1.888 de Claude Code contenía accidentalmente un archivo interno, revelando casi 2.000 archivos con más de 512.000 líneas de código fuente.
Estos datos fueron rápidamente detectados y difundidos en plataformas como GitHub y la red social X, atrayendo decenas de millones de visitas en poco tiempo.
Un representante de Anthropic afirmó que no hay datos de clientes sensibles ni información de inicio de sesión filtrada.
Sin embargo, se dice que el código fuente filtrado contiene instrucciones detalladas sobre cómo funciona Claude Code, incluido el uso de herramientas, los límites del sistema y los procesos de procesamiento de tareas de programación. Esta es información de alto valor para los competidores.
El incidente llamó inmediatamente la atención en la comunidad de programadores y expertos en seguridad. Muchas opiniones sugieren que la filtración del código fuente podría ayudar a otras empresas de IA a comprender mejor cómo Anthropic construye productos, acortando así el tiempo de desarrollo o encontrando debilidades para explotar.
En el contexto de que grandes empresas como OpenAI, Google o xAI están compitiendo para desarrollar herramientas de programación de IA, esto se considera una gran desventaja para Anthropic.
Claude Code fue presentado por Anthropic en mayo de 2025 como una herramienta de línea de comandos que admite la programación con IA, permitiendo a los usuarios escribir, editar código, corregir errores y automatizar muchas tareas.
El producto fue rápidamente bien recibido, contribuyendo a que los ingresos anuales de la empresa superaran los 2.500 millones de dólares a principios de 2026.
Esta filtración también destaca la estrategia de desarrollo "cerrada" de Anthropic, donde el código fuente y la tecnología central no se hacen públicos como el modelo de código abierto.
Cuando se filtra información interna, el riesgo de competencia se vuelve aún más claro, ya que los competidores pueden aprovecharlo para comprender más profundamente la arquitectura y la filosofía de diseño de productos.
En particular, este es el segundo incidente en menos de una semana relacionado con la filtración de información interna de Anthropic.
Anteriormente, un borrador de blog que describía un modelo de IA no lanzado llamado Claude Mythos también fue accedido ilegalmente desde una base de datos no segura.
Según la información filtrada, se espera que Mythos sea superior a los modelos anteriores, pero al mismo tiempo también encierra riesgos de seguridad cibernética significativos.
Actualmente, Anthropic dice que está implementando medidas para prevenir incidentes similares en el futuro. Sin embargo, el incidente una vez más hace sonar la alarma sobre el proceso de control interno y la seguridad de los datos en la creciente industria de la IA.