El auge de la inteligencia artificial AI en la programación está creando una nueva paradoja: la productividad se dispara, pero se acompaña de una "inundación" de código fuente que supera la capacidad de control humano.
En una empresa de servicios financieros, la implementación de la herramienta de programación de IA Cursor ha ayudado a que la producción de código aumente de 25.000 a 250.000 líneas al mes.
Sin embargo, esto también conlleva alrededor de 1 millón de líneas de código que necesitan ser revisadas, un volumen enorme que excede la capacidad de censura existente.
Según Joni Klippert, CEO de StackHawk (una empresa de tecnología especializada en seguridad de aplicaciones), el rápido aumento del número de códigos significa un aumento de los riesgos de seguridad que las empresas no pueden seguir.
Esta tendencia se ha vuelto evidente desde que las herramientas de IA de OpenAI, Anthropic o Cursor están en auge.
No solo los ingenieros, ahora cualquier empleado puede crear software en solo unas horas.
Eso ayuda a acelerar la innovación, pero al mismo tiempo provoca una situación de "overcarga de código de programación".
En el entorno tecnológico, muchos empleados ven esto como una "nueva norma". La IA les ayuda a concentrarse en las ideas en lugar de escribir cada línea de código. Pero el inconveniente es que el número de ingenieros capaces de verificar, detectar errores y garantizar la seguridad no es suficiente.
Las empresas están buscando cada vez más ingenieros de alto nivel, especialmente expertos en seguridad de aplicaciones.
Una encuesta de Google muestra que el 90% de los desarrolladores han utilizado la IA en el trabajo. El fuerte aumento de la eficiencia también ha provocado que muchas empresas recorten personal, argumentando que la IA podría reemplazar la mayor parte del volumen de trabajo anterior.
Según el director de tecnología de Meta, Andrew Bosworth, los proyectos que alguna vez requerían cientos de ingenieros ahora se pueden completar con unas pocas docenas de personas.
Junto con eso, la aparición de agentes de IA, que son sistemas que pueden escribir software por sí mismos, está acelerando el ritmo de desarrollo a un nivel sin precedentes.
Con solo un poco de guía, la IA puede crear todo el programa en poco tiempo, lo que hace que la cantidad de código generado aumente exponencialmente.
Sin embargo, el problema no se limita a la cantidad. Las empresas se enfrentan a la pregunta: ¿quién es responsable cuando el código creado por la IA tiene errores?
Anteriormente, los programadores que escriben código corregirían errores. Ahora, cuando la IA crea la mayoría de los productos, los límites de responsabilidad se desvanecen.
Los riesgos de seguridad también aumentan de manera impredecible. Muchos ingenieros tienen que descargar todo el código fuente a sus máquinas personales para usar herramientas de IA, creando involuntariamente el riesgo de fuga de datos si el dispositivo se pierde o es atacado.
En el campo del código abierto, la situación es aún más compleja. Algunos proyectos registran un aumento repentino en las contribuciones, pero muchos de ellos son código creado por IA, sin control de calidad. Incluso hay casos en los que los proyectos tienen que cerrarse al exterior para evitar riesgos.
Para hacer frente a esto, las empresas siguen recurriendo a la propia IA. Se han desarrollado muchas herramientas nuevas para verificar automáticamente los códigos, detectar errores y priorizar las partes de alto riesgo.
Sin embargo, los expertos creen que esta es solo la etapa inicial de una gran transición.
A medida que la IA continúa mejorando su capacidad de programación, el desafío ya no es escribir código más rápido, sino cómo controlar, comprender y asumir la responsabilidad de la enorme cantidad de código que crean las máquinas.