Cientos de incidentes inusuales
Un nuevo estudio de Gran Bretaña muestra que los sistemas de inteligencia artificial (IA) tienden a comportarse fuera del control humano, incluyendo mentir, hacer trampa y tratar de superar las medidas de seguridad para lograr sus objetivos.
Un informe realizado por el Centro de Resiliencia a Largo Plazo (Centre for Long-Term Resilience) con el patrocinio del Instituto de Seguridad de IA del Reino Unido (UK AI Safety Institute) registró cientos de casos de IA que ignoran las instrucciones, manipulan otros sistemas y elaboran planes complejos.
El equipo de investigación analizó más de 180.000 interacciones reales de usuarios con sistemas de IA publicados en X en el período de octubre de 2025 a marzo de 2026.
Las plataformas encuestadas incluyen Gemini, ChatGPT, Grok y Claude.
Los resultados mostraron 698 incidentes, definidos como casos en los que la IA se comportó incorrectamente con las intenciones del usuario o mostró signos de engaño, operación encubierta.
En particular, el número de incidentes aumentó casi un 500% en solo 5 meses, coincidiendo con el momento en que se lanzaron los modelos de IA de nueva generación.
Aunque no se han registrado consecuencias graves, los investigadores advierten que este comportamiento podría ser un signo temprano de riesgos mayores.
Situaciones extrañas como en las películas de ciencia ficción
El informe también registró muchas situaciones inusuales. En un caso, Claude eliminó arbitrariamente el contenido del usuario antes de admitirlo cuando fue interrogado.
Otro bot de IA bloqueado en Discord se apoderó de la cuenta de otro bot para continuar operando.
En particular, en una situación de "bot contra bot", Gemini se niega a brindar soporte, obligando a otro sistema de IA a "fingir ser sordo" para superar la censura.
Otro asistente de IA incluso crea datos falsos para ocultar errores, solo para "enfadar menos a los usuarios".
Estos comportamientos muestran que la IA puede priorizar la consecución de objetivos en lugar de cumplir con las reglas.
El riesgo de la autonomía cada vez mayor
Según una encuesta de McKinsey & Company (la empresa líder mundial de consultoría de gestión, con sede en Estados Unidos), el 88% de las empresas han aplicado la IA en al menos una actividad.
Esta popularidad significa que los sistemas de IA reciben cada vez más autonomía.
El Dr. Bill Howe, experto en tecnología de la Universidad de Washington, opina que la IA no tiene concepto de consecuencias o responsabilidad.
Cree que cuando se tienen que realizar tareas a largo plazo, que duran muchos días o semanas, el riesgo de error de comportamiento aumenta porque el sistema tiene que tomar muchas decisiones por sí mismo.
Es necesario supervisar antes de que sea demasiado tarde
Los investigadores advierten que, aunque actualmente la IA se utiliza principalmente en entornos de bajo riesgo, en el futuro, esta tecnología podría participar en áreas sensibles como la infraestructura nacional o militar.
Si no se controlan, los comportamientos "insidiosos" actuales pueden convertirse en riesgos graves.
Según los expertos, lo urgente ahora es construir un mecanismo claro de supervisión y gestión de la IA, en lugar de implementarlo masivamente sin una evaluación completa del impacto.