Un nuevo estudio realizado por Anthropic (una empresa estadounidense de tecnología de inteligencia artificial) en colaboración con la Universidad de Toronto está suscitando profundas preocupaciones sobre cómo interactúan los usuarios con los chatbots de IA.
Según un informe titulado "¿Quién tiene el poder? Modelos de despojo en el uso real de LLM", los usuarios tienden cada vez más a confiar y seguir los consejos de la IA sin hacer preguntas, incluso ignorando la intuición y el juicio personal.
Basándose en el análisis de más de 1,5 millones de conversaciones anónimas con el chatbot Claude, los investigadores descubrieron que una pequeña pero significativa proporción de interacciones muestra signos de "debilitar la autonomía" de los usuarios.
Una de cada 1.300 conversaciones muestra el riesgo de distorsión de la realidad, y una de cada 6.000 conversaciones está relacionada con la distorsión de la acción.
Aunque esta tasa es relativamente baja, Anthropic enfatiza que a escala de millones de usuarios, el impacto real podría ser muy grande.
La investigación señala tres formas principales de impacto negativo de los chatbots de IA: distorsión de la realidad (confirmación de creencias erróneas o teorías de conspiración), distorsión de la fe (convencer a los usuarios de que creen que están siendo manipulados en las relaciones) y distorsión de la acción (incitar a los usuarios a realizar acciones que no se ajustan a sus valores personales).
Anthropic también identifica cuatro factores que hacen que los usuarios sean más vulnerables.
Primero, cuando los usuarios ven a Claude como una fuente de información absolutamente confiable.
Segundo, cuando forman una relación personal cercana con los chatbots.
Tercero, cuando se encuentran en un estado vulnerable debido a crisis o eventos de la vida.
Estos factores crean condiciones para que la IA desempeñe un papel cada vez mayor en la configuración del pensamiento y la decisión de las personas.
Un punto preocupante es que la tasa de conversaciones que corren el riesgo de "debilitar la autonomía" está aumentando con el tiempo, especialmente en el período de finales de 2024 a finales de 2025.
A medida que el nivel de exposición a los chatbots aumenta, los usuarios tienden a sentirse más cómodos compartiendo temas delicados y buscando consejos personales, lo que les hace más vulnerables.
Estos hallazgos aparecen en un contexto en el que el público está cada vez más interesado en el fenómeno llamado "trastorno mental inducido por la IA", un término que no pertenece al campo clínico pero se utiliza para describir la condición en la que los usuarios experimentan creencias erróneas, sentimientos de paranoia o pensamientos extremos después de largas conversaciones con chatbots.
La industria de la IA se enfrenta a una supervisión más estricta por parte de los responsables políticos, educadores y organizaciones de protección infantil.
Algunos informes muestran que una pequeña proporción de usuarios muestran signos de problemas graves de salud mental después de una interacción prolongada con chatbots, lo que aumenta las demandas de medidas de seguridad y control de contenido.
Sin embargo, Anthropic también reconoce las limitaciones de la investigación.
Su análisis solo mide el "potencial de daño" y no el impacto confirmado, y también se basa en evaluaciones automáticas de fenómenos subjetivos.
La empresa también enfatiza que los usuarios no son completamente pasivos, sino que a veces otorgan activamente el poder de juicio a la IA, creando un círculo de retroalimentación que puede socavar la autonomía personal.