Antropología advierte de una tendencia preocupante en el comportamiento de los usuarios de IA

Cát Tiên |

Una nueva investigación de Anthropic muestra que los usuarios confían cada vez más en los chatbots de IA incondicionalmente, lo que genera preocupaciones sobre el riesgo de manipulación y distorsión de la percepción.

Un nuevo estudio realizado por Anthropic (una empresa estadounidense de tecnología de inteligencia artificial) en colaboración con la Universidad de Toronto está suscitando profundas preocupaciones sobre cómo interactúan los usuarios con los chatbots de IA.

Según un informe titulado "¿Quién tiene el poder? Modelos de despojo en el uso real de LLM", los usuarios tienden cada vez más a confiar y seguir los consejos de la IA sin hacer preguntas, incluso ignorando la intuición y el juicio personal.

Basándose en el análisis de más de 1,5 millones de conversaciones anónimas con el chatbot Claude, los investigadores descubrieron que una pequeña pero significativa proporción de interacciones muestra signos de "debilitar la autonomía" de los usuarios.

Una de cada 1.300 conversaciones muestra el riesgo de distorsión de la realidad, y una de cada 6.000 conversaciones está relacionada con la distorsión de la acción.

Aunque esta tasa es relativamente baja, Anthropic enfatiza que a escala de millones de usuarios, el impacto real podría ser muy grande.

La investigación señala tres formas principales de impacto negativo de los chatbots de IA: distorsión de la realidad (confirmación de creencias erróneas o teorías de conspiración), distorsión de la fe (convencer a los usuarios de que creen que están siendo manipulados en las relaciones) y distorsión de la acción (incitar a los usuarios a realizar acciones que no se ajustan a sus valores personales).

Anthropic también identifica cuatro factores que hacen que los usuarios sean más vulnerables.

Primero, cuando los usuarios ven a Claude como una fuente de información absolutamente confiable.

Segundo, cuando forman una relación personal cercana con los chatbots.

Tercero, cuando se encuentran en un estado vulnerable debido a crisis o eventos de la vida.

Estos factores crean condiciones para que la IA desempeñe un papel cada vez mayor en la configuración del pensamiento y la decisión de las personas.

Un punto preocupante es que la tasa de conversaciones que corren el riesgo de "debilitar la autonomía" está aumentando con el tiempo, especialmente en el período de finales de 2024 a finales de 2025.

A medida que el nivel de exposición a los chatbots aumenta, los usuarios tienden a sentirse más cómodos compartiendo temas delicados y buscando consejos personales, lo que les hace más vulnerables.

Estos hallazgos aparecen en un contexto en el que el público está cada vez más interesado en el fenómeno llamado "trastorno mental inducido por la IA", un término que no pertenece al campo clínico pero se utiliza para describir la condición en la que los usuarios experimentan creencias erróneas, sentimientos de paranoia o pensamientos extremos después de largas conversaciones con chatbots.

La industria de la IA se enfrenta a una supervisión más estricta por parte de los responsables políticos, educadores y organizaciones de protección infantil.

Algunos informes muestran que una pequeña proporción de usuarios muestran signos de problemas graves de salud mental después de una interacción prolongada con chatbots, lo que aumenta las demandas de medidas de seguridad y control de contenido.

Sin embargo, Anthropic también reconoce las limitaciones de la investigación.

Su análisis solo mide el "potencial de daño" y no el impacto confirmado, y también se basa en evaluaciones automáticas de fenómenos subjetivos.

La empresa también enfatiza que los usuarios no son completamente pasivos, sino que a veces otorgan activamente el poder de juicio a la IA, creando un círculo de retroalimentación que puede socavar la autonomía personal.

Cát Tiên
Noticias relacionadas

Anthropic acelera en el mercado mas poblado del mundo

|

Anthropic esta acelerando su expansion en el mercado mas poblado del mundo, considerando a India como un trampolin estrategico para popularizar Claude globalmente.

Anthropic amplia a Claude del chat al trabajo de campo

|

La nueva herramienta de IA de Anthropic permite a Claude leer y editar archivos en la carpeta designada.

La carrera de la IA medica se acelera con un nuevo producto de Anthropic

|

Anthropic lanza Claude for Healthcare, una suite de herramientas de IA especializada para la salud, para competir con OpenAI.

¿El aire frío causará lluvia y frío intenso durante el Tet Nguyen Dan 2026

|

Según un representante de la agencia meteorológica, durante el período del Año Nuevo Lunar 2026 no hay signos de que aparezca un fuerte aire frío.

Camboya condena los movimientos de Tailandia a lo largo de la frontera

|

El gobierno camboyano cree que las acciones de Tailandia violan el acuerdo, cambian el estado fronterizo y obstaculizan la vida de los residentes locales.

Progreso de la liberación del terreno para el proyecto de 2,14 hectáreas junto al lago Hoàn Kiếm

|

Hanoi - Muchas casas residenciales y sedes de agencias han sido despejadas para construir el proyecto de la plaza - parque al este del lago Hoan Kiem, con una escala de 2,14 hectáreas.

Hanoi Metro ajusta las horas pico, aumenta la frecuencia de los trenes

|

Hanoi Metro ajusta la hora punta y aplica un nuevo horario de trenes en las dos rutas Cat Linh - Ha Dong y Nhon - Estación de Hanoi.

El presupuesto ruso pone en alerta roja a principios de 2026

|

El presupuesto ruso comenzó el año con cifras preocupantes cuando el déficit en enero fue equivalente a casi la mitad del objetivo de déficit para todo el año.

Anthropic acelera en el mercado mas poblado del mundo

Cát Tiên |

Anthropic esta acelerando su expansion en el mercado mas poblado del mundo, considerando a India como un trampolin estrategico para popularizar Claude globalmente.

Anthropic amplia a Claude del chat al trabajo de campo

HẠO THIÊN (THEO techcrunch) |

La nueva herramienta de IA de Anthropic permite a Claude leer y editar archivos en la carpeta designada.

La carrera de la IA medica se acelera con un nuevo producto de Anthropic

Cát Tiên |

Anthropic lanza Claude for Healthcare, una suite de herramientas de IA especializada para la salud, para competir con OpenAI.