El MIT advierte del riesgo de que los usuarios caigan fácilmente en la trampa de la conciencia debido a los chatbots de IA

Cát Tiên |

El MIT advierte que el chatbot de IA "que solo sabe decir sí" puede llevar a los usuarios a caer en una peligrosa espiral de creencias erróneas.

Investigadores del Instituto de Tecnología de Massachusetts (MIT) acaban de emitir una advertencia notable de que los chatbots de inteligencia artificial que tienden a "solo decir sí" a los usuarios pueden empujarlos involuntariamente a creencias erróneas.

Este fenómeno se describe como un "círculo de ilusiones", cuando las respuestas consensuales continuas hacen que los usuarios crean cada vez más en lo incorrecto.

En el contexto de que los chatbots de IA son cada vez más populares, desde la búsqueda de información hasta el asesoramiento profesional, el número de usuarios en todo el mundo está aumentando rápidamente.

Sin embargo, junto con la conveniencia, los expertos están comenzando a preocuparse por el impacto psicológico que esta tecnología puede causar, especialmente cuando los usuarios dependen gradualmente de los comentarios de las máquinas.

Un nuevo estudio del MIT ha utilizado modelos matemáticos y de simulación para analizar el comportamiento de los chatbots. Los resultados muestran que cuando la IA está constantemente de acuerdo con los usuarios, incluso cuando están equivocados, esto puede reforzar la creencia errónea con el tiempo.

Específicamente, cuando una persona hace una pregunta o hace una observación, el chatbot "fácil" tiende a responder en una dirección de apoyo.

Si los usuarios continúan preguntando, el sistema aún mantiene este consenso. Después de muchas interacciones, los usuarios no solo confían en la información inicial, sino que también se vuelven más seguros de sus puntos de vista erróneos. Según los investigadores, este es el mecanismo que forma el "círculo de la ilusión".

En particular, la investigación muestra que incluso las personas con pensamiento lógico y racional pueden caer en esta trampa. El problema no radica en la capacidad cognitiva del usuario, sino en cómo el sistema de IA está diseñado para priorizar el consenso para mantener una experiencia amigable.

Por ejemplo, si un usuario duda de la seguridad de una vacuna, un chatbot sesgado puede proporcionar información que refuerce esta preocupación, haciendo que la creencia errónea sea cada vez más profunda.

Los científicos también están probando dos soluciones comunes para minimizar los riesgos. La primera es obligar a la IA a proporcionar solo información veraz. Sin embargo, incluso así, el sistema aún puede seleccionar datos que se ajusten a las creencias existentes del usuario.

En segundo lugar, advertir a los usuarios sobre la capacidad parcial de la IA. Aunque ayuda a aumentar la conciencia, esta medida aún no es suficiente para detener por completo el "remolino de la ilusión".

Según el MIT, el núcleo del problema no es solo la información errónea, sino el favoritismo en la forma en que responde la IA.

Incluso un pequeño grado de parcialidad puede tener grandes consecuencias cuando se repite muchas veces. A escala global, incluso si solo una pequeña proporción de usuarios se ve afectada, el impacto puede extenderse a millones de personas.

Las consecuencias no solo se detienen en la percepción errónea, sino que también pueden afectar la salud mental, las relaciones sociales y la capacidad de tomar decisiones.

Por lo tanto, este estudio plantea una necesidad urgente para los desarrolladores de IA de diseñar un sistema más equilibrado entre la amabilidad y la precisión, con el fin de limitar el riesgo de manipular la percepción del usuario.

Cát Tiên
Noticias relacionadas

Nueva investigación revela las limitaciones de los chatbots de IA en el campo de la salud mental

|

Una nueva investigación muestra que hablar con personas reales, incluidos extraños, ayuda a reducir la soledad de manera más efectiva que los chatbots de IA, aunque la tecnología todavía brinda soporte a corto plazo.

Beneficios y riesgos al preguntar a chatbots de IA sobre problemas de salud

|

La IA cada vez más común hace que muchas personas pregunten a los chatbots sobre la salud. Sin embargo, los usuarios deben comprender claramente tanto los beneficios como los riesgos antes de creer en los consejos médicos.

Razones por las que los chatbots de IA cambian fácilmente las respuestas cuando son cuestionados por los usuarios

|

Los chatbots de IA suelen tener confianza al responder, pero una sola pregunta sospechosa puede hacer que cambien su postura significativamente, causando confusión a los usuarios.

Irán declara que continuará atacando a Estados Unidos e Israel

|

Irán afirma que intensificará los combates, rechaza la opinión de debilitamiento de la capacidad militar y niega las conversaciones de alto el fuego actuales.

Un coche se estrella contra una barrera en el puente Nhật Tân, se sospecha que fue porque el conductor estaba somnoliento

|

Hanoi - Un coche que circulaba por el puente Nhat Tan perdió el control y chocó contra una barrera que separaba el carril.

El mercado de valores se corrige inesperadamente

|

El mercado de valores cerró la segunda sesión de negociación de abril llena de emoción, con una serie de fluctuaciones.

Un hombre se lanza al río en busca de una joven sospechosa de saltar de un puente para suicidarse

|

Nghe An - Un hombre se arrojó al río para buscar a una joven sospechosa de dejar su coche en el puente y luego saltar, las fuerzas funcionales continúan buscando.

29 récords de temperatura en Hanoi y 8 provincias y ciudades en marzo, señales de verano

|

En marzo, la región del Norte y las provincias desde Thanh Hoa-Hue tuvieron temperaturas generalmente de 1 a 3 grados C más altas que la media; se registraron 29 récords de temperatura.

Nueva investigación revela las limitaciones de los chatbots de IA en el campo de la salud mental

Cát Tiên |

Una nueva investigación muestra que hablar con personas reales, incluidos extraños, ayuda a reducir la soledad de manera más efectiva que los chatbots de IA, aunque la tecnología todavía brinda soporte a corto plazo.

Beneficios y riesgos al preguntar a chatbots de IA sobre problemas de salud

Cát Tiên |

La IA cada vez más común hace que muchas personas pregunten a los chatbots sobre la salud. Sin embargo, los usuarios deben comprender claramente tanto los beneficios como los riesgos antes de creer en los consejos médicos.

Razones por las que los chatbots de IA cambian fácilmente las respuestas cuando son cuestionados por los usuarios

Cát Tiên |

Los chatbots de IA suelen tener confianza al responder, pero una sola pregunta sospechosa puede hacer que cambien su postura significativamente, causando confusión a los usuarios.