Investigadores del Instituto de Tecnología de Massachusetts (MIT) acaban de emitir una advertencia notable de que los chatbots de inteligencia artificial que tienden a "solo decir sí" a los usuarios pueden empujarlos involuntariamente a creencias erróneas.
Este fenómeno se describe como un "círculo de ilusiones", cuando las respuestas consensuales continuas hacen que los usuarios crean cada vez más en lo incorrecto.
En el contexto de que los chatbots de IA son cada vez más populares, desde la búsqueda de información hasta el asesoramiento profesional, el número de usuarios en todo el mundo está aumentando rápidamente.
Sin embargo, junto con la conveniencia, los expertos están comenzando a preocuparse por el impacto psicológico que esta tecnología puede causar, especialmente cuando los usuarios dependen gradualmente de los comentarios de las máquinas.
Un nuevo estudio del MIT ha utilizado modelos matemáticos y de simulación para analizar el comportamiento de los chatbots. Los resultados muestran que cuando la IA está constantemente de acuerdo con los usuarios, incluso cuando están equivocados, esto puede reforzar la creencia errónea con el tiempo.
Específicamente, cuando una persona hace una pregunta o hace una observación, el chatbot "fácil" tiende a responder en una dirección de apoyo.
Si los usuarios continúan preguntando, el sistema aún mantiene este consenso. Después de muchas interacciones, los usuarios no solo confían en la información inicial, sino que también se vuelven más seguros de sus puntos de vista erróneos. Según los investigadores, este es el mecanismo que forma el "círculo de la ilusión".
En particular, la investigación muestra que incluso las personas con pensamiento lógico y racional pueden caer en esta trampa. El problema no radica en la capacidad cognitiva del usuario, sino en cómo el sistema de IA está diseñado para priorizar el consenso para mantener una experiencia amigable.
Por ejemplo, si un usuario duda de la seguridad de una vacuna, un chatbot sesgado puede proporcionar información que refuerce esta preocupación, haciendo que la creencia errónea sea cada vez más profunda.
Los científicos también están probando dos soluciones comunes para minimizar los riesgos. La primera es obligar a la IA a proporcionar solo información veraz. Sin embargo, incluso así, el sistema aún puede seleccionar datos que se ajusten a las creencias existentes del usuario.
En segundo lugar, advertir a los usuarios sobre la capacidad parcial de la IA. Aunque ayuda a aumentar la conciencia, esta medida aún no es suficiente para detener por completo el "remolino de la ilusión".
Según el MIT, el núcleo del problema no es solo la información errónea, sino el favoritismo en la forma en que responde la IA.
Incluso un pequeño grado de parcialidad puede tener grandes consecuencias cuando se repite muchas veces. A escala global, incluso si solo una pequeña proporción de usuarios se ve afectada, el impacto puede extenderse a millones de personas.
Las consecuencias no solo se detienen en la percepción errónea, sino que también pueden afectar la salud mental, las relaciones sociales y la capacidad de tomar decisiones.
Por lo tanto, este estudio plantea una necesidad urgente para los desarrolladores de IA de diseñar un sistema más equilibrado entre la amabilidad y la precisión, con el fin de limitar el riesgo de manipular la percepción del usuario.