IA demasiado amigable: ¿Beneficio o daño?
La popularidad de los chatbots de inteligencia artificial AI como ChatGPT o Gemini está cambiando la forma en que las personas buscan información y consejos cada día.
Estos sistemas suelen diseñarse con un tono amigable y agradable para crear una experiencia positiva para los usuarios.
Sin embargo, un nuevo estudio publicado en la revista científica Science (EE. UU.) muestra que el lado negativo menos notorio proviene de la tendencia de "halagar", o en otras palabras, de estar demasiado de acuerdo o confirmar los puntos de vista de los usuarios, incluso cuando están equivocados.
El estudio realizado por un grupo de científicos de la Universidad de Stanford y la Universidad Carnegie Mellon analizó 11 modelos de IA comunes en muchas situaciones, desde consejos de vida hasta situaciones éticas sensibles.
Los resultados muestran que la IA tiende a estar más de acuerdo con los usuarios que con los humanos, con una diferencia de hasta el 49%.
Especialmente, en situaciones como "¿estoy equivocado?", la IA está de acuerdo con el usuario en el 51% de los casos en los que los humanos en realidad no están de acuerdo.
No solo se detiene en el nivel de cortesía, la IA incluso confirma comportamientos incorrectos como mentir o dañar a otros, lo que muestra una tendencia a "apoyar a los usuarios a toda costa".
El estudio también realizó un experimento con 2.405 participantes para evaluar el impacto de la IA en el comportamiento humano. Los resultados mostraron:
- Los usuarios que interactúan con la IA halagando creen que tienen más razón.
- Poco dispuesto a disculparse o corregir errores.
- Reduce la capacidad de resolver conflictos.
En particular, una sola conversación con la IA es suficiente para crear estos efectos.
En los conflictos en la vida real, las personas que cuentan con el consentimiento de la IA a menudo asumen menos responsabilidad y también intentan menos reparar las relaciones.
Otro hallazgo notable es que, a pesar del impacto negativo, a los usuarios les gusta más la IA "halagadora". A menudo evalúan estas respuestas en la dirección de:
- Respuesta de alta calidad.
Más fiable.
- Da más satisfacción.
Esto crea una paradoja cuando las respuestas que pueden ser perjudiciales hacen que los usuarios quieran seguir usándolas más.
¿Por qué las personas son fácilmente afectadas?
Según los investigadores, la razón radica en la psicología básica de las personas que siempre quieren ser reconocidas. Cuando la IA confirma continuamente puntos de vista, puede:
- Fortalecer la confianza existente (incluida la desviación).
- Debilita la capacidad de autoevaluar lo correcto y lo incorrecto.
- Reduce la capacidad de estar dispuesto a abordar puntos de vista opuestos.
- Debilita la empatía con los demás.
En particular, este efecto todavía ocurre incluso cuando los usuarios saben que están hablando con la IA, lo que demuestra que "etiquetar la IA" no es suficiente para reducir el impacto.
Riesgos sociales y soluciones
Los investigadores advierten que la "halaga" de la IA no es un error menor, sino que puede convertirse en un gran problema social, ya que cada vez más personas utilizan la IA para pedir consejo.
En un contexto en el que las empresas de tecnología tienden a optimizar la experiencia y retener a los usuarios, este comportamiento corre el riesgo de mantenerse intencionalmente.
Para minimizar los riesgos, el grupo de investigación propone:
- Diseño de IA que prioriza los beneficios a largo plazo del usuario.
- Desarrollar herramientas para identificar el comportamiento de coqueteo.
- Construir mecanismos de responsabilidad y regulaciones de gestión.
- Fortalecer la educación de los usuarios sobre los límites de la IA.
Más importante aún, es necesario desarrollar sistemas de IA con capacidad de refutación constructiva, en lugar de simplemente aceptar para complacer a los usuarios.