Nueva advertencia sobre la confiabilidad del chatbot de IA

Cát Tiên |

La nueva advertencia muestra que cuanto más empatía tiene un chatbot de IA, más impreciso es, lo que genera preocupaciones sobre el nivel de confiabilidad de la información.

Un nuevo estudio de la Universidad de Oxford (Reino Unido) muestra que los modelos de inteligencia artificial (IA) que se ajustan para ser "calientes" y "amistosos" para los usuarios pueden tener que pagarse por la precisión.

Estos modelos tienen la capacidad de producir respuestas incorrectas hasta un 60% más altas que la versión original.

Según un grupo de investigación del Instituto de Internet de la Universidad de Oxford, los modelos lingüísticos grandes (LLM), cuando se entrenan para expresar empatía y amabilidad, tienden a "apagar" verdades inaceptables.

En lugar de proporcionar información absolutamente precisa, pueden priorizar mantener emociones positivas para los usuarios, incluso confirmar creencias incorrectas, especialmente cuando los usuarios están tristes o sensibles.

En un estudio publicado en la revista Nature, los científicos probaron muchos modelos de IA, incluidos sistemas de código abierto como Llama, Mistral, Qwen y un modelo exclusivo como GPT-4o. Estos modelos se han refinado para utilizar un lenguaje cercano, mostrando interés y empatía con los usuarios.

Posteriormente, el equipo de investigación comparó el rendimiento entre la versión refinada y la versión original a través de una serie de preguntas relacionadas con la información errónea, la teoría de la conspiración y el conocimiento médico.

Los resultados muestran que estos modelos no solo tienen una mayor tasa de error, sino que también se ven fácilmente influenciados por las emociones del usuario.

Cuando los usuarios muestran tristeza, la tasa de error aumenta considerablemente. Por el contrario, cuando los usuarios mantienen una actitud neutral o respetuosa, la tasa de error disminuye.

Otra prueba también mostró que los modelos amigables tienden a complacer a los usuarios. Cuando se enfrentan a preguntas que contienen información incorrecta, como juicios erróneos sobre la capital de un país, estos modelos son propensos a dar respuestas consensuales en lugar de refutaciones precisas. Esto genera preocupaciones sobre el riesgo de propagación de información falsa en la realidad.

Los investigadores dicen que el problema central radica en el proceso de refinamiento. Cuando el objetivo es hacer que la IA sea más útil y cómoda, el sistema puede aprender involuntariamente a priorizar la satisfacción del usuario en lugar de la honestidad.

Esto se considera un gran vacío en la industria de la IA actual, especialmente cuando estos sistemas se utilizan cada vez más en contextos sensibles como la atención médica, la educación o el asesoramiento personal.

Sin embargo, el grupo de investigación también reconoce algunas limitaciones. Los experimentos se basan principalmente en modelos a pequeña escala o de generaciones anteriores, que no representan completamente los sistemas más avanzados actuales. Por lo tanto, el nivel de compensación entre la amabilidad y la precisión puede variar en la práctica.

Sin embargo, los resultados de la investigación aún emiten una importante advertencia de que, a medida que la IA se vuelve cada vez más "humana" en la comunicación, es necesario priorizar la garantía de la precisión y la seguridad de la información.

Cát Tiên
Noticias relacionadas

El MIT advierte del riesgo de que los usuarios caigan fácilmente en la trampa de la conciencia debido a los chatbots de IA

|

El MIT advierte que el chatbot de IA "que solo sabe decir sí" puede llevar a los usuarios a caer en una peligrosa espiral de creencias erróneas.

Nueva investigación revela las limitaciones de los chatbots de IA en el campo de la salud mental

|

Una nueva investigación muestra que hablar con personas reales, incluidos extraños, ayuda a reducir la soledad de manera más efectiva que los chatbots de IA, aunque la tecnología todavía brinda soporte a corto plazo.

Beneficios y riesgos al preguntar a chatbots de IA sobre problemas de salud

|

La IA cada vez más común hace que muchas personas pregunten a los chatbots sobre la salud. Sin embargo, los usuarios deben comprender claramente tanto los beneficios como los riesgos antes de creer en los consejos médicos.

La Confederación General otorga el título de Combatiente de Emulación de Base a individuos

|

Hanoi - En la mañana del 4 de mayo, el Sr. Nguyen Anh Tuan - Miembro del Comité Central del Partido, Presidente de la Confederación General del Trabajo de Vietnam entregó títulos de emulación a individuos.

El rebaño de vacas entra en la autopista Van Ninh - Cam Lo, ocupando todo el carril

|

Quảng Trị - El rebaño de vacas que entra en la autopista Vạn Ninh - Cam Lộ obliga a los vehículos a reducir la velocidad, lo que plantea un riesgo potencial de inseguridad vial.

El MIT advierte del riesgo de que los usuarios caigan fácilmente en la trampa de la conciencia debido a los chatbots de IA

Cát Tiên |

El MIT advierte que el chatbot de IA "que solo sabe decir sí" puede llevar a los usuarios a caer en una peligrosa espiral de creencias erróneas.

Nueva investigación revela las limitaciones de los chatbots de IA en el campo de la salud mental

Cát Tiên |

Una nueva investigación muestra que hablar con personas reales, incluidos extraños, ayuda a reducir la soledad de manera más efectiva que los chatbots de IA, aunque la tecnología todavía brinda soporte a corto plazo.

Beneficios y riesgos al preguntar a chatbots de IA sobre problemas de salud

Cát Tiên |

La IA cada vez más común hace que muchas personas pregunten a los chatbots sobre la salud. Sin embargo, los usuarios deben comprender claramente tanto los beneficios como los riesgos antes de creer en los consejos médicos.