En el contexto de que la inteligencia artificial (IA) se esta infiltrando cada vez mas profundamente en la vida un nuevo fenomeno que esta causando preocupacion esta apareciendo gradualmente como el 'disturbio mental de la IA'.
Este termino aparece en las redes sociales cuando los usuarios comparten experiencias de perdida de conexion con la realidad despues de largas horas de conversaciones con chatbots como ChatGPT segun IndianExpress.
Las manifestaciones comunes incluyen creencias erroneas ilusiones sobre si mismo o sentimientos de paranoia e incluso la formacion de una relacion emocional con el personaje de la IA.
Segun un informe del Washington Post aunque no esta definido oficialmente en la medicina el trastorno mental de la IA se considera una forma inusual de comportamiento en linea similar a manifestaciones como debilidad cerebral o miedo...
Este fenomeno aparece simultaneamente con el auge de los chatbots de IA. Entre ellos ChatGPT se lanzo a finales de 2022 y actualmente tiene casi 700 millones de usuarios por semana.
Los expertos en salud mental advierten que la interaccion prolongada con la IA puede tener efectos negativos especialmente cuando los usuarios dependen de los chatbots como fuente de asesoramiento emocional en lugar de familiares amigos o expertos.
La Sra. Vaile Wright Directora Senior de Innovacion en Salud de la Asociacion Americana de Psicologia (APA) dijo: 'Este fenomeno es demasiado nuevo y ocurre demasiado rapido no tenemos evidencia experimental para entenderlo claramente'.
Actualmente la APA esta estableciendo un consejo de expertos para estudiar el uso de la IA en la terapia con el objetivo de hacer recomendaciones sobre como minimizar los posibles daños.
Las empresas de IA tambien estan haciendo esfuerzos para responder. Entre ellas OpenAI esta mejorando ChatGPT para reconocer signos de estres psicologico y dirigir a los usuarios a fuentes de apoyo basadas en evidencia.
Las respuestas de los chatbots se ajustaran para no tomar decisiones directamente en situaciones de alto riesgo en su lugar fomentando la consideracion de las ventajas y desventajas.
La empresa de tecnologia de IA Anthropic dijo que sus modelos de IA mas potentes terminaran la conversacion automaticamente si los usuarios tienen comportamientos insultantes o dañinos. Mientras que Meta añade una funcion para limitar el tiempo de conversacion de IA para adolescentes y muestra enlaces a lineas directas al detectar contenido de riesgo de suicidio.
Por lo tanto los usuarios de IA deben mantener relaciones en la vida real y considerar una actitud de incertidumbre saludable hacia la tecnologia.
La IA puede ser una herramienta util pero el apoyo espiritual real todavia necesita a la familia los amigos y la comunidad.