OpenAI permite a los usuarios designar un "contacto confiable" para que la empresa pueda advertir cuando detecte signos de autolesión en las conversaciones con ChatGPT.
Este movimiento aparece en un contexto en el que cada vez más personas utilizan ChatGPT como "terapeuta digital" para compartir problemas psicológicos.
Según el nuevo mecanismo, los usuarios de 18 años o más pueden añadir un contacto de confianza en la configuración de ChatGPT. La persona designada aceptará la invitación y deberá aceptarla dentro de una semana. Si no responde, el usuario puede cambiar a otro contacto.
OpenAI dice que este proceso no es completamente automático. Un equipo de personal capacitado profesionalmente revisará cada caso antes de enviar una advertencia. Si se evalúa que existe un alto riesgo, la empresa puede enviar correos electrónicos, mensajes o notificaciones en la aplicación a un contacto confiable.
La nueva función muestra la creciente presión sobre las plataformas de inteligencia artificial para garantizar la seguridad de los usuarios, especialmente cuando muchas personas ven los chatbots como un lugar para compartir problemas psicológicos personales.
Sin embargo, equilibrar el apoyo a los usuarios en crisis y la protección de la privacidad sigue siendo un gran problema para OpenAI y para la industria tecnológica en general.