Mientras que millones de personas buscan chatear para buscar asesoramiento psicologico, intercambio emocional o alivio mental, recientemente, el CEO de OpenAI, el Sr. Sam Altman emitio una advertencia notable: las conversaciones con ChatGPT no son seguridad legal como muchas personas piensan.
Hablando en un episodio reciente de Podcast el pasado fin de semana porque, segun el presentador, Altman admitio que no hay un marco legal que sea lo suficientemente claro como para proteger la privacidad en las conversaciones de los usuarios y el chatbot de IA.
"Si habla con un medico, abogado o terapeuta, esa relacion esta protegida por la ley. Pero con ChatGPT, no lo es", dijo.
El problema se vuelve mas grave a medida que la IA se esta volviendo cada vez mas "compañeros" populares, especialmente para los jovenes. Desde responder conflictos en las relaciones hasta problemas psicologicos graves, los usuarios confian inadvertidamente en una plataforma que no ha sido completamente protegida.
"Si hay una disputa legal, se nos puede pedir que proporcionemos informacion del usuario, y creo que es malo", enfatizo Altman.
A diferencia de las aplicaciones de cifrado de terminales como WhatsApp o Signal, los datos de chat con ChatGPT pueden almacenar, acceder y utilizar OpenAI para entrenar modelos o violaciones de censura.
Aunque la compañia se compromete a eliminar conversaciones gratuitas dentro de los 30 dias, aun puede ser retenida por razones legales, especialmente en casos relacionados con seguridad o disputas legales.
Este hecho plantea una pregunta seria sobre la privacidad y la moral al usar la IA como terapia o consejo emocional.
Cuando el limite entre la tecnologia y la vida personal es cada vez mas borrosa, los usuarios deben considerar cuidadosamente antes de compartir la informacion sensible al chatbot, sin importar cuanto lo escuche.