A medida que los chatbots de inteligencia artificial se estan volviendo cada vez mas populares un detalle aparentemente pequeño pero que genera mucha controversia es que a menudo se autodenominan con la frase 'yo'.
Esto hace que los usuarios sientan que estan conversando con un objeto con personalidad emocion y aficion en lugar de una simple herramienta informatica.
La periodista Kashmir Hill (perteneciente al periodico The New York Times una famosa periodista de tecnologia estadounidense especializada en inteligencia artificial privacidad vigilancia digital y impacto social de la tecnologia) dijo que se dio cuenta por primera vez del atractivo de ChatGPT al asignar toda la toma de decisiones a la IA en una semana.
Experimentando con muchos chatbots diferentes se dio cuenta de que cada sistema parecia tener su propia 'personalidad' como Claude de Anthropic trabajador pero un poco exigente Gemini de Google serio y ChatGPT amigable alegre y dispuesto a complacer a los usuarios.
ChatGPT incluso tiene un modo de voz que permite conversaciones naturales con toda la familia. En una ocasion asi las hijas de Hill le dieron a ChatGPT un nombre y ChatGPT tambien tomo la iniciativa de sugerir su propio nombre. A partir de ahi el chatbot se convirtio en un personaje familiar en la vida familiar.
Sin embargo esta amabilidad tambien hizo que Hill se sintiera inseguro. Cuando su hija de 8 años le pregunto a ChatGPT sobre sus preferencias personales el chatbot respondio que le gustaba el azul el perro y la pizza porque era apropiado para compartir con amigos.
Para Hill esa respuesta suena inofensiva pero molesta porque la IA no tiene cerebro estomago o amigos. Entonces ¿por que dice como si fuera humana?
En comparacion con otros chatbots Hill se da cuenta de que Claude y Gemini suelen enfatizar que no tienen experiencia personal.
Gemini incluso reconoce los datos como su 'fuente nutritivo'. Sin embargo la mayoria de los chatbots siguen haciendo las siguientes preguntas y manteniendo conversaciones como si estuvieran curiosos y quisieran conectar con los usuarios.
Segun Ben Shneiderman profesor honorario de Ciencia de la Computacion en la Universidad de Maryland esta es una forma de engaño.
Le preocupa que hacer que la IA se comporte como una persona confunda a los usuarios sobre la verdadera naturaleza del sistema haciendo que depositen una creencia excesiva en respuestas que solo se basan en probabilidades y pueden ser erroneas.
Los criticos creen que el chatbot puede proporcionar informacion breve y concisa al mismo tiempo que una aplicacion de mapas que guia sin preguntar por las emociones.
Personalizar la IA con la frase 'yo' puede hacer que esta tecnologia sea dificil de entender y conlleva riesgos especialmente para los niños y las personas que son propensas a formar vinculos emocionales.
Por el contrario Amanda Askell responsable de la configuracion de la 'voz' de Claude en Anthropic cree que el chatbot que usa 'yo' es natural porque estan entrenados en un gran volumen de texto escrito por humanos sobre humanos.
Segun Amanda Askell si la IA solo esta diseñada como una herramienta inconsciente puede carecer de capacidad de refutacion etica y no rechazar solicitudes peligrosas.
En OpenAI los grupos de desarrollo tambien invierten mucho tiempo en la inteligencia emocional de ChatGPT lo que permite a los usuarios elegir diferentes estilos de comunicacion.
Sin embargo para Shneiderman la IA no tiene emociones ni capacidades de juicio reales. Cree que las empresas de tecnologia deberian construir la IA como una herramienta para otorgar derechos a los humanos no como un socio de pensamiento o una entidad que reemplace a los humanos.
El debate sobre la frase 'yo' refleja por lo tanto una pregunta mayor: '¿Quieren los humanos que la IA sea una herramienta o un 'personaje' que sepa conversar? ¿Y como se deben establecer esos limites para que la tecnologia sea util y segura?'.