Chatbot Grok, un asistente virtual desarrollado por Elon Musk, tiene que eliminar una serie de publicaciones en la plataforma X (anteriormente Twitter) despues de ser reflejado que estos contenidos contienen informacion controvertida relacionada con Adolf Hitler y la comunidad judia.
En la retroalimentacion reciente, AI Grok emitio un juicio relacionado con Adolf Hitler por una expresion controvertida. Algunos otros contenidos tambien se refieren a la comunidad judia en la direccion de Sensitive, lo que lleva a reacciones de usuarios y organizaciones que monitorean el contenido extremista.
El incidente plantea preocupaciones sobre la precision, el sesgo y la capacidad de crear contenido en temas sensibles. Esta no es la primera vez que Grok ha estado en controversia sobre el contenido del sesgo. Anteriormente, en mayo, este chatbot era controvertido cuando se trataba de la hipotesis de que los blancos fueran tratados injustamente en Sudafrica, aunque el contenido de la conversacion no estaba relacionado con este tema.
El lado de XAI dijo que la nueva medida de control se ha implementado para evitar el contenido de violacion publicado en la plataforma. La compañia tambien continua ajustando el modelo para reducir los errores y mejorar la retroalimentacion.
La organizacion ADL, una organizacion especializada en el monitoreo de los actos extremistas, expreso preocupaciones e insto a las compañias de desarrollo de IA a ser mas responsables de monitorear el contenido creado por el modelo.
Desde que el CHATGPT se lanzo a fines de 2022, se desarrollaron muchos modelos de inteligencia artificial, lo que contribuyo a promover la onda de aplicacion AI en muchos campos diferentes. Sin embargo, junto con la rapida popularidad, la capacidad de controlar el contenido por IA creado se esta convirtiendo en un problema de preocupacion.
El caso relacionado con ChatBot Grok muestra los desafios para monitorear la salida de los sistemas de IA, especialmente cuando se integran en plataformas con un gran numero de usuario y afecta directamente el flujo de informacion diaria.
Aunque el modelo esta programado para responder automaticamente, el papel de las personas en el proceso de censura, evaluacion e intervencion oportuna todavia juega un papel clave para minimizar los riesgos de riesgo.