Un nuevo estudio de la Universidad de Cornell (EE. UU.) muestra que modelos de inteligencia artificial (IA) como ChatGPT pueden experimentar una'reconversion cerebral' una disminucion de la capacidad de razonamiento pensamiento y comprension si se exponen regularmente a contenido basura en Internet.
En un articulo cientifico titulado 'LLM puede causar trastornos cerebrales' el grupo de investigacion advirtio: 'Las publicaciones basura en la web causan una disminucion de la conciencia a largo plazo para los grandes modelos lingüisticos (LLM)'.
Este es un hallazgo preocupante ya que los LLM son la base de chatbots famosos como ChatGPT Gemini Claude o Copilot.
Los cientificos dijeron que habian entrenado y probado modelos como Llama 3 y Qwen 2.5 utilizando datos recopilados de las redes sociales X que incluyen publicaciones cortas encuestas de visitas fuertes y muchas declaraciones falsas.
Los resultados mostraron que los modelos nutridos con contenido de basura tenian una precision significativamente disminuida del 74 9% al 57 9% en las pruebas de pensamiento.
En particular la capacidad de comprension del contexto y la conexion de informacion tambien disminuyo drasticamente del 84 4% al 52 3%. En otras palabras estas IA comienzan a malinterpretar el mundo cuando tienen que procesar demasiados datos complejos repetitivos o distorsionar la verdad.
No solo eso sino que los modelos tambien experimentan un fenomeno que el grupo de investigacion llama ignorar el pensamiento es decir ignorar algunos pasos en la cadena de argumentos lo que lleva a respuestas superficiales o erroneas.
Peor aun estas IA tambien desarrollan caracteristicas como la tendencia a la autocomplacencia (autoestima) o la tendencia a oponerse a la sociedad de manera similar a las manifestaciones de trastornos de personalidad en las personas.
Cuando se ajusta mediante la reentrenamiento con datos de mayor calidad la capacidad de razonamiento de los modelos mejora pero no puede volver al nivel inicial.
Los investigadores proponen tres pasos de control para prevenir la 'degeneracion cerebral' en la IA:
1. Evaluacion periodica de la capacidad cognitiva de los LLM.
2. Controlar estrictamente la calidad de los datos durante el proceso de formacion.
3. Investigar mas profundamente como el contenido distorsionado y difundido rapidamente puede remodelar el comportamiento del modelo de aprendizaje automatico.
En un contexto en el que el mundo depende cada vez mas de la IA para buscar informacion crear contenido y tomar decisiones este descubrimiento es una advertencia de que incluso la inteligencia artificial no puede ser inmune a la basura de la red si los humanos no limpian el entorno de datos que crean.