Yann LeCun un cientifico informatico de nacionalidad francesa y estadounidense es considerado uno de los 'padres de la inteligencia artificial'. Ha expresado una opinion franca de que los grandes modelos de lenguaje (LLM) estan siendo demasiado valorados por su capacidad intelectual real.
Hablando en un intercambio presidido recientemente por Janna Levin directora cientifica de Pioneer Works con la participacion de Adam Brown jefe del equipo de investigacion DeepMind (Google) LeCun dijo que LLM puede extraer y recrear significados del lenguaje pero solo a un nivel superficial.
Segun el a diferencia de los humanos la inteligencia de estos modelos no se basa en experiencias fisicas o ordinarias del mundo real.
LeCun señala que LLM esta entrenado en unos 30 billones de palabras casi todo el texto se hace publico en internet.
Para leer toda esta cantidad de datos una persona tardara mas de 500.000 años. Sin embargo enfatizo que un niño de cuatro años en sus primeros años de vida tambien ha recibido una cantidad equivalente de informacion imagenes y experiencias reales mucho mas ricas y complejas.
Segun LeCun eso demuestra que vivir e interactuar con el mundo aporta un conocimiento mucho mas profundo que solo leer un texto.
En un contexto en el que la IA y la automatizacion se estan aplicando ampliamente LeCun advierte que el mundo esta siendo engañado por la excelente capacidad de manipulacion lingüistica de LLM.
Reitero que desde la decada de 1950 muchas generaciones de cientificos de la IA desde Marvin Minsky Newell Simon hasta Frank Rosenblatt creian que en solo una decada las maquinas alcanzarian la inteligencia humana.
Todos estan equivocados. La generacion actual de LLM tambien es asi' dijo LeCun al tiempo que dijo que habia presenciado tres ciclos de exageracion similares en su carrera.
Este punto de vista va en contra de la tendencia popular en Silicon Valley donde LLM se considera el camino mas corto hacia la inteligencia artificial general (IAG).
LeCun cree que la expansion continua de la escala de los datos y el poder de calculo solo esta repitiendo un torbellino de expectativas y decepcion que ha existido durante mas de 70 años.
Para ilustrar las limitaciones de LLM LeCun da un ejemplo muy cotidiano: 'Pelar la mesa y colocar los platos en el lavavajillas'. Segun el incluso si puede superar el examen de abogado o resolver problemas complejos LLM todavia no puede comprender la fisica visual algo que un niño de 10 años o incluso un animal puede hacer. “No tenemos ningun robot que entienda bien el mundo fisico tan bien como un gato' enfatizo.
Tecnicamente LeCun explica que LLM funciona prediciendo tokens es decir las siguientes palabras en una cadena. Este enfoque es apropiado para el lenguaje pero fracasa cuando se aplica al mundo real que es continuo multidimensional y contiene innumerables posibilidades. “Lo intente durante 20 años y no funciono” admitio.
A pesar de dudar de LLM LeCun no es pesimista sobre la IA en general. Apoya nuevos enfoques como el'modelo mundial' y la arquitectura JEPA que permiten a la IA aprender representaciones abstractas de la realidad y razonar sobre las consecuencias de la accion.
Lo que mas le preocupa actualmente es que LLM esta agotando recursos humanos y financieros lo que hace que otras direcciones de investigacion se olviden.
Segun LeCun la IA debe desarrollarse como una herramienta para apoyar y expandir la inteligencia humana centrandose en aplicaciones practicas que han estado y estan salvando vidas humanas como frenos de emergencia automaticos o analisis de imagenes medicas en lugar de simplemente seguir a los chatbots llamativos.