Hablando en el Foro Económico Mundial en Davos (Suiza), el profesor Yann LeCun, uno de los "padres de la inteligencia artificial" y ex director científico de IA de Meta, enfatizó que los sistemas de IA actuales, incluidos los grandes modelos lingüísticos (LLM) como ChatGPT, todavía tienen limitaciones fundamentales.
Según él, seguir ampliando la escala del modelo, aumentando los datos, los parámetros y la potencia de cálculo no será suficiente para lograr una inteligencia a la altura de los humanos.
No podremos lograr la inteligencia como los humanos o la superinteligencia simplemente haciendo que estos sistemas sean más grandes o mejor ajustados. La industria de la IA necesita un cambio de paradigma, no solo una expansión a gran escala", comentó el profesor LeCun.
Una de sus mayores preocupaciones es la tendencia a desarrollar sistemas de agentes, asistentes de IA que puedan planificar y realizar acciones automáticamente en lugar de los humanos.
LeCun cree que estos sistemas se están construyendo sobre una plataforma LLM que carece de la capacidad de predecir las consecuencias de la acción, lo que dificulta que funcionen de forma segura e inteligente en un entorno real.
¿Cómo puede un sistema planificar una cadena de acción si no puede predecir lo que sucederá después?", preguntó LeCun.
Según LeCun, el comportamiento inteligente requiere que la IA tenga la capacidad de modelar el mundo y comprender las leyes de la física, las causas y los resultados y las complejas fluctuaciones del entorno real.
Para ilustrar su punto de vista, Yann LeCun compara la capacidad de aprendizaje de los humanos con la inteligencia artificial. Un niño de 10 años puede familiarizarse rápidamente y completar una nueva tarea sin una formación prolongada, mientras que un adolescente de 17 años puede aprender a conducir en solo unas horas.
Mientras tanto, aunque los sistemas de coches autónomos se entrenan con millones de horas de datos, los humanos aún no han alcanzado la tecnología de conducción autónoma de nivel 5, es decir, los coches pueden funcionar completamente sin intervención humana.
Según LeCun, esto demuestra que la plataforma y la arquitectura de la IA actuales aún no son suficientes para recrear la inteligencia de manera flexible e integral como los humanos.
También señaló que los modelos lingüísticos están operando en un "universo simplificado", donde los datos son principalmente texto. Mientras tanto, el mundo real es mucho más complejo, con datos sensoriales multidimensionales, continuos y ruidosos.
Predecir la siguiente palabra en un texto no es tan difícil como entender e interactuar con el mundo físico", dijo LeCun.
Además del desafío técnico, también expresó su profunda preocupación por el riesgo de concentrar el poder de la IA en manos de un pequeño número de grandes corporaciones tecnológicas.
Según LeCun, si la IA es controlada por algunas empresas en Estados Unidos o China, podría dominar todo el flujo de información que recibe la sociedad, desde la cultura hasta el sistema de valores.
Necesitamos un ecosistema de IA diverso, similar a la forma en que la sociedad necesita diversidad en la prensa", dijo, al tiempo que pidió promover el código abierto para reducir los riesgos de monopolio tecnológico.
Aunque no está preocupado por la perspectiva de que los robots dominen a la humanidad, Yann LeCun advierte que la dirección actual del desarrollo de la IA podría conducir a profundas consecuencias sociales.
Su punto de vista plantea una gran pregunta para la industria tecnológica: ¿se basará el futuro de la IA en la expansión del modelo actual o necesitará una revolución arquitectónica completamente nueva?