La inteligencia artificial (IA) está abriendo muchos avances, pero todavía existe una limitación central de que no se puede autoaprender después de su implementación.
A diferencia de los humanos, especialmente los niños pequeños que se adaptan continuamente al entorno, los modelos de IA actuales están casi "congelados", operando solo basándose en datos que han sido entrenados previamente.
Según un estudio publicado el 17 de marzo de 2026 por los principales científicos en investigación de IA - Emmanuel Dupoux (campo de la ciencia cognitiva - FAIR en Meta), Yann LeCun (campo de la inteligencia artificial, aprendizaje profundo - Profesor en la Universidad de Nueva York) y Jitendra Malik (campo de la visión por ordenador, Profesor en la Universidad de California Berkeley), la razón radica en cómo se construye la IA.
La mayoría de los sistemas modernos dependen del proceso MLOps, donde las personas recopilan datos, entrenan y actualizan los modelos en fases. Cuando el entorno cambia, la IA no puede autoajustarse, sino que necesita ser reentrenada desde el principio.
Esto hace que la IA sea propensa a fracasar en situaciones reales diferentes de los datos de entrenamiento. Los modelos lingüísticos o visuales pueden identificar patrones muy bien, pero carecen de adaptabilidad y no aprenden de sus propios errores.
La investigación señala dos mecanismos de aprendizaje básicos que deben combinarse. El primero es el Sistema A (aprender de la observación). Esta es la forma en que las personas construyen su comprensión del mundo a través de la visión, la escucha y la predicción.
Los modelos de IA actuales pertenecen principalmente a este grupo con la ventaja de la capacidad de expandir y detectar reglas a partir de grandes datos. Sin embargo, la debilidad es que no están vinculados a la acción real y es difícil distinguir la relación causal.
El segundo es el Sistema B (aprender de la acción), basado en la prueba y el error. Esta es la forma en que las personas aprenden a caminar, aprender a hablar o a resolver problemas. La ventaja de este sistema es la capacidad de descubrir nuevas soluciones, pero consume mucho datos y tiempo.
En la naturaleza, estos dos sistemas siempre funcionan simultáneamente. Los humanos observan y actúan, ajustando continuamente para optimizar el comportamiento. Por el contrario, la IA actual separa estos dos mecanismos, lo que limita la capacidad de aprendizaje.
Para solucionar esto, los investigadores proponen agregar el Sistema M (supercontrol), que actúa como un "cerebro de control".
Este sistema rastrea errores, niveles de incertidumbre y rendimiento, decidiendo así cuándo aprender de la observación, cuándo experimentar. En otras palabras, la IA sabrá a preguntarse qué aprender y cómo aprender.
Este enfoque se inspira en personas como los niños que explorarán cuando no estén seguros, practican cuando ya entienden e incluso consolidan el conocimiento mientras duermen.
Si se aplica con éxito, la IA puede ajustar automáticamente sus estrategias de aprendizaje sin necesidad de intervención humana continua.
El grupo de investigación también propuso un modelo de desarrollo en dos escalas de tiempo, que incluyen: "ciclo de vida", donde la IA aprende durante el proceso operativo, y "evolución", donde el sistema de supercontrol se optimiza a través de millones de simulaciones. Esto se considera un paso más cercano a la IA capaz de aprender de forma autónoma.
Sin embargo, el desafío no es pequeño, porque la construcción de entornos de simulación lo suficientemente rápidos y realistas requiere enormes recursos informáticos. Al mismo tiempo, la IA autodidacta también plantea preocupaciones sobre la seguridad cuando puede actuar de manera inesperada.
Sin embargo, los científicos creen que esta es una dirección necesaria. No solo ayuda a que la IA funcione de manera más eficiente en el mundo real, sino que este estudio también contribuye a explicar cómo aprenden y se adaptan los humanos, que es uno de los mayores misterios de la inteligencia.