En los ultimos años, el desarrollo de la inteligencia artificial (IA) se ha asociado con una escala cada vez mayor, mas datos, mas parametros y un poder de calculo mas grande.
Por lo tanto, los modelos de lenguajes grandes (LLM) a menudo solo pueden operar en centros de datos caros, dependiendo fuertemente de la computacion en la nube y las GPU dedicadas.
Sin embargo, una startup estadounidense esta desafiando este enfoque poniendo la IA a gran escala en un dispositivo que se puede empacar.
Tiiny AI Inc. presento recientemente Tiiny AI Pocket Lab, reconocido por Guinness World Records como la supercomputadora personal de IA mas pequeña del mundo en la categoria de "la minicomputadora mas pequeña que ejecuta 100 LLM local".
Segun la empresa, este es el primer dispositivo de bolsillo que puede ejecutar completamente el modelo LLM de hasta 120 mil millones de parametros directamente en el dispositivo, sin necesidad de conexion en la nube, servidor o GPU de alta gama.
Ambicion de acercar la IA fuerte a los usuarios individuales
En el comunicado de vision, Tiiny AI enfatizo el objetivo de sacar la IA avanzada de los gigantescos centros de datos y llegar a manos de cada individuo.
La empresa cree que el mayor cuello de botella del ecosistema de IA actual no es la falta de poder de calculo, sino la dependencia de la nube, lo que lleva a altos costos, grandes retrasos y riesgos de privacidad.
Tiiny AI Pocket Lab tiene un tamaño de aproximadamente 14,2 x 8 x 2,53 cm, pesa aproximadamente 300 gramos, pero esta diseñado como un sistema de inferencia de IA completo.
El dispositivo funciona con una potencia de aproximadamente 65W, significativamente inferior a los sistemas de IA basados en GPU tradicionales, que consumen una gran cantidad de energia.
Especificaciones de hardware y rendimientos notables
Segun el anuncio, Pocket Lab esta equipado con una CPU ARMv9.2 de 12 nucleos, integrado con un procesador neuronal especializado (NPU), alcanzando alrededor de 190 TOPS de capacidad de calculo de IA. El dispositivo viene con 80 GB de memoria LPDDR5X y 1 TB de almacenamiento, lo que permite procesar modelos grandes directamente en el dispositivo.
Tiiny AI dice que Pocket Lab funciona mas eficazmente en la "zona dorada" de la IA personal, equivalente a modelos de 10 a 100 mil millones de parametros, que se cree que satisfacen mas del 80% de las necesidades reales.
La empresa afirma que el rendimiento de razonamiento del dispositivo puede alcanzar un nivel equivalente a GPT-4o, suficiente para tareas de analisis multifasico, comprension de contexto profunda y razonamiento complejo.
Tecnologia central detras del dispositivo
La capacidad de ejecutar modelos grandes en un dispositivo compacto proviene de dos tecnologias principales: TurboSparse y PowerInfer.
TurboSparse utiliza la tecnica de activacion discreta a nivel neuronal, lo que ayuda a reducir significativamente la cantidad de calculo necesaria en el proceso de razonamiento.
Mientras tanto, PowerInfer es una herramienta de inferencia de codigo abierto que permite una distribucion flexible del volumen de trabajo entre la CPU y la NPU, optimizando el rendimiento sin necesidad de una GPU dedicada.
Gracias a esta combinacion, las tareas que antes requerian una GPU valorada en miles de dolares ahora se pueden realizar en un dispositivo de bolsillo.
Ecosistema abierto y hacia el CES 2026
Tiiny AI Pocket Lab admite la instalacion de modelos de codigo abierto con solo un clic, incluyendo GPT-OSS, Qwen, DeepSeek, Llama, Phi, Mistral... El dispositivo tambien es compatible con muchos agentes de IA de codigo abierto como OpenManus, ComfyUI, Flowise o SillyTavern.
La compañia dijo que los usuarios recibiran actualizaciones continuas, incluidas actualizaciones de hardware a traves de OTA, y se espera que se presenten completamente en el CES de enero de 2026.