Olvídate de la nube: esta IA de bolsillo tiene 190 TOPS de potencia local

Los dispositivos compactos para IA se han vuelto cada vez más frecuentes, pero una nueva empresa emergente ha roto los estándares de los «dispositivos compactos» al presentar el superordenador para IA más pequeño del mundo, con el tamaño de un walkman que cabe en el bolsillo y que, al menos sobre el papel, parece realmente muy capaz. Vamos a verlo.

Dispositivos como el DGX Spark de NVIDIA son muy compactos y potentes, pero tienen un precio que puede llegar hasta los 4.000 euros y eso desde luego no es para todos los bolsillos. Ahora, una startup llamada Tiiny AI planea acercar un poco más este tipo de dispositivos a los usuarios de a pie con el que, según ellos, es el superordenador para IA más pequeño del mundo, el Pocket Lab.

Poket Lab, un superordenador para IA en la palma de la mano

El nuevo Pocket Lab de Tiiny AI incorpora los últimos procesadores ARM v9.2, que permite implementar modelos de lenguaje LLM de hasta 120.000 millones de parámetros. La IA se ha convertido en un segmento emergente para la industria informática, principalmente porque la implementación de modelos de código abierto en máquinas locales permite una carga de trabajo más personalizada, y esto es precisamente para lo que se ha fabricado el Pocket Lab.

El dispositivo tiene unas dimensiones de apenas 14,2 x 8 x 2,53 centímetros y pesa 300 gramos, pero Tiiny AI afirma que este superordenador de bolsillo es capaz de implementar modelos de IA LLM de hasta 120.000 millones de parámetros, un logro que sería inédito en este tamaño. Se dice que los LLM que se pueden utilizar con esta máquina son perfectos para «el razonamiento a nivel de doctorado, el análisis de múltiples pasos y la comprensión contextual profunda». Gracias a sus capacidades integradas, el Pocket Lab es ideal no solo para consumidores, sino también para aquellos que quieren experimentar con la implementación local de LLMs.

Procesador ARMv9.2 12-core
Potencia para IA (SoC + dNPU), ≈ 190 TOPS
Memoria yalmacenamiento 80GB LPDDR5X RAM + 1TB SSD
Capacidad del modelo Hasta 120.000 millones de parámetros LLM de forma local
Energía 30W TDP, consumo típico de 65W
Dimensiones y peso 14.2 × 8 × 2.53 cm, ~300g
Ecosistema Despliegue con un click de docenas de LLM open-source y frameworks
Conectividad Operación totalmente offline, sin Internet o nube

Basándonos en lo que ha revelado Tiiny AI sobre este dispositivo, el Pocket Lab es compatible con modelos de GPT-OOS, Llama, Qwen, DeepSeek, Mistral y Phi. Uno de los aspectos más interesantes es que es capaz de ofrecer hasta 190 TOPS de potencia para IA. Con 80 GB de memoria RAM LPDDR5X integrada, se puede habilitar una cuantificación bastante agresiva, lo que permite que un modelo de 120B se ejecute en un entorno local. Además, Tiiny AI ha dicho que la empresa ha utilizados dos técnicas que hacen que esta implementación con 120.000 millones de parámetros sea viable:

  • TurboSparse: una técnica de activación a nivel neuronal que mejora significativamente la eficiencia de la inferencia al mismo tiempo que mantiene toda la inteligencia del modelo.
  • PowerInfer: un motor de inferencia heterogéneo de código abierto con más de 8000 estrellas en GitHub, que acelera las cargas pesadas de trabajo LLM distribuyendo dinámicamente el cálculo entre la CPU y la NPU, lo que permite un rendimiento de nivel de servidor con una fracción de su consumo energético.

La compañía presentará Pocket Lab a las masas durante el CES 2026 que tendrá lugar en Las Vegas a principios de enero del año que viene. Eso sí, Tiiny AI no ha desvelado todavía datos sobre su fecha de lanzamiento o su disponibilidad en tiendas.

Preguntas frecuentes sobre el Pocket Lab de Tiiny AI

¿Qué es exactamente el Pocket Lab?

Es un superordenador de bolsillo diseñado por la startup Tiiny AI para ejecutar modelos de lenguaje de inteligencia artificial (LLM) de forma local, sin necesidad de conexión a internet.

¿Qué potencia tiene este dispositivo?

Ofrece aproximadamente 190 TOPS de potencia para IA y es capaz de ejecutar modelos LLM de hasta 120.000 millones de parámetros, gracias a sus 80 GB de RAM LPDDR5X y un procesador ARM v9.2 de 12 núcleos.

¿Por qué es importante que funcione de forma local (offline)?

Al operar sin conexión a la nube, garantiza la privacidad total de los datos del usuario y permite un uso personalizado y sin latencia en cualquier lugar, independientemente de la conectividad a internet.

¿Con qué modelos de IA es compatible?

El Pocket Lab es compatible con una amplia gama de modelos de código abierto, incluyendo GPT-OOS, Llama, Qwen, DeepSeek, Mistral y Phi.