La inteligencia artificial está viviendo un cambio radical. Mientras gigantes como OpenAI, Google y Meta invierten billones en centros de datos para alimentar sus modelos masivos, una alternativa más eficiente y sostenible gana terreno: los pequeños modelos de lenguaje (SLM). A diferencia de los LLM como ChatGPT, que requieren enorme poder de cómputo en la nube, estos sistemas compactos pueden funcionar directamente en tu teléfono móvil u ordenador personal, reduciendo costos energéticos y mejorando la privacidad.
El problema de la inteligencia artificial: centros de datos insaciables
El auge de la inteligencia artificial tiene un lado oscuro: su voraz consumo energético. Según Goldman Sachs, los centros de datos aumentarán su demanda eléctrica en un 165% para 2030. Empresas como OpenAI planean gastar 500.000 millones de dólares en infraestructura, mientras Google, Amazon y Meta suman otros 320.000 millones solo en 2025. La UE no se queda atrás, con un fondo de 200.000 millones de euros para impulsar la IA.

Ante este derroche de recursos, los SLM emergen como una solución. Modelos como Mistral Small 3.1 (que corre en un Mac con 32GB de RAM) o TinyLlama 1.1B (probado incluso en smartphones) demuestran que no se necesitan supercomputadoras para IA útil. Google acaba de lanzar Gemma 3 1B, diseñado para móviles y sin dependencia de internet.
LEE MÁS: Puebla proyecta una derrama económica de 8 mil millones de pesos con eventos en 2025
¿Pueden los modelos pequeños competir con los gigantes?
Sí, pero con límites. Verónica Bolón-Canedo, experta en inteligencia artificial de la Universidad de A Coruña, explica:
“Son más eficientes porque usan menos parámetros, ahorrando energía y almacenamiento. Además, al procesar datos localmente, evitas enviar información a la nube, protegiendo tu privacidad”.
Sin embargo, tareas complejas como generación de imágenes o razonamiento multimodal aún requieren modelos grandes.
La industria ya está adaptándose. Qualcomm, por ejemplo, desarrolló NPU (unidades de procesamiento neuronal) para móviles. Hace dos años, generar una imagen con IA en un smartphone tomaba 15 segundos; hoy, menos de 1 segundo. “El futuro es híbrido”, dice George Tsirtsis, su director técnico en Europa.
“Las apps decidirán cuándo usar la nube y cuándo el dispositivo”.
Aunque los SLM no reemplazarán a los LLM, su impacto será clave. Desde traducciones instantáneas hasta resúmenes de texto, ofrecen una IA más rápida, privada y sostenible. En un mundo donde la tecnología avanza más rápido que la energía limpia, estos pequeños modelos podrían ser la gran solución que nadie esperaba.