Inteligencia artificial sostenible: los modelos pequeños que evitan el derroche energético

Fecha:

La inteligencia artificial está viviendo un cambio radical. Mientras gigantes como OpenAI, Google y Meta invierten billones en centros de datos para alimentar sus modelos masivos, una alternativa más eficiente y sostenible gana terreno: los pequeños modelos de lenguaje (SLM). A diferencia de los LLM como ChatGPT, que requieren enorme poder de cómputo en la nube, estos sistemas compactos pueden funcionar directamente en tu teléfono móvil u ordenador personal, reduciendo costos energéticos y mejorando la privacidad.

El problema de la inteligencia artificial: centros de datos insaciables

El auge de la inteligencia artificial tiene un lado oscuro: su voraz consumo energético. Según Goldman Sachs, los centros de datos aumentarán su demanda eléctrica en un 165% para 2030. Empresas como OpenAI planean gastar 500.000 millones de dólares en infraestructura, mientras Google, Amazon y Meta suman otros 320.000 millones solo en 2025. La UE no se queda atrás, con un fondo de 200.000 millones de euros para impulsar la IA.

Imagen: Especial.

Ante este derroche de recursos, los SLM emergen como una solución. Modelos como Mistral Small 3.1 (que corre en un Mac con 32GB de RAM) o TinyLlama 1.1B (probado incluso en smartphones) demuestran que no se necesitan supercomputadoras para IA útil. Google acaba de lanzar Gemma 3 1B, diseñado para móviles y sin dependencia de internet.

LEE MÁS: Puebla proyecta una derrama económica de 8 mil millones de pesos con eventos en 2025

¿Pueden los modelos pequeños competir con los gigantes?

Sí, pero con límites. Verónica Bolón-Canedo, experta en inteligencia artificial de la Universidad de A Coruña, explica:

“Son más eficientes porque usan menos parámetros, ahorrando energía y almacenamiento. Además, al procesar datos localmente, evitas enviar información a la nube, protegiendo tu privacidad”.

Sin embargo, tareas complejas como generación de imágenes o razonamiento multimodal aún requieren modelos grandes.

La industria ya está adaptándose. Qualcomm, por ejemplo, desarrolló NPU (unidades de procesamiento neuronal) para móviles. Hace dos años, generar una imagen con IA en un smartphone tomaba 15 segundos; hoy, menos de 1 segundo. “El futuro es híbrido”, dice George Tsirtsis, su director técnico en Europa.

“Las apps decidirán cuándo usar la nube y cuándo el dispositivo”.

Aunque los SLM no reemplazarán a los LLM, su impacto será clave. Desde traducciones instantáneas hasta resúmenes de texto, ofrecen una IA más rápida, privada y sostenible. En un mundo donde la tecnología avanza más rápido que la energía limpia, estos pequeños modelos podrían ser la gran solución que nadie esperaba.

Únete a nuestro canal de WhatsApp

LEAVE A REPLY

Please enter your comment!
Please enter your name here

Compartir post:

Lo más leído

Más contenido
Relacionado

Puebla lanzará app para reportar fallas en alumbrado público

El gobierno de Puebla prepara el lanzamiento de una app que permitirá a...

El Carnaval de Huejotzingo brilla en el Tianguis Turístico 2025

El Carnaval de Huejotzingo, conocido por su singularidad y...

¿Cuánto más podrá soportar el dólar?

Durante décadas, el dólar ha sido sinónimo de estabilidad...

El Día del Niño en Puebla generará una derrama económica de 960 mdp

Este 2025, el Día del Niño se perfila como...