Ciudad de México,
Axel Olivares
Crédito foto: Sergio F Cara (NotiPress/Composición)
El crecimiento acelerado de los modelos de inteligencia artificial (IA) generó preocupación por su creciente demanda de energía, particularmente en centros de datos. A través de un informe publicado por Ars Technica, expertos de la comunidad científica analizaron posibles soluciones para mitigar el impacto energético de esta tecnología en expansión, y advirtieron sobre la falta de transparencia de las empresas desarrolladoras.
Desde 2022, con la popularización de los modelos de lenguaje de gran tamaño (LLM) como ChatGPT, el consumo energético se incrementó significativamente. Según estimaciones del Laboratorio Nacional Lawrence Berkeley, la demanda eléctrica de los centros de datos en Estados Unidos pasó de 76 TWh en 2018 a 176 TWh en 2023. Esta tendencia coincide con la complejidad creciente de los modelos, algunos de los cuales requieren decenas de miles de GPU funcionando durante semanas para entrenarse.
Uno de los investigadores citados, Mosharaf Chowdhury, de la Universidad de Michigan, señaló que los grandes modelos actuales contienen hasta 100 billones de parámetros. Esta complejidad hace que el entrenamiento represente cerca del 40% del consumo energético total del ciclo de vida de un modelo de IA, mientras que la fase de inferencia (el uso cotidiano del sistema) representa el 60% restante.
Para reducir este impacto, los científicos están desarrollando herramientas y técnicas específicas. Jae-Won Chung, también de la Universidad de Michigan, destacó la utilidad de métodos como la poda y la cuantificación, que buscan disminuir el número de parámetros y optimizar su representación en memoria. "Se toma un modelo grande y se reduce a uno más pequeño, intentando preservar la calidad", explicó.
Otra propuesta de Chung es Perseus, un software que permite equilibrar la carga de trabajo entre GPU para reducir el consumo sin afectar los tiempos de ejecución. "Perseus ralentiza con precisión algunas GPU, y esta ralentización implica menos energía. Sin embargo, la velocidad de extremo a extremo es la misma", detalló. Según pruebas realizadas, esta herramienta podría disminuir el consumo energético hasta un 30%.
Una de las críticas más contundentes es la falta de datos verificables sobre el consumo energético real de sistemas comerciales como ChatGPT o Gemini. "No publicaron cifras reales ni artículos académicos", aseguró Chowdhury. La única referencia disponible proviene de un informe de relaciones públicas de Google de 2009 y de estimaciones indirectas atribuidas a declaraciones del CEO de Nvidia, Jensen Huang. Esto generó cifras como el consumo de 2,9 vatios por consulta de ChatGPT, que, comparado con los 0,3 vatios por búsqueda tradicional, sugiere un consumo diez veces mayor.
A largo plazo, se estudian nuevas tecnologías como la computación fotónica y los semiconductores 2D. No obstante, Dion Harris, de Nvidia, advierte que la clave será la implementación a escala: "Estamos estudiando muchas de estas tecnologías, intentando evaluar hasta dónde podemos llevarlas".