Nuevas líneas de investigación en inteligencia artificial apuntan a modelos menos intensivos en cómputo y energía, con impacto directo en la infraestructura global
Laboratorios y empresas tecnológicas comenzaron a desarrollar nuevos modelos de inteligencia artificial diseñados para operar con menor consumo de cómputo y sin depender de grandes centros de datos. El enfoque dominante, sustentado en modelos de lenguaje de gran escala entrenados con infraestructura masiva, comenzó a mostrar límites concretos en costos, consumo energético y escalabilidad.
Durante los dos años recientes, el crecimiento acelerado de la IA generativa impulsó inversiones multimillonarias en data centers, GPUs y consumo energético, explicó Haig Hanessian de Cognition en entrevista con NotiPress. En ese contexto, advirtió que el enfoque dominante comenzó a mostrar tensiones crecientes por costos operativos y restricciones físicas vinculadas a energía, agua y enfriamiento.
Fernando Leibowich Beker, cofundador y CEO de Lidd AI señaló durante la conversación que líneas de investigación desarrolladas en laboratorios privados y universidades de Estados Unidos y Asia exploran arquitecturas distintas a los grandes modelos de lenguaje tradicionales. Indicó que estas propuestas priorizan eficiencia, menor dependencia de datos masivos y estructuras inspiradas en modelos predictivos del mundo físico, en lugar de sistemas basados únicamente en correlaciones estadísticas.
Hanessian agregó que uno de los focos centrales de estas investigaciones consiste en reducir la necesidad de entrenar modelos con billones de parámetros. Sostuvo que el crecimiento exponencial del tamaño de los modelos dejó de garantizar mejoras proporcionales en desempeño, mientras eleva de forma significativa los costos energéticos, lo cual abrió paso a enfoques basados en razonamiento estructurado, modelos jerárquicos y aprendizaje con menos datos como es el caso de JEPA de Meta.
Leibowich Beker aclaró que estos avances no implican un reemplazo inmediato de los LLM. Describió el proceso como una transición progresiva hacia arquitecturas híbridas, donde los grandes modelos convivirían con sistemas más livianos, diseñados para tareas específicas, con menor consumo de recursos y mayor estabilidad operativa.
Respecto a la infraestructura global, Hanessian explicó que una parte significativa de la inversión en inteligencia artificial continúa destinada a la construcción y ampliación de centros de datos. Señaló que esta dinámica genera tensiones en mercados energéticos y cadenas de suministro, mientras una reducción en la demanda de cómputo intensivo permitiría redistribuir inversiones y acelerar la adopción de IA en regiones con menor acceso a infraestructura avanzada.
En el plano geopolítico, Hanessian advirtió que la concentración de data centers en pocas geografías introduce riesgos estratégicos. Mencionó que la producción de chips avanzados, la localización de servidores y la disponibilidad energética se consolidaron como variables críticas, mientras arquitecturas más eficientes podrían mitigar parte de esa concentración y ampliar el acceso a capacidades de IA. A principios de enero de 2026, AMD anunció en el Consumer Electronics Show (CES) desde Las Vegas, una nueva arquitectura de procesadores para IA y un acuerdo con Open AI.
Desde una perspectiva empresarial, el CEO de Lidd AI, también PhD, vinculó el interés por estos desarrollos con la necesidad de obtener retornos medibles. Explicó que numerosas compañías enfrentan dificultades para justificar inversiones crecientes en infraestructura frente a beneficios limitados, mientras modelos más eficientes facilitarían una adopción sostenible y escalable en entornos productivos.
Finalmente, ambos especialistas coincidieron en que, aunque estas arquitecturas aún se encuentran en fases tempranas, 2026 podría marcar un punto de inflexión. Indicaron que la consolidación de investigaciones actuales podría cambiar radicalmente el rumbo de la inteligencia artificial, desplazando el foco desde el tamaño de los modelos hacia su eficiencia y aplicabilidad real.