Akamai despliega infraestructura global de IA distribuida con tecnología NVIDIA

 18-03-2026
Carlos Ortíz
   
Foto: Cortesía

Foto: Cortesía

Akamai Technologies anunció la implementación a escala mundial del diseño de referencia NVIDIA AI Grid, con el objetivo de habilitar una infraestructura de inteligencia artificial distribuida que optimiza la ejecución de inferencias en tiempo real mediante un equilibrio entre latencia, costo y rendimiento.

La compañía informó a NotiPress que esta iniciativa forma parte de la evolución de Akamai Inference Cloud. La plataforma integra infraestructura de NVIDIA basada en GPU RTX PRO 6000 Blackwell Server Edition y se apoya en una red global distribuida que permite procesar cargas de trabajo tanto en el núcleo como en el edge, acercando la computación al punto de interacción con el usuario.

El modelo se sustenta en una arquitectura unificada que combina capacidad de cómputo centralizada y procesamiento periférico. A través de un coordinador inteligente, la plataforma gestiona en tiempo real asignación de recursos, optimizando la denominada "tokenómica", que incluye variables como costo por token, tiempo de respuesta y rendimiento operativo. Este enfoque permite dirigir cada carga de trabajo al entorno más adecuado según su demanda computacional.

Adam Karon, director de operaciones y director general del Cloud Technology Group de Akamai, señaló: "Los centros de IA se han diseñado específicamente para la formación y las cargas de trabajo de modelos de vanguardia, y la infraestructura centralizada seguirá ofreciendo los mejores resultados en términos de tokenómica para esos casos de uso". Asimismo, agregó: "Sin embargo, el vídeo en tiempo real, la IA física y las experiencias personalizadas altamente concurrentes exigen inferencia en el punto de contacto".

La infraestructura distribuida permite reducir costos mediante asignación dinámica de recursos, así como mejorar la capacidad de respuesta en aplicaciones que requieren procesamiento inmediato. Entre los casos de uso se encuentran interacciones en videojuegos impulsadas por inteligencia artificial, sistemas de detección de fraude en servicios financieros y procesos de transcodificación y doblaje en medios digitales.

En el núcleo de la plataforma, los clústeres de GPU proporcionan la potencia necesaria para cargas de trabajo de alta densidad, como modelos de lenguaje y procesamiento multimodal. Este entorno centralizado se complementa con una red global de edge computing que permite ejecutar inferencias cercanas al usuario, evitando retrasos asociados a arquitecturas tradicionales.

Dicha solución se desarrolla sobre NVIDIA AI Enterprise y utiliza la arquitectura Blackwell junto con DPU NVIDIA BlueField para redes y seguridad aceleradas. Chris Penrose, vicepresidente global de Desarrollo Empresarial y Telco en NVIDIA, afirmó: "Las nuevas aplicaciones nativas de IA exigen una latencia predecible y una mayor rentabilidad a escala global". También indicó: "Al poner en funcionamiento NVIDIA AI Grid, Akamai está creando el tejido conectivo para la IA generativa, agencial y física".

La adopción inicial de la plataforma se ha registrado en sectores con alta demanda de procesamiento y baja latencia, mientras que la compañía confirmó acuerdos comerciales para el despliegue de infraestructura de GPU a gran escala, lo que respalda el interés empresarial en este modelo. Akamai Inference Cloud se encuentra disponible para clientes empresariales cualificados y será presentada en el evento NVIDIA GTC 2026, programado del 16 al 19 de marzo en San José, California.




DESCARGA LA NOTA  SÍGUENOS EN GOOGLE NEWS