Akamai ha dado a conocer su nueva plataforma Inference Cloud, diseñada para optimizar la inteligencia artificial (IA) llevando la inferencia desde centros de datos centrales hasta el borde de Internet. Esta innovación busca proporcionar baja latencia, seguridad y escalabilidad global para aplicaciones de «IA agéntica» y «IA física», como robots, vehículos y ciudades inteligentes.
La plataforma utiliza la infraestructura NVIDIA Blackwell, combinada con la extensa red distribuida de Akamai, para acercar el procesamiento a usuarios y dispositivos. Con más de 4,200 ubicaciones en todo el mundo, Inference Cloud asegura que la toma de decisiones de IA ocurra lo más cerca posible del usuario, logrando respuestas prácticamente instantáneas.
La infraestructura detrás de Inference Cloud incluye servidores NVIDIA RTX PRO, DPUs BlueField-3 y el software NVIDIA AI Enterprise. Esta tecnología, desplegada inicialmente en 20 ubicaciones, promete crecer progresivamente. La incorporación futura de la tecnología BlueField-4 mejorará aún más la seguridad y eficiencia.
Los casos de uso son múltiples y variados. En el ámbito de IA agéntica, la plataforma facilita experiencias personalizadas y comercio inteligente a través de asistentes en tiempo real que analizan la ubicación, comportamiento e intención del usuario. En el sector financiero, la capacidad de resolver inferencias secuenciales con latencias mínimas es ideal para la detección de fraude y pagos seguros. Además, la IA física es clave para soportar robots industriales, drones, infraestructura urbana y vehículos autónomos, donde la precisión y seguridad son esenciales.
La plataforma de Akamai también ofrece una sofisticada orquestación entre el núcleo y el borde, dirigiendo cada tarea al punto más eficiente según su complejidad y sensibilidad a la latencia. Las tareas rutinarias se resuelven en el borde, mientras que las más complejas se envían a «AI factories» centralizadas.
En términos de seguridad, Inference Cloud adopta el robusto modelo de Akamai, complementado con DPUs BlueField que proporcionan aislamiento y cifrado. Esta arquitectura es especialmente beneficiosa para sectores regulados que requieren trazabilidad y gobernanza junto a baja latencia.
Para el mercado, esta propuesta significa una notable reducción de latencia y una mayor cercanía de procesamiento, facilitando una interacción más fluida para los usuarios. La capacidad de escalar globalmente con rapidez es otra ventaja, comenzando en 20 sitios para expandirse según la demanda. Además, la portabilidad de modelos se ve favorecida al utilizar la tecnología de NVIDIA, permitiendo migraciones fluidas entre el borde y el núcleo.
En resumen, Akamai Inference Cloud representa un avance significativo para las aplicaciones de IA al combinar una infraestructura potente y una red global para ofrecer servicios más rápidos y seguros, adaptándose a las necesidades actuales del mercado.
Más información y referencias en Noticias Cloud.


