Akamai, la reconocida empresa de ciberseguridad y computación en la nube, ha dado un paso significativo en el ámbito de la innovación tecnológica con el lanzamiento de Akamai Cloud Inference. Esta nueva solución promete transformar el panorama de los modelos predictivos y de grandes lenguajes (LLMs) al facilitar una adopción más ágil y eficiente por parte de las organizaciones. Akamai Cloud Inference se despliega sobre Akamai Cloud, la red más distribuida a nivel mundial, y está diseñado para enfrentar las crecientes limitaciones de los modelos centralizados en la nube.
Francisco Arnau, vicepresidente de Akamai para España y Portugal, comentó sobre los desafíos actuales de acercar los datos de inteligencia artificial (IA) a los usuarios y dispositivos. «Acercar los datos de IA a los usuarios y dispositivos es difícil y es un terreno donde las nubes heredadas tienen dificultades», destacó Arnau. Mientras que el arduo proceso de entrenamiento de los LLMs persiste en los grandes centros de datos, la inferencia, parte esencial de la IA, se dará más cerca del usuario, en el edge, gracias a la infraestructura que Akamai ha desarrollado durante más de 25 años.
La solución de Akamai promete no solo un aumento en el rendimiento, triplicándolo, sino también una notable reducción de la latencia hasta 2,5 veces. Además, las empresas que adopten esta innovación podrían lograr un ahorro significativo, de hasta un 86% en relación a las inferencias de IA y cargas de trabajo de infraestructura tradicional a hiperescala.
Akamai Cloud Inference se sustenta en cuatro pilares principales: computación, gestión de datos, contenedorización y edge computing. En el ámbito de la computación, Akamai Cloud se alía estratégicamente con Nvidia para optimizar el rendimiento de la inferencia de IA. En gestión de datos, colabora con VAST Data para garantizar un acceso optimizado a datos en tiempo real. La contenedorización permite a las empresas escalar sus operaciones automáticamente, mientras que las capacidades WebAssembly (WASM) de edge computing facilitan la ejecución de inferencias para LLM desde aplicaciones sin servidor.
A medida que la adopción de IA madura, las empresas están comenzando a reconocer que la atención excesiva hacia los LLMs ha desviado el foco de soluciones prácticas específicas para problemas empresariales. Estos modelos, si bien excelentes para tareas generales, resultan costosos y demandantes en tiempo de entrenamiento. Los modelos ligeros de IA, adaptados a necesidades concretas, ofrecen un mejor retorno de inversión al aprovechar datos únicos para generar resultados tangibles.
Con el creciente volumen de datos generados fuera de los centros de datos centralizados, surge una demanda por soluciones de IA más distribuidas que faciliten la generación de datos más cerca del origen. Akamai Cloud y su arquitectura distribuida emergen como las infraestructuras preferidas para estos nuevos requisitos, ofreciendo ventajas en inteligencia operativa y tiempo real.
La nube y el edge distribuidos, como Akamai Cloud Inference, están redefiniendo los casos de uso de IA, desde asistentes de voz en automóviles hasta la optimización de imágenes en mercados de consumo. Arnau lo resume con una metáfora clarificadora: «Crear un LLM es como elaborar un mapa; la inferencia de IA es como utilizar un GPS: aplica el conocimiento, recalcula y se adapta en tiempo real». Así, Akamai marca el rumbo hacia la próxima frontera de la inteligencia artificial.