Akamai Refuerza su Presencia en el Campo de la IA con el Lanzamiento de Akamai Cloud Inference

Akamai, la reconocida empresa de ciberseguridad y computación en la nube, ha dado un paso significativo en el ámbito de la innovación tecnológica con el lanzamiento de Akamai Cloud Inference. Esta nueva solución promete transformar el panorama de los modelos predictivos y de grandes lenguajes (LLMs) al facilitar una adopción más ágil y eficiente por parte de las organizaciones. Akamai Cloud Inference se despliega sobre Akamai Cloud, la red más distribuida a nivel mundial, y está diseñado para enfrentar las crecientes limitaciones de los modelos centralizados en la nube.

Francisco Arnau, vicepresidente de Akamai para España y Portugal, comentó sobre los desafíos actuales de acercar los datos de inteligencia artificial (IA) a los usuarios y dispositivos. «Acercar los datos de IA a los usuarios y dispositivos es difícil y es un terreno donde las nubes heredadas tienen dificultades», destacó Arnau. Mientras que el arduo proceso de entrenamiento de los LLMs persiste en los grandes centros de datos, la inferencia, parte esencial de la IA, se dará más cerca del usuario, en el edge, gracias a la infraestructura que Akamai ha desarrollado durante más de 25 años.

La solución de Akamai promete no solo un aumento en el rendimiento, triplicándolo, sino también una notable reducción de la latencia hasta 2,5 veces. Además, las empresas que adopten esta innovación podrían lograr un ahorro significativo, de hasta un 86% en relación a las inferencias de IA y cargas de trabajo de infraestructura tradicional a hiperescala.

Akamai Cloud Inference se sustenta en cuatro pilares principales: computación, gestión de datos, contenedorización y edge computing. En el ámbito de la computación, Akamai Cloud se alía estratégicamente con Nvidia para optimizar el rendimiento de la inferencia de IA. En gestión de datos, colabora con VAST Data para garantizar un acceso optimizado a datos en tiempo real. La contenedorización permite a las empresas escalar sus operaciones automáticamente, mientras que las capacidades WebAssembly (WASM) de edge computing facilitan la ejecución de inferencias para LLM desde aplicaciones sin servidor.

A medida que la adopción de IA madura, las empresas están comenzando a reconocer que la atención excesiva hacia los LLMs ha desviado el foco de soluciones prácticas específicas para problemas empresariales. Estos modelos, si bien excelentes para tareas generales, resultan costosos y demandantes en tiempo de entrenamiento. Los modelos ligeros de IA, adaptados a necesidades concretas, ofrecen un mejor retorno de inversión al aprovechar datos únicos para generar resultados tangibles.

Con el creciente volumen de datos generados fuera de los centros de datos centralizados, surge una demanda por soluciones de IA más distribuidas que faciliten la generación de datos más cerca del origen. Akamai Cloud y su arquitectura distribuida emergen como las infraestructuras preferidas para estos nuevos requisitos, ofreciendo ventajas en inteligencia operativa y tiempo real.

La nube y el edge distribuidos, como Akamai Cloud Inference, están redefiniendo los casos de uso de IA, desde asistentes de voz en automóviles hasta la optimización de imágenes en mercados de consumo. Arnau lo resume con una metáfora clarificadora: «Crear un LLM es como elaborar un mapa; la inferencia de IA es como utilizar un GPS: aplica el conocimiento, recalcula y se adapta en tiempo real». Así, Akamai marca el rumbo hacia la próxima frontera de la inteligencia artificial.

Silvia Pastor
Silvia Pastor
Silvia Pastor es una destacada periodista de Noticias.Madrid, especializada en periodismo de investigación. Su labor diaria incluye la cobertura de eventos importantes en la capital, la redacción de artículos de actualidad y la producción de segmentos audiovisuales. Silvia realiza entrevistas a figuras clave, proporciona análisis expertos y mantiene una presencia activa en redes sociales, compartiendo sus artículos y ofreciendo actualizaciones en tiempo real. Su enfoque profesional, centrado en la veracidad, objetividad y ética periodística, la convierte en una fuente confiable de información para su audiencia.

Más popular

Más artículos como este
Relacionados

Guía para Acceder a la BIOS o UEFI: La Tecla Correcta para tu PC y Dispositivos

Durante décadas, la BIOS (Basic Input/Output System) ha sido...

Récord de Satisfacción: Tussam Recibe la Mayor Calificación de la Década por Parte de sus Usuarios

La empresa municipal de transporte de Sevilla, Tussam, ha...

Conflicto en Ucrania: Járkov Bajo Fuego Ruso por Segundo Día Consecutivo

En un nuevo día marcado por la agresión bélica,...
Resumen de privacidad

Esta web utiliza cookies para que podamos ofrecerte la mejor experiencia de usuario posible. La información de las cookies se almacena en tu navegador y realiza funciones tales como reconocerte cuando vuelves a nuestra web o ayudar a nuestro equipo a comprender qué secciones de la web encuentras más interesantes y útiles.