Red Hat continúa su evolución en el ámbito de la inteligencia artificial empresarial con la introducción de nuevas herramientas diseñadas para facilitar la adopción de la IA. En un esfuerzo por ofrecer soluciones más eficientes y efectivas, la compañía ha lanzado el Red Hat AI Inference Server, una serie de modelos de terceros validados y ha integrado API avanzadas como Llama Stack y el Protocolo de Contexto de Modelos (MCP).
Según un informe de Forrester, el software de código abierto será un factor clave en la aceleración de los esfuerzos de IA empresarial. Con la creciente complejidad del panorama de la IA, Red Hat ofrece a las empresas una infraestructura que asegura una inferencia de modelos óptima y facilita el desarrollo de agentes de IA generativa.
El nuevo Red Hat AI Inference Server promete mejorar la eficiencia en la inferencia de modelos en entornos de nube híbrida. Esta plataforma, integrada en Red Hat OpenShift AI y Red Hat Enterprise Linux AI, también está disponible de forma independiente, permitiendo a las organizaciones desplegar aplicaciones inteligentes con mayor eficacia.
Además, los modelos de terceros validados en la plataforma Red Hat AI, disponibles a través de Hugging Face, permiten a las empresas encontrar soluciones adaptadas a sus necesidades específicas, con guías de despliegue que aumentan la confianza y reducen costes operativos al optimizar la inferencia.
Las API Llama Stack y MCP aportan estandarización al desarrollo de aplicaciones y agentes de IA, ofreciendo herramientas para inferencia, evaluación de modelos y conectividad con herramientas externas. Estas mejoras están disponibles en la versión más reciente de Red Hat OpenShift AI, que incluye un catálogo de modelos optimizado, opciones de entrenamiento distribuidas y un almacén de características para facilitar el manejo de datos.
La última actualización, Red Hat Enterprise Linux AI 1.5, amplía su presencia en la nube pública, ahora disponible en Google Cloud Marketplace, junto a AWS y Azure. También introduce capacidades multilingües mejoradas y un servicio de personalización de modelos en IBM Cloud.
Red Hat visualiza un futuro de IA donde las organizaciones puedan implantar cualquier modelo, en cualquier acelerador y en cualquier nube, eliminando barreras de infraestructura. Esta visión de una plataforma de inferencia universal busca habilitar una innovación sin restricciones y de alto rendimiento en el ámbito de la IA generativa.
Más información y referencias en Noticias Cloud.