AMD ha dado a conocer su más reciente avance en el ámbito del software de computación con la presentación de ROCm 6.4, una actualización significativa que busca acelerar el desarrollo y la implementación de cargas de trabajo en inteligencias artificiales (IA) y computación de alto rendimiento (HPC) sobre sus GPU AMD Instinct™. Esta nueva versión pone de relieve el compromiso de la compañía con un ecosistema optimizado para un rendimiento elevado y una gestión simplificada, a la vez que aborda las crecientes demandas del sector tecnológicamente en expansión.
Uno de los aspectos más destacados de ROCm 6.4 es la inclusión de contenedores preoptimizados para el entrenamiento e inferencia de modelos de lenguaje de gran tamaño. Estos contenedores, diseñados para facilitar la tarea a desarrolladores e ingenieros, eliminan la complejidad de configurar entornos personalizados. Entre las novedades se encuentra vLLM, un contenedor de inferencia para modelos como Gemma 3 y Cohere, diseñado para proporcionar baja latencia desde el principio; SGLang, optimizado para flujos de trabajo basados en agentes; y las adaptaciones de PyTorch y Megatron-LM para potenciar las GPU Instinct MI300X. Estas herramientas permiten el acceso a entornos estables y de alto rendimiento de manera más eficiente que nunca.
La actualización también trae consigo mejoras sustanciales en el rendimiento de PyTorch, dirigidas especialmente al entrenamiento de modelos de lenguaje de gran tamaño. Destacan Flex Attention, que optimiza tiempos de entrenamiento y reduce el uso de memoria, y un TopK más rápido que mejora el rendimiento en tareas de inferencia. Además, la optimización de SDPA para contextos largos significa que los modelos se pueden entrenar de forma más eficiente y económica.
Para la inferencia a gran escala, ROCm 6.4 presenta avances significativos, potenciando modelos avanzados con alta eficiencia. Pruebas internas demuestran que el contenedor SGLang ha alcanzado un rendimiento sin precedentes en GPU Instinct MI300X con DeepSeek R1, mientras que vLLM asegura un despliegue sin fricciones para Gemma 3. Los contenedores, con actualizaciones constantes, ofrecen estabilidad y continuidad en entornos de producción exigentes.
En el ámbito de la gestión de infraestructuras, la actualización incluye mejoras en el AMD GPU Operator, una herramienta esencial para la operación de clústeres GPU en entornos complejos. Entre sus características se encuentran actualizaciones automáticas que no interrumpen el servicio, y una compatibilidad ampliada con otras plataformas como Red Hat OpenShift y Ubuntu. Estas funciones permiten minimizar riesgos operativos y asegurar una infraestructura robusta.
Finalmente, el nuevo Instinct GPU Driver con arquitectura modular promete una gestión más flexible y eficiente, permitiendo actualizaciones de componentes individuales y una compatibilidad extendida. Esta innovación está diseñada para simplificar la gestión a gran escala, beneficiando especialmente a proveedores de servicios en la nube y a empresas con requerimientos elevados de estabilidad.
Con este lanzamiento, AMD no solo reafirma su liderazgo en el desarrollo de herramientas para IA y HPC, sino que ofrece a la comunidad tecnológica un entorno más potente y adaptable para enfrentar los desafíos actuales del sector.
Más información y referencias en Noticias Cloud.