En un giro significativo hacia la inteligencia artificial (IA) de próxima generación, AMD ha desvelado un conjunto de soluciones tecnológicas diseñadas para revolucionar la infraestructura a gran escala. Entre las innovaciones presentadas se encuentran las aceleradoras AMD Instinct™ MI325X, la NIC AMD Pensando™ Pollara 400 y la DPU AMD Pensando Salina, que prometen elevar el rendimiento de modelos de IA y centros de datos avanzados a niveles sin precedentes.
Las aceleradoras AMD Instinct MI325X, fundamentadas en la arquitectura AMD CDNA™ 3, se destacan por su eficiencia y formidable capacidad de procesamiento en tareas relacionadas con la IA, incluyendo entrenamiento e inferencia de modelos complejos. Estas herramientas permiten a los socios de AMD crear soluciones de IA optimizadas, garantizando un alto rendimiento desde el sistema hasta el nivel del centro de datos. Forrest Norrod, vicepresidente ejecutivo de AMD, subrayó que la compañía continúa cumpliendo su ambiciosa hoja de ruta, enfocándose en brindar a los clientes una infraestructura más rápida y eficiente en el ámbito de la inteligencia artificial.
Integrando capacidades impresionantes, las AMD Instinct MI325X ofrecen una memoria de 256 GB de HBM3E con un ancho de banda de 6,0 TB/s, superando las expectativas del sector. Este equipamiento ofrece 1,3 veces más capacidad y un rendimiento superior en comparación con modelos anteriores, abriendo nuevos horizontes para la inferencia en IA. Se anticipa que estas aceleradoras estarán disponibles para su adquisición general en el primer trimestre de 2025.
No obstante, el compromiso de AMD con la innovación tecnológica no termina ahí. La compañía ha presentado las futuras aceleradoras AMD Instinct MI350 Series, basadas en AMD CDNA 4, que prometen mejorar el rendimiento de inferencia en hasta 35 veces en comparación con sus predecesoras. Estas unidades se caracterizan por una capacidad ampliada de memoria que llegará hasta los 288 GB de HBM3E.
En el ámbito de las redes de IA, AMD introduce la DPU AMD Pensando™ Salina para optimizar el front-end de las infraestructuras de IA, junto con la AMD Pensando™ Pollara 400, la primera NIC en su tipo preparada para el Ultra Ethernet Consortium (UEC). Estos componentes están diseñados para maximizar la eficiencia y escalabilidad en sistemas complejos, asegurando una gestión de datos óptima y segura.
Complementando la oferta de hardware, AMD refuerza su apuesta por el software de IA con nuevas funciones en la plataforma abierta ROCm™. Compatible con una amplia gama de marcos y bibliotecas, ROCm 6.2 aporta mejoras significativas en rendimiento para tareas de inferencia y entrenamiento, facilitando el desarrollo con modelos de IA generativa líderes como Stable Diffusion y Meta Llama.
En este contexto de avances tecnológicos, AMD reafirma su compromiso de liderar el mercado con soluciones que no solo responden a las demandas actuales, sino que también allanan el camino hacia un futuro dominado por la inteligencia artificial más avanzada.