Huawei ha decidido redoblar su apuesta en el competitivo mundo de la inteligencia artificial con el desarrollo del Ascend 920C, un nuevo procesador diseñado para desafiar las soluciones líderes de NVIDIA en el ámbito de la supercomputación masiva. Este avance forma parte de la estrategia de la empresa china para consolidarse como un jugador esencial en el sector tecnológico, específicamente en el entrenamiento de modelos de IA de gran escala.
El Ascend 920C, parte de la serie Ascend 920, se destaca por su impresionante capacidad de procesamiento, alcanzando más de 900 TeraFLOPS en precisión BF16. Esta potencia está especialmente pensada para facilitar el entrenamiento de modelos complejos. El procesador está construido con la tecnología de 6 nanómetros de SMIC y ofrece mejoras significativas respecto a su predecesor, el Ascend 910C, que ya marcaba un pico de 780 TeraFLOPS. Entre las características innovadoras del Ascend 920C se incluye el uso de módulos de memoria HBM3, que proporcionan un ancho de banda de 4.000 GB/s, una clara mejora respecto a los 3.200 GB/s que permitía la generación anterior.
Dentro de sus innovaciones, el Ascend 920C mantiene un diseño centrado en la escalabilidad y el rendimiento, incorporando mejoras en sus motores de aceleración aptos para modelos Transformer y Mixture-of-Experts. Huawei estima que la eficiencia del entrenamiento podría mejorar entre un 30% y un 40% en comparación con su predecesor y que la distancia en cuanto al rendimiento por vatio respecto a NVIDIA también se reducirá. Se espera que el nuevo procesador ofrezca compatibilidad con PCIe 5.0 y otros protocolos de interconexión de vanguardia que prometen disminuir la latencia y mejorar la sincronización en grandes despliegues de IA. Aunque aún no se ha anunciado una fecha precisa de lanzamiento, las expectativas apuntan a una producción masiva en la segunda mitad de 2025.
Este anuncio coincide con los recientes resultados revelados por Huawei sobre su sistema CloudMatrix 384, un supernodo de entrenamiento que ya ha superado al sistema NVIDIA GB200 NVL72 en términos de rendimiento total. Aunque cada chip individual ofrece menos capacidad de procesamiento que los de NVIDIA, Huawei ha logrado compensar este desfase con una impresionante escalabilidad, alcanzando 1,7 veces el rendimiento global y triplicando la capacidad de memoria HBM.
Sin embargo, el elevado rendimiento del sistema CloudMatrix 384 conlleva un alto coste energético, con un consumo aproximado de 560 kW frente a los 145 kW del sistema rival de NVIDIA. Esto sugiere que la estrategia de Huawei se centra más en maximizar el rendimiento a gran escala, aun cuando NVIDIA mantiene el liderazgo en eficiencia por chip.
La clave para Huawei parece residir en su arquitectura de interconexión all-to-all y su enfoque hacia la autonomía tecnológica, evitando la dependencia de proveedores externos. Si SMIC avanza hacia procesos de fabricación más modernos, como los de 5 o 3 nanómetros, Huawei podría reducir significativamente la brecha con los líderes del sector en términos de eficiencia energética y densidad de computación.
En un mundo donde el entrenamiento de modelos fundacionales como GPT o Gemini requiere cada vez más recursos, soluciones como el Ascend 920C y su implementación en sistemas como CloudMatrix podrían ser decisivas para competir en el mercado global de la inteligencia artificial a gran escala. Huawei demuestra así que no está dispuesto a quedar rezagado en la carrera tecnológica.
Más información y referencias en Noticias Cloud.