El imparable avance de la inteligencia artificial (IA) y la evolución de las memorias HBM (High Bandwidth Memory) están llevando al límite el consumo energético de las GPU aceleradoras, según un informe del Instituto Avanzado de Ciencia y Tecnología de Corea y el laboratorio TERA. Este estudio plantea una escalada sin precedentes en las necesidades de energía de los sistemas de computación de alto rendimiento.
Actualmente, la tecnología HBM3E ha impulsado a las aceleradoras como la NVIDIA B300 y la AMD MI350 a capacidades de hasta 288 GB de memoria de alto ancho de banda. Sin embargo, la próxima generación HBM4 promete elevar dichas capacidades a 384 GB para la serie Rubin de NVIDIA y a 432 GB en la serie MI400 de AMD, con lanzamientos previstos para el próximo año.
La revolución se acentúa con HBM5, HBM6 y HBM7, cuyas proyecciones indican capacidades astronómicas. HBM5 podría alcanzar 500 GB, HBM6 entre 1,5 y 1,9 TB, mientras que HBM7 llegaría a los 6 TB por aceleradora. Esto representa un salto cualitativo para aplicaciones de IA generativa, big data y simulación científica.
El informe detalla que las futuras generaciones de GPU, como la NVIDIA Rubin que llegará en 2026, consumirán 800 W por chip, y la tarjeta completa, con HBM4 y doble chip, alcanzará los 2.200 W. Las actuales AMD MI350 ya se acercan a los 1.400 W utilizando sistemas de refrigeración líquida.
A mediano plazo, la GPU NVIDIA Feynman, prevista para 2029, escalará hasta los 900 W por núcleo y 4.400 W para la tarjeta completa, gracias a cuatro chips y HBM5 con un ancho de banda de 48 TB/s. Para la década de 2030, una aceleradora con HBM6 podría alcanzar los 6.000 W, y para 2035, una tarjeta con ocho chips y HBM7 sobrepasaría los 15.000 W.
Este crecimiento exponencial plantea un desafío considerable para los centros de datos, que podrían requerir infraestructuras energéticas propias, como centrales nucleares o renovables, para cubrir estas demandas. El consumo de una sola tarjeta de 15.000 W equivale al de una vivienda media española durante varios días.
Especialistas advierten que, sin moderación en esta tendencia mediante innovaciones en eficiencia y arquitectura, el modelo de crecimiento podría ser insostenible tanto a nivel ambiental como económico. «Si la evolución tecnológica sigue este camino, cada centro de datos necesitará su propia central eléctrica», concluye el informe, subrayando la necesidad de balancear la potencia que la IA requiere con la eficiencia energética y la sostenibilidad, esenciales para el futuro digital.
Más información y referencias en Noticias Cloud.