NVIDIA se encuentra a la vanguardia de la evolución de la inteligencia artificial con el lanzamiento de una nueva generación de memoria modular de bajo consumo. Según informó recientemente el medio surcoreano ETNews, la compañía planea producir entre 600,000 y 800,000 unidades de sus módulos SOCAMM (Smart On-Board Compression Attached Memory Modules) durante este año, con el objetivo de integrarlos en sus plataformas de IA más avanzadas.
Esta innovación, presentada en el GTC de NVIDIA, promete establecer un nuevo estándar en memoria LPDDR para centros de datos, diseñada por Micron y específicamente dirigida a dispositivos de inteligencia artificial que demandan eficiencia energética y alto rendimiento. A diferencia de las memorias tradicionales como HBM o LPDDR5X, que se soldan a la placa base, los módulos SOCAMM son intercambiables, lo que facilita futuras actualizaciones mediante un sencillo mecanismo de tres tornillos.
La plataforma GB300 Blackwell es una de las primeras en adoptar esta tecnología, demostrando la intención de NVIDIA de transformar su línea de producción hacia formatos más flexibles para IA.
Estos módulos ofrecen ventajas notables en comparación con RDIMM y LPDDR5X, como mayor eficiencia energética, formato compacto y un ancho de banda que oscila entre 150 y 250 GB/s, ampliamente superior a las opciones tradicionales. La modularidad de SOCAMM la convierte en la elección ideal para AI PCs y servidores de IA de bajo consumo, permitiendo ampliar la memoria sin necesidad de reemplazar el sistema completo.
Aunque la producción inicial de SOCAMM es inferior al volumen de memorias HBM este año, se proyecta una expansión significativa hacia 2026 con la llegada de SOCAMM 2. Micron lidera la fabricación de estos módulos, mientras que Samsung y SK Hynix se perfilan como futuros socios para aumentar la capacidad de producción.
SOCAMM responde a las exigencias actuales de la infraestructura de IA, donde cada vatio de consumo importa, y la capacidad de actualización y velocidad son cruciales. Su adopción es un claro indicativo de un cambio estructural en el diseño y escalabilidad de sistemas de computación para IA, promoviendo modularidad y sostenibilidad en el hardware para inteligencia artificial.
La tecnología está llamada no solo a consolidarse en los productos de NVIDIA, sino también a establecer un estándar para otras arquitecturas que busquen eficiencia energética, rendimiento extremo y escalabilidad en entornos exigentes como centros de datos y dispositivos edge de IA. Con SOCAMM 2 en el horizonte, y el interés creciente de los gigantes de la memoria, este formato modular de bajo consumo jugará un papel crucial en el futuro de la computación inteligente.
Más información y referencias en Noticias Cloud.