La compañía NVIDIA está llevando a cabo una revolución en el diseño de centros de datos, centrada en infraestructuras de alto rendimiento, para adaptarse al creciente auge de modelos generativos avanzados. En una era donde la inferencia ya no es un proceso liviano, la necesidad de centralizar y optimizar la tecnología se ha vuelto crucial.
Kevin Deierling, vicepresidente sénior de redes en NVIDIA, señaló que la inferencia moderna requiere un enfoque iterativo y complejo, alejado de los procesos previamente simples. Modelos avanzados como DeepSeek R1, con sus 671 mil millones de parámetros, ilustran esta evolución, necesitando múltiples GPUs para el procesamiento técnico.
Una tendencia clave observada por NVIDIA es la reutilización de clústeres de entrenamiento para la tarea de inferencia, un enfoque motivado por la complejidad de los modelos de inteligencia artificial de alto valor económico y las exigencias en redes densas.
Para gestionar estas demandas, NVIDIA ha innovado con la tecnología de óptica co-empaquetada (CPO), que implica la integración de fotónica directamente en el silicio de los switches. Esta tecnología promete reducir el consumo energético en un 50%, simplificar la infraestructura óptica y aumentar la fiabilidad operativa.
Adicionalmente, NVIDIA está impulsando el uso de redes ópticas interconectadas entre centros de datos para facilitar inferencias distribuidas, cruciales en interacciones agénticas donde la latencia ultra baja es vital.
Este enfoque holístico redefine no solo el hardware sino también toda la arquitectura necesaria para las demandas del futuro en inteligencia artificial. NVIDIA busca gestionar de forma integral el cómputo, las redes y la energía, fundando un nuevo estándar en la industria de centros de datos.
Más información y referencias en Noticias Cloud.