Empresas pioneras en inteligencia artificial han comenzado a explotar la nueva infraestructura tecnológica facilitada por CoreWeave, que ha implementado a gran escala los sistemas NVIDIA GB200 NVL72 en la nube. Esta avanzada tecnología de procesamiento, que permite el acceso a miles de GPUs Grace Blackwell, está siendo utilizada por gigantes como Cohere, IBM y Mistral AI para llevar a cabo entrenamientos de agentes de IA con un rendimiento asombroso.
Los sistemas NVL72 están diseñados específicamente para trabajar con cargas de alta demanda de agentes de IA y razonamiento. Su particularidad reside en una arquitectura innovadora que integra 72 GPUs interconectadas mediante NVLink y 36 CPUs Grace. Esta configuración permite un procesamiento de datos masivo con baja latencia y eficiencia energética, además de ofrecer una escalabilidad sin precedentes.
Cohere, una empresa especializada en soluciones de IA para el ámbito empresarial, está utilizando estos sistemas para potenciar su plataforma North. La compañía ya experimenta un rendimiento triple en comparación con las GPU Hopper anteriores, según Autumn Moulder, vicepresidenta de ingeniería de Cohere. Destacó la memoria unificada y la precisión FP4 como factores clave para lograr inferencias más eficientes y económicas.
Por su parte, IBM está aprovechando esta tecnología para impulsar su familia de modelos Granite, que serán accesibles como open source con un enfoque en aplicaciones empresariales seguras, rápidas y rentables. Estos modelos formarán parte del sistema IBM watsonx Orchestrate, que busca automatizar flujos de trabajo mediante agentes de IA. Sriram Raghavan, vicepresidente de IA de IBM Research, destacó la colaboración con CoreWeave como un impulso para construir modelos de alto rendimiento y bajo costo.
Asimismo, Mistral AI, una startup francesa destacada por sus modelos open source, reporta mejoras significativas en el rendimiento de sus desarrollos. De acuerdo con Thimothee Lacroix, cofundador y CTO de Mistral, los nuevos sistemas han duplicado el rendimiento del entrenamiento de modelos densos, ofreciendo un abanico de nuevas posibilidades para el escalado y la inferencia en tiempo real.
CoreWeave se consolida como un actor clave al también ofrecer estas instancias a otros usuarios mediante su infraestructura en la nube. Con conexiones NVLink a escala de rack y redes NVIDIA Quantum-2 InfiniBand, la plataforma puede escalar hasta 110,000 GPUs, posicionándose como una de las más poderosas del mundo para el desarrollo de inteligencia artificial.
La implementación de los sistemas NVL72 no solo marca un avance significativo en el cómputo acelerado, sino que también establece un nuevo estándar en la carrera por habilitar una infraestructura robusta para la próxima generación de inteligencia artificial. Con esta colaboración, CoreWeave y NVIDIA se consolidan como líderes en el sector, allanando el camino para que las empresas desarrollen e implementen modelos de IA más complejos y potentes con una eficiencia nunca antes vista.
Más información y referencias en Noticias Cloud.