Qualcomm ha dado un paso audaz en la competencia por la inferencia de inteligencia artificial (IA) en centros de datos al presentar sus novedades más recientes: las soluciones de aceleración AI200 y AI250. Estas ofertas, disponibles en formato de tarjetas y racks completos, se destacan por su rendimiento a escala de rack, capacidad de memoria excepcional y un coste total de propiedad (TCO) inigualable, lo que promete eficiencia en términos de euro-vatio sin comprometer la seguridad o la flexibilidad.
En palabras de Durga Malladi, Vicepresidente Senior de Qualcomm Technologies, «AI200 y AI250 redefinen lo posible en inferencia de IA a escala de rack. Estas soluciones permiten desplegar IA generativa con un TCO sin precedentes, manteniendo la flexibilidad y la seguridad necesarias para los centros de datos modernos».
Las nuevas herramientas llegan con una disponibilidad escalonada: AI200 está previsto para 2026 y AI250 para 2027. Ambas forman parte de una hoja de ruta multigeneracional que se centra en el rendimiento de la inferencia, eficiencia energética y TCO.
Dos enfoques hacia la inferencia generativa a gran escala
AI200 es una solución diseñada para la inferencia de IA «a nivel de rack» con enfoque en un bajo TCO y alto rendimiento por vatio. Se destaca por ofrecer hasta 768 GB de memoria LPDDR por tarjeta, lo que triplica o cuadruplica la capacidad de muchos aceleradores actuales, facilitando así la gestión de contextos largos sin sacrificar rendimiento.
Por otro lado, AI250 introduce una arquitectura basada en «near-memory computing», prometiendo un salto generacional en eficiencia y rendimiento. Qualcomm asegura que esto permitirá más de 10 veces el ancho de banda efectivo, reduciendo el consumo al acercar el cómputo a la memoria.
Racks completos y software optimizado
Ambas soluciones también estarán disponibles en formato de racks completos, ofreciendo refrigeración líquida directa para mejorar la eficiencia térmica, y una arquitectura que permite escalar tanto verticalmente (PCIe) como horizontalmente (Ethernet).
La innovación no solo se limita al hardware. Qualcomm acompaña estas soluciones con una pila de software optimizada para la inferencia que admite frameworks líderes de machine learning, lo que facilitará la integración y el despliegue de modelos ya existentes, minimizando fricciones.
Perspectivas del sector
Estas propuestas de Qualcomm abordan problemas críticos como la capacidad de memoria insuficiente y la alimentación de datos lenta, que actualmente limitan la inferencia generativa. Además, se centran en reducir el coste por token, una métrica esencial en la producción. Con una expectativa de disponibilidad para 2026 y 2027, Qualcomm está bien posicionada para satisfacer la demanda futura de plataformas optimizadas para IA generativa a gran escala.
Retos y perspectivas futuras
A pesar del prometedor avance, la industria espera benchmarks comparables y evaluaciones en condiciones reales para validar el rendimiento prometido. Asimismo, los aspectos de eficiencia energética y mantenimiento de seguridad serán críticos para justificar el TCO y garantizar adopciones exitosas.
Estas soluciones están diseñadas para beneficiar a hiperescaladores, grandes nubes y empresas reguladas, ofreciendo una respuesta robusta y económicamente atractiva a las necesidades crecientes de inferencia de IA en centros de datos.
Más información y referencias en Noticias Cloud.


