Windows Machine Learning (ML) ha introducido mejoras significativas que permiten a desarrolladores de C#, C++ y Python ejecutar modelos de inteligencia artificial en formato ONNX de manera local en computadoras con Windows. Esto se logra mediante el uso de ONNX Runtime, proporcionando gestión automática de proveedores de ejecución adaptados a diferentes tipos de hardware, incluidos CPUs, GPUs y NPUs. Esta tecnología permite utilizar modelos generados en plataformas como PyTorch, TensorFlow/Keras y scikit-learn de manera más eficiente.
Uno de los beneficios destacados de Windows ML es la capacidad de descargar automáticamente los últimos proveedores de ejecución específicos del hardware. Esto, junto con un runtime compartido, reduce la necesidad de incluir archivos voluminosos en las aplicaciones, optimizando el tamaño de las descargas e instalaciones y asegurando un amplio soporte para cualquier PC compatible con Windows 11.
Para aprovechar estas capacidades, es necesario contar con Windows 11 versión 24H2 o superior, compatible con arquitecturas x64 o ARM64. Esta flexibilidad en la configuración del hardware permite que la plataforma sea accesible en diversos escenarios, desde CPUs integrados hasta GPUs discretas.
Los proveedores de ejecución (EP), componentes críticos para optimizar las operaciones de machine learning según el hardware, son descargados automáticamente durante la instalación de aplicaciones. Esto elimina la necesidad de incluir versiones específicas para distintos tipos de hardware y simplifica el proceso de optimización.
La versión más reciente de Windows ML alcanza un rendimiento comparable con SDKs dedicados previos, logrando una optimización notable en GPUs y NPUs. Además, los desarrolladores pueden convertir modelos de otros formatos a ONNX, ampliando las posibilidades de integración y optimización.
Windows ML se establece como un componente crucial en el ecosistema de inteligencia artificial de Windows, ofreciendo APIs integradas para tareas comunes y acceso a la API de Windows ML para aplicaciones más avanzadas. Se anima a los usuarios a participar activamente mediante la retroalimentación y reporte de problemas a través de GitHub, promoviendo una colaboración continua en el desarrollo de esta herramienta.