Un nuevo avance en la optimización de modelos de inteligencia artificial ha sido presentado con la técnica de Low Rank Adaptation (LoRA). Esta innovación permite mejorar el modelo Phi Silica de Microsoft Windows, adecuándolo de forma más precisa a las necesidades de los usuarios y potenciando su rendimiento en casos específicos.
El proceso implica entrenar un adaptador LoRA para luego aplicarlo durante la fase de inferencia, lo que incrementa notablemente la precisión del modelo. Sin embargo, ciertos requisitos son indispensables para los usuarios: definir claramente el caso de uso, establecer criterios de evaluación y haber experimentado con las APIs de Phi Silica sin alcanzar los resultados esperados.
Para entrenar un adaptador LoRA, se debe generar un conjunto de datos adecuado. Esto implica dividir la información en dos archivos JSON, donde cada línea represente un diálogo entre un usuario y un asistente. La calidad y diversidad de estos datos son cruciales, recomendándose al menos unos pocos miles de ejemplos para el entrenamiento.
El AI Toolkit de Visual Studio Code simplifica este proceso. Los usuarios deben descargar la extensión, seleccionar el modelo Phi Silica y crear el proyecto adecuado para el ajuste fino, un proceso que puede durar entre 45 y 60 minutos y culmina con la descarga del adaptador LoRA mejorado.
Después del entrenamiento, la fase de inferencia permite aplicar el conocimiento adquirido. La aplicación AI Dev Gallery facilita la experimentación con los modelos locales para evaluar el impacto del adaptador LoRA en las respuestas generadas.
Es crucial considerar los riesgos y limitaciones del ajuste fino. La calidad de los datos, la robustez del modelo y la transparencia en los resultados son factores esenciales. Aunque LoRA puede optimizar eficazmente el modelo, siempre es necesario verificar que los resultados sean precisos y veraces.
Además, las capacidades de Phi Silica no están disponibles en China, restringiendo su uso en esa región, según información del blog de Microsoft Windows.