Thomson Reuters (TR), reconocida globalmente como una de las fuentes de información más confiables, ha logrado avances significativos en su división de investigación, Thomson Reuters Labs (TR Labs), mediante la implementación de procesos de operaciones de aprendizaje automático (MLOps). Estos avances se han facilitado mediante un marco estandarizado que emplea soluciones de Amazon Web Services (AWS), tales como SageMaker, SageMaker Experiments, SageMaker Model Registry y SageMaker Pipelines.
Dedicada a la investigación aplicada y desarrollo de inteligencia artificial (IA) y otras tecnologías emergentes, TR Labs ha enfrentado desafíos considerables a medida que ha crecido. Comenzando modestamente, sus equipos ahora incluyen más de 150 científicos aplicados, especialistas en aprendizaje automático e ingenieros, quienes han tenido que gestionar un proceso de desarrollo y entrenamiento de modelos cada vez más complejo.
Inicialmente, las configuraciones personalizadas y el código repetitivo utilizado por los investigadores resultaban en poca estandarización y eficiencia. Consciente de esta necesidad de cambio, la dirección de TR Labs implementó un conjunto armonizado y estandarizado de herramientas MLOps, conocido como TR MLTools, destinado a simplificar y acelerar el desarrollo de modelos.
MLTools y MLTools CLI, un paquete de Python y una herramienta de línea de comandos, facilitan el flujo de trabajo de experimentos de aprendizaje automático en TR Labs. Estas herramientas proporcionan plantillas de código y configuración, promoviendo un entorno de trabajo consolidado y la reutilización efectiva del código. Esto ha permitido a los equipos crear nuevos experimentos, realizar pruebas y ejecutar scripts definidos por los usuarios a escala mediante trabajos en SageMaker.
Uno de los beneficios más destacables de este enfoque estandarizado ha sido la aceleración en el desarrollo de modelos, reduciendo significativamente el tiempo necesario desde la ideación hasta la producción. El nuevo marco también ha mejorado la colaboración entre investigadores e ingenieros de aprendizaje automático, asegurando un flujo continuo y sin fricciones desde la etapa de experimentación hasta la implementación y mantenimiento en producción.
Además de mejorar los tiempos de desarrollo, la estandarización ha permitido identificar y corregir errores y drifts en el rendimiento de los modelos de manera más eficiente, resultando en ahorros de costos significativos. La implementación de un proceso uniforme ha evitado la repetición de tareas manuales y configuraciones individualizadas, reduciendo notablemente el tiempo dedicado a labores redundantes y complejas.
Para medir el éxito de este enfoque innovador, TR Labs realiza evaluaciones periódicas con los usuarios de las herramientas, revelando mejoras en la productividad percibida de hasta un 40% en varias áreas del ciclo de vida de la IA/ML. Esto ha incrementado la retención de talento y la satisfacción general del usuario.
En resumen, la adopción de un marco estandarizado de MLOps ha permitido a TR Labs optimizar notablemente su proceso de desarrollo de modelos de IA, disminuyendo el tiempo de comercialización y acelerando el valor comercial derivado del desarrollo tecnológico. Aquellos interesados en conocer más sobre cómo AWS puede asistir en sus trayectorias de IA/ML y MLOps pueden visitar la página de Amazon SageMaker.