Thomson Reuters Amplía su Investigación en Modelos Lingüísticos con la Innovadora Colaboración de Amazon SageMaker HyperPod

Thomson Reuters, una empresa global impulsada por tecnología y contenido, ha estado utilizando inteligencia artificial y aprendizaje automático en sus productos de información profesional durante décadas. La introducción de la IA generativa ofrece otra oportunidad para que Thomson Reuters colabore con sus clientes y avance en la manera en que realizan su trabajo, ayudando a los profesionales a extraer conocimientos y automatizar flujos de trabajo, permitiéndoles enfocarse en lo que realmente importa.

En los últimos años, Thomson Reuters ha recorrido un camino significativo en la investigación y desarrollo de grandes modelos de lenguaje (LLMs, por sus siglas en inglés) adaptados a dominios específicos, utilizando la infraestructura especializada de Amazon SageMaker HyperPod, una característica de Amazon Web Services (AWS) centrada en proporcionar infraestructura para el entrenamiento distribuido a gran escala.

A finales de 2022, la empresa lanzó innovadores LLMs que lograron mejoras drásticas respecto a las capacidades de los modelos anteriores. Esta tecnología ha abierto nuevas puertas para mejorar la personalización de contenido, recomendaciones y respuestas a clientes en interfaces naturales de tipo chat. La competencia en el mercado por incorporar esta tecnología se intensificó, y Thomson Reuters no fue la excepción, reconociendo la necesidad de ayudar a sus clientes a prosperar en un entorno donde la IA es cada vez más predominante.

Como cualquier tecnología emergente, la correcta aplicación y comprensión de las limitaciones son esenciales. Entre los factores a considerar se encuentran las alucinaciones, la calidad, la velocidad, el costo y la capacidad de los LLMs. Los clientes de Thomson Reuters, siendo profesionales en áreas como el ámbito legal, corporativo, fiscal, de riesgo, fraude, cumplimiento y noticias, requieren IA de grado profesional con altos estándares de precisión y fiabilidad. Por ejemplo, los clientes legales necesitan investigaciones basadas en hechos precisos, ya que cualquier error puede tener consecuencias significativas.

Frente a las limitaciones de los modelos de lenguaje disponibles públicamente, Thomson Reuters se planteó varias preguntas críticas: ¿Es posible usar datos creados, curados o mejorados editorialmente por la empresa para mejorar los LLMs en tareas específicas? ¿Pueden los LLMs más pequeños, entrenados con sus propios datos, rendir igual de bien que los modelos más grandes? ¿Qué métodos se pueden emplear para entrenar modelos específicos de dominio para obtener los mejores resultados?

Las potenciales ventajas se encuentran en tres áreas clave: calidad, agencia y eficiencia operativa. Con control completo sobre el entrenamiento del modelo, Thomson Reuters puede afinar la generación del LLM a su dominio específico, permitiendo una integración más estrecha de la Recuperación Aumentada por Generación (RAG). La propiedad de los modelos también permite la actualización y entrenamiento según sea necesario, y los modelos más pequeños, si son eficientes, representan una solución más rentable y escalable.

Para estimar la potencia de cómputo necesaria, se utilizó la ley de escalamiento Chinchilla para determinar la cantidad de datos de entrenamiento requeridos para mantener la calidad del modelo. Se consideraron factores como la resiliencia del clúster, la gestión del clúster y la experiencia del desarrollador, elementos críticos en el entrenamiento de LLMs con potencialmente cientos de GPUs trabajando en paralelo. Thomson Reuters optó por Amazon SageMaker HyperPod para provisionar un clúster altamente escalable y resistente a fallos de hardware.

Durante cinco meses, la empresa ejecutó con éxito 20 trabajos de entrenamiento utilizando Amazon SageMaker HyperPod, escalando su clúster hasta 16 instancias P4d. Entrenaron un modelo de 70 mil millones de parámetros con 400 mil millones de tokens de entrada, completando el entrenamiento en 36 días sin incidentes de hardware.

En conclusión, Thomson Reuters logró cumplir sus objetivos de entrenamiento de LLMs utilizando Amazon SageMaker HyperPod, desbloqueando beneficios significativos en áreas como la resumen y clasificación legal. Para negocios que operan en dominios especializados, entrenar modelos propios puede ser ventajoso, considerando los costos asociados y el rápido avance de la tecnología LLM.

Silvia Pastor
Silvia Pastor
Silvia Pastor es una destacada periodista de Noticias.Madrid, especializada en periodismo de investigación. Su labor diaria incluye la cobertura de eventos importantes en la capital, la redacción de artículos de actualidad y la producción de segmentos audiovisuales. Silvia realiza entrevistas a figuras clave, proporciona análisis expertos y mantiene una presencia activa en redes sociales, compartiendo sus artículos y ofreciendo actualizaciones en tiempo real. Su enfoque profesional, centrado en la veracidad, objetividad y ética periodística, la convierte en una fuente confiable de información para su audiencia.

Más popular

Más artículos como este
Relacionados

SolarWinds Inaugura Avanzadas Soluciones para Mejorar la Resiliencia en Entornos Híbridos Demandantes

SolarWinds ha dado un paso significativo en el mundo...

Trump Anuncia que Musk Dejará el Gobierno en los Próximos Meses

El presidente de Estados Unidos, Donald Trump, anunció que...

La Fruta Perfecta para un Sueño Reparador y Combatir la Retención de Líquidos

Una reciente publicación destaca una fruta en particular que...

Ex Senador de Esquerra Republicana Impulsa el Críquet Profesional en Madrid: Un Nuevo Horizonte Deportivo

Robert Masih, reconocido como el principal promotor de un...
Resumen de privacidad

Esta web utiliza cookies para que podamos ofrecerte la mejor experiencia de usuario posible. La información de las cookies se almacena en tu navegador y realiza funciones tales como reconocerte cuando vuelves a nuestra web o ayudar a nuestro equipo a comprender qué secciones de la web encuentras más interesantes y útiles.