Los modelos Llama 3.2 de Meta ahora están disponibles en Amazon SageMaker JumpStart, ofreciendo una innovadora tecnología de visión multimodal y modelos ligeros que representan lo último en avances en modelos de lenguaje grande (LLM). Esta nueva incorporación permite a desarrolladores y empresas implementar capacidades de inteligencia artificial (IA) de última generación con mayor facilidad y eficiencia.
Llama 3.2 se distingue por su rendimiento superior en numerosos benchmarks industriales, gracias a su diseño centrado en la innovación responsable y la seguridad a nivel de sistema. Estos modelos están diseñados para soportar tareas sofisticadas de razonamiento multimodal, integrando representaciones de imágenes de alta resolución en el modelo de lenguaje, lo que abre nuevas posibilidades en el campo de la IA generativa.
Inicialmente disponibles en la región US East (Ohio) de AWS, los modelos Llama 3.2 vienen en varios tamaños desde 1B hasta 90B parámetros. Esta flexibilidad permite una amplia aplicabilidad, desde dispositivos periféricos hasta complejas cargas de trabajo corporativas. Además, el modelo Llama Guard 3 11B Vision destaca por su enfoque en la innovación segura y responsable, haciendo hincapié en la importancia de la seguridad en los sistemas de IA.
SageMaker JumpStart proporciona el entorno ideal para explorar y desplegar estos modelos. Este centro de aprendizaje automático (ML) facilita el acceso a una vasta gama de algoritmos, modelos y soluciones de ML, permitiendo a los usuarios comenzar rápidamente con sus proyectos de ML. Dentro de SageMaker JumpStart, los usuarios pueden encontrar y desplegar fácilmente el modelo Llama 3.2 11B Vision, además de tener la opción de ajustar y personalizar modelos con flexibilidad.
Los modelos Llama 3.2 pueden ser desplegados en instancias dedicadas de inferencia de SageMaker, como aquellas impulsadas por AWS Trainium y AWS Inferentia, garantizando una operación segura y conforme a las normas de privacidad dentro de una nube privada virtual. Este entorno asegura que los datos están protegidos y que las operaciones de inferencia se realizan bajo estrictos controles de seguridad.
Para los interesados en probar los modelos Llama 3.2, SageMaker JumpStart ofrece dos principales interfaces: SageMaker Studio y el SDK de Python de SageMaker. SageMaker Studio, un integrado entorno de desarrollo (IDE), proporciona una interfaz unificada para abordar todas las fases del ciclo de vida del desarrollo de ML. Alternativamente, el SDK de Python permite un acceso programático y una integración más estrecha con los flujos de trabajo y pipelines existentes de IA/ML.
Al despliegue de un modelo en SageMaker JumpStart, los usuarios pueden ver detalles importantes como la licencia y los datos de entrenamiento del modelo. Además, para cada modelo, hay opciones de despliegue directo o a través de cuadernos interactivos que guían a los usuarios paso a paso en todo el proceso, desde la aceptación del Acuerdo de Licencia de Usuario Final (EULA) hasta la ejecución de inferencias.
Los modelos Llama 3.2 han sido rigurosamente evaluados en más de 150 conjuntos de datos de referencia, demostrando un rendimiento competitivo con otros modelos de lenguaje líderes del mercado. Esta amplia validación asegura que los usuarios obtienen una tecnología robusta y eficiente para impulsar sus innovaciones en IA.
Con SageMaker JumpStart, los científicos de datos e ingenieros de ML tienen a su disposición una potente herramienta para acceder y desplegar modelos preentrenados de manera sencilla y segura. Comenzando hoy con los modelos Llama 3.2, los desarrolladores pueden aprovechar al máximo estas avanzadas capacidades de IA, llevando sus proyectos al siguiente nivel.
Para obtener más información sobre SageMaker JumpStart y cómo empezar, se recomienda consultar la documentación y guías disponibles en el blog de aprendizaje automático de AWS.