NVIDIA Revoluciona el Razonamiento: Nemotron Super 49B y Nano 8B Ahora en Amazon Bedrock y SageMaker JumpStart

NVIDIA ha anunciado el lanzamiento de sus últimos modelos de razonamiento, Llama 3.3 Nemotron Super 49B V1 y Llama 3.1 Nemotron Nano 8B V1, disponibles a través de Amazon Bedrock Marketplace y Amazon SageMaker JumpStart. Estos modelos representan un avance significativo para las organizaciones que buscan implementar inteligencia artificial generativa de manera eficiente y responsable en la plataforma AWS.

La tecnología subyacente, respaldada por los micronservicios de inferencia NVIDIA NIM, permite un despliegue simplificado de modelos de IA generativa mediante servicios gestionados de AWS. Con solo un comando o unas pocas líneas de código, los desarrolladores pueden integrar aplicaciones de IA, acelerando significativamente su implementación.

El modelo Llama 3.3 Nemotron Super 49B V1 destaca por su enfoque de Búsqueda de Arquitectura Neuronal (NAS), que mejora la eficiencia al reducir la huella de memoria. Ofrece soporte para contextos de hasta 128,000 tokens, lo que facilita tareas complejas como la generación aumentada de datos y la integración de herramientas. En paralelo, el modelo Llama 3.1 Nemotron Nano 8B V1 ofrece capacidades similares en un formato más compacto, idóneo para uso local.

Amazon Bedrock Marketplace proporciona un entorno seguro y unificado para acceder a estos modelos de IA, lo que facilita a las organizaciones encontrar soluciones adaptadas a sus necesidades. La versatilidad de las aplicaciones abarca desde la redacción de contenidos hasta la clasificación de información, permitiendo una adaptación a diversas áreas de negocio.

Para empezar a utilizar los nuevos modelos, los usuarios pueden suscribirse a ellos en Amazon Bedrock y seguir unos pasos simples para su despliegue, permitiendo realizar inferencias directamente desde la consola de Bedrock o a través del SDK de SageMaker.

La introducción de los modelos Llama 3.3 y Llama 3.1 marca un hito en la implementación de soluciones avanzadas de AI. Con el respaldo de la infraestructura escalable de AWS, las empresas ahora pueden desplegar estos modelos rápida y fácilmente, transformando sus aplicaciones de inteligencia artificial y posicionándose a la vanguardia del sector tecnológico.

Mariana G.
Mariana G.
Mariana G. es una periodista europea y editora de noticias de actualidad en Madrid, España, y el mundo. Con más de 15 años de experiencia en el campo, se especializa en cubrir eventos de relevancia local e internacional, ofreciendo análisis profundos y reportajes detallados. Su trabajo diario incluye la supervisión de la redacción, la selección de temas de interés, y la edición de artículos para asegurar la máxima calidad informativa. Mariana es conocida por su enfoque riguroso y su capacidad para comunicar noticias complejas de manera clara y accesible para una audiencia diversa.

Más artículos como este
Relacionados

QNAP Revoluciona con su Nuevo Servidor de Almacenamiento Integrado con Edge AI

En un contexto donde la inteligencia artificial (IA) se...

Hidalgo Refuerza el Compromiso del Ayuntamiento de Madrid con el Liderazgo Femenino

La delegada de Economía, Innovación y Hacienda, Engracia Hidalgo,...

Únete a la II Carrera Solidaria Madrid en Apoyo a la ELA: Corre por una Causa

Madrid se prepara para albergar la segunda edición de...
Resumen de privacidad

Esta web utiliza cookies para que podamos ofrecerte la mejor experiencia de usuario posible. La información de las cookies se almacena en tu navegador y realiza funciones tales como reconocerte cuando vuelves a nuestra web o ayudar a nuestro equipo a comprender qué secciones de la web encuentras más interesantes y útiles.