En un movimiento que promete redefinir el acceso a tecnologías de inteligencia artificial avanzada, AMD y OpenAI han unido fuerzas para democratizar la ejecución de modelos de lenguaje masivos en dispositivos de consumo. La reciente introducción del procesador Ryzen AI Max+ 395 y su capacidad para ejecutar el modelo GPT-OSS 120B directamente en portátiles marca un hito en la computación de IA local.
OpenAI, conocida por su papel pionero en inteligencia artificial, ha lanzado al mercado sus modelos de código abierto GPT-OSS 20B y GPT-OSS 120B, los cuales representan una evolución en la tecnología de razonamiento complejo sin necesidad de infraestructura en la nube. AMD, en respuesta, ofrece soporte para estos modelos en su nuevo hardware, cimentando así su liderazgo en el ámbito del procesamiento local de IA.
El modelo GPT-OSS 120B es un gigante con 116.800 millones de parámetros, diseñado para ser ejecutado en dispositivos personales, una tarea que hasta ahora solo era posible en centros de datos de gran capacidad. Los procesadores Ryzen AI Max+ 395, integrados en dispositivos portátiles como el ASUS ROG Flow Z13, brindan la potencia necesaria con 128 GB de memoria total, lo que incluye 96 GB de memoria gráfica dedicada.
Las pruebas realizadas en agosto de 2025 por AMD demostraron que su nuevo procesador puede alcanzar velocidades de hasta 30 tokens por segundo, haciendo viable su uso para desarrolladores y usuarios avanzados que buscan una solución potente sin depender de servidores remotos. Esta tecnología es complementada por el soporte para el Model Context Protocol (MCP), que permite mantener contextos conversacionales extendidos y ejecutar cargas de trabajo complejas.
Para quienes opten por una solución de escritorio, la tarjeta gráfica AMD Radeon RX 9070 XT ofrece una correspondencia ideal con el modelo GPT-OSS 20B, reduciendo el tiempo de respuesta y mejorando la experiencia usuaria en aplicaciones interactivas.
El proceso para incorporar estas tecnologías es facilitado por LM Studio, que proporciona una guía clara para la configuración y ejecución de los modelos GPT-OSS. Esto incluye la instalación de controladores específicos y ajustes de memoria gráfica, asegurando así que los usuarios pueden comenzar rápidamente.
La capacidad de ejecutar localmente modelos de lenguaje a esta escala no solo reduce los costos y la dependencia de la nube, sino que también aumenta la privacidad y la seguridad de los datos. Este avance posiciona a AMD a la cabeza de la estrategia de IA que abarca desde la computación en el borde hasta soluciones de nube híbrida, retando a otros gigantes tecnológicos a seguir su ejemplo.
Más información y referencias en Noticias Cloud.