En un anuncio reciente desde Armonk, Nueva York, IBM ha desvelado la última actualización de su línea de modelos de inteligencia artificial empresarial: Granite 3.2. Este lanzamiento refuerza el compromiso de la compañía con el desarrollo de herramientas más accesibles y eficientes para el entorno corporativo, eliminando la necesidad de elevados costos computacionales asociados a modelos de gran tamaño.
Granite 3.2 es la culminación de años de enfoque en la optimización de inteligencia artificial para empresas. Estos modelos, ahora más compactos y escalables bajo la licencia Apache 2.0, están accesibles en plataformas como Hugging Face y serán integrados próximamente en servicios como IBM watsonx.ai, Ollama, Replicate y RHEL AI 1.5.
La actualización destaca por sus innovaciones significativas en el procesamiento de documentos empresariales a través de IA multimodal. Granite 3.2 incorpora un modelo de lenguaje visual, capaz de mejorar tareas como OCR, análisis de gráficos y extracción de información, logrando un rendimiento a la par, o incluso superior, a modelos de mayor envergadura como Llama 3.2 11B y Pixtral 12B. IBM ha potenciado este modelo mediante su herramienta Docling, procesando más de 85 millones de archivos PDF y generando 26 millones de pares de preguntas y respuestas sintéticas para mejorar la precisión en entornos con alto volumen documental.
Otro aspecto novedoso del Granite 3.2 es su capacidad de razonamiento mejorada con la función «Chain of Thought», que se puede ajustar dependiendo de las necesidades, optimizando así el uso de recursos. Esta funcionalidad se traduce en una mayor precisión, aumentando el puntaje en evaluaciones como ArenaHard y Alpaca Eval, y permite que el modelo de 8B iguale el rendimiento de grandes modelos en pruebas de razonamiento matemático.
En términos de seguridad y eficiencia, la compañía ha logrado reducir el tamaño de los modelos Granite Guardian en un 30%, conservando su efectividad en la detección de riesgos. Además, se incluye una nueva función de «verbalized confidence», que mejora la precisión en la interpretación de amenazas.
La estrategia de IBM de desarrollar modelos de IA más pequeños y racionalizados ha recibido reconocimiento en el sector. El modelo Granite 3.1 8B, por ejemplo, ha obtenido altas calificaciones en pruebas como Salesforce LLM Benchmark for CRM, subrayando su eficacia en aplicaciones empresariales.
David Tan, CTO de CrushBank, comentó el impacto positivo de los modelos Granite en la empresa, señalando que permiten un equilibrio óptimo entre rendimiento y escalabilidad, lo cual amplía las posibilidades para la automatización inteligente.
IBM también ha presentado una nueva serie de modelos para el análisis de series temporales, conocidos como TinyTimeMixers (TTM). Con menos de 10 millones de parámetros, estos modelos son capaces de prever tendencias hasta por dos años, siendo especialmente útiles en planificación financiera, logística y comercio minorista.
Sriram Raghavan, vicepresidente de IBM AI Research, expresó: «La IA del futuro debe ser eficiente y adaptable, permitiendo a las empresas obtener el máximo valor sin costos excesivos. Granite 3.2 representa un avance significativo en esa dirección».
Con estos avances, IBM reafirma su compromiso con la creación de una inteligencia artificial que sea no solo más eficiente y accesible, sino también perfectamente alineada con las demandas del sector empresarial.