En la reciente cumbre Generativa AI Summit 2025, celebrada en Washington D.C., la seguridad y el rendimiento en el uso de la inteligencia artificial (IA) en las organizaciones se colocaron bajo el microscopio. Nick Nolan, gerente de ingeniería de soluciones en Fiddler, abordó en su ponencia los desafíos y oportunidades que presenta la adopción de modelos de lenguaje grande (LLMs) en el ámbito empresarial.
El evento puso de relieve una estadística alarmante: el 72% de las grandes empresas ya han integrado algún tipo de IA en sus operaciones. Más aún, el ámbito de la inteligencia artificial generativa está en plena expansión, con un 65% de las empresas empleándola o al menos planeando hacerlo. Las proyecciones son prometedoras, sugiriendo que la IA podría inyectar unos 15.7 billones de dólares a la economía global para 2030. Aun así, estas cifras son estimaciones en un entorno que evoluciona constantemente.
El creciente entusiasmo por la IA se acompaña de riesgos significativos. La implantación de estas tecnologías con medidas de seguridad inadecuadas puede acarrear costes elevados, no solo en términos financieros, sino también de reputación y cumplimiento regulatorio. Nolan enfatizó la necesidad de establecer «guardrails» o límites para asegurar que la IA opere de forma segura y eficiente.
Su presentación fue una invitación a la acción para que las empresas aborden la adopción de la inteligencia artificial desde una perspectiva crítica. Destacó la necesidad de aprender de implementaciones anteriores y establecer prácticas sólidas que garanticen tanto el rendimiento como la seguridad. En este contexto digital, la información y la preparación se posicionan como elementos clave para enfrentar los desafíos que la IA introduce en el ámbito empresarial.