Durante la reciente conferencia Microsoft Build 2025, la compañía tecnológica presentó su visión para una interacción más segura entre herramientas y agentes de inteligencia artificial en Windows 11. La clave de este avance es la integración del Protocolo de Contexto de Modelo (MCP), que busca mejorar la comunicación estandarizada y segura entre aplicaciones y agentes AI.
El MCP se define como un protocolo ligero y abierto, diseñado para permitir a las aplicaciones y agentes descubrir y utilizar herramientas de forma estandarizada. Esto no solo facilita la colaboración entre servicios locales y remotos, sino que también permite a los desarrolladores crear soluciones únicas que operan en múltiples plataformas. El ecosistema del MCP contempla tres roles fundamentales: los anfitriones de MCP, tales como Visual Studio Code; los clientes de MCP, que generan solicitudes; y los servidores de MCP, responsables de exponer funcionalidades específicas.
Con la inclusión del MCP, Windows 11 permitirá a los desarrolladores integrar capacidades de inteligencia generativa en sus aplicaciones, optimizando así las herramientas para realizar tareas en nombre de los usuarios. Sin embargo, esta apertura tecnológica también presenta potenciales riesgos de seguridad. Problemas como configuraciones incorrectas o vulnerabilidades en los servidores MCP podrían facilitar accesos no autorizados o ataques que comprometan la integridad de los datos.
Para enfrentar estas amenazas, Microsoft ha delineado varios controles de seguridad en Windows 11. Destacan la implementación de un proxy confiable para centralizar la autenticación y la autorización de herramientas, que requiere la aprobación explícita del usuario para cada interacción. Además, los servidores MCP deberán adherirse a estrictos requisitos de seguridad, como la firma de código y pruebas exhaustivas de sus interfaces, para ser registrados oficialmente en el sistema.
Esta iniciativa subraya la importancia que Microsoft otorga a la confianza y la seguridad en el ámbito de la inteligencia artificial. La empresa enfatiza que estas medidas de seguridad serán evaluadas y mejoradas continuamente, conforme avanza el despliegue de estas funciones en la plataforma. Una vista previa privada de estas capacidades se ofrecerá a los desarrolladores, marcando un paso significativo en la construcción de un futuro más seguro y eficiente para la inteligencia artificial en Windows.