Los últimos datos y estudios internos de Microsoft muestran que cada vez más organizaciones están incorporando agentes de IA. Es el momento de que los líderes refuercen la observabilidad, la gobernanza y la seguridad.
Las empresas pioneras -frontier firms- están cambiando la forma de trabajar, con personas y agentes de Inteligencia Artificial colaborando codo con codo para potenciar el talento humano. Datos recientes de Microsoft muestran que estos equipos mixtos, formados por humanos y agentes, están creciendo y se están adoptando ampliamente en todo el mundo. Esto hace que sea urgente establecer una buena gobernanza y seguridad, para que las organizaciones puedan adoptar estos agentes de forma segura, impulsando la innovación y reduciendo los riesgos1.
Del mismo modo que protegemos a las personas, también debemos proteger a los agentes de IA mediante una supervisión adecuada, normas de gobernanza claras y medidas de seguridad sólidas, aplicando los principios de “Zero Trust” (confianza cero). Los agentes de IA están proliferando a un ritmo que muchas empresas no pueden controlar, y esa falta de visibilidad supone un riesgo importante para el negocio.
Tal y como señala el informe Cyber Pulse 2026, las organizaciones que tengan éxito en la próxima fase de adopción de la Inteligencia Artificial serán aquellas que actúen con rapidez y consigan que los equipos de negocio, tecnología y seguridad trabajen juntos para observar, gobernar y proteger su transformación digital con IA.
Con más del 80% de las empresas Fortune 500 utilizando agentes activos creados con herramientas de low code2, ahora es el momento de establecer controles básicos y sólidos.
Al igual que ocurre con los empleados humanos, aplicar el modelo de “Zero Trust” a los agentes implica:
- Acceso con mínimos privilegios: Cada usuario, agente de IA o sistema debe tener solo los permisos imprescindibles, ni uno más.
- Verificación explícita: Siempre hay que comprobar quién o qué solicita acceso, utilizando la identidad, el estado del dispositivo, la ubicación y el nivel de riesgo.
- Asumir que puede haber brechas: Los sistemas deben diseñarse partiendo de la base de que los atacantes pueden llegar a acceder.

En todo el ecosistema de Microsoft, los clientes ya están creando y desplegando agentes en todas las plataformas principales, desde Fabric y Foundry hasta Copilot Studio y Agent Builder, lo que refleja un cambio generalizado hacia la automatización impulsada por IA en el trabajo diario.
Y este avance no se limita solo a los desarrolladores técnicos: las herramientas de low code están permitiendo que cualquier profesional pueda crear sus propios agentes, acelerando la adopción mucho más allá de las comunidades tradicionales de desarrolladores.
Los agentes de IA están creciendo rápidamente en todas las regiones y en todos los sectores

Según Cyber Pulse, sectores punteros como el del software y la tecnología (16%), la manufactura (13%), las entidades financieras (11%) y el comercio minorista (9%) están utilizando agentes para respaldar tareas cada vez más complejas: redactar propuestas, analizar datos financieros, clasificar alertas de seguridad, automatizar procesos repetitivos y obtener información a la velocidad de las máquinas.³ Estos agentes pueden funcionar de manera asistida —respondiendo a las indicaciones de los usuarios— o de forma autónoma, ejecutando tareas con muy poca intervención humana.
Esto marca un cambio importante: los agentes de IA ya no son solo cosa de especialistas, sino que ahora forman parte integral de las operaciones de las mayores empresas del mundo y están al alcance de cualquiera. Además, la innovación con agentes es global.
La cuestión es que: algunos de estos agentes están aprobados por el departamento de TI, otros no. Algunos son seguros, otros no.

El riesgo de los agentes dobles
El despliegue rápido de agentes puede superar a los controles de seguridad y cumplimiento, lo que aumenta el riesgo de tener shadow IA. Los ciberdelincuentes pueden aprovechar los accesos y privilegios de los agentes, convirtiéndolos en agentes dobles sin que sean identificados como tal. Igual que ocurre con los empleados humanos, un agente con demasiados permisos -o con instrucciones incorrectas- puede convertirse en una vulnerabilidad. La amenaza de que los agentes dobles sean explotados si no se gestionan, si tienen permisos inadecuados o reciben instrucciones de fuentes no fiables no es solo teórica. Recientemente, el equipo de Defender de Microsoft identificó una campaña fraudulenta en la que varios actores aprovecharon una técnica de ataque de IA conocida como “envenenamiento de memoria” para manipular de forma persistente la memoria de los asistentes de IA, influyendo en sus respuestas y debilitando la confianza en la precisión del sistema.
En investigaciones independientes realizadas en entornos seguros por el AI Red Team de Microsoft, los investigadores documentaron cómo los agentes podían ser engañados por elementos de la interfaz diseñados para confundir, como instrucciones dañinas ocultas en contenido cotidiano. El equipo también descubrió que el razonamiento de los agentes podía ser desviado de forma sutil, mediante la manipulación del contexto de las tareas. Estos hallazgos demuestran por qué es fundamental que las empresas tengan una observabilidad y gestión total de todos los agentes que interactúan con su organización, para que los controles puedan aplicarse de manera centralizada y los riesgos se gestionen de forma coordinada.

Según el Data Security Index de Microsoft, solo el 47% de las organizaciones de todos los sectores afirman estar implementando controles de seguridad específicos para la IA generativa, lo que pone de manifiesto que existe una oportunidad para que las empresas consigan la visibilidad necesaria para adoptar la IA de forma segura. Aún más relevante, según una encuesta multinacional realizada a más de 1.700 profesionales de seguridad de datos encargada por Microsoft a Hypothesis Group, ya el 29% de los empleados ha recurrido a agentes de IA no autorizados para realizar tareas laborales.

A medida que la adopción de la IA se acelera, ¿cuántos líderes son realmente conscientes del riesgo subyacente? ¿Cuántos tienen visibilidad sobre la cantidad de agentes que hay en su organización? Los agentes de IA no supervisados o sin una gobernanza adecuada pueden aumentar los riesgos en la empresa, poniendo en peligro la seguridad, la continuidad del negocio y la reputación, lo que recae directamente sobre el CISO y la alta dirección. Este es el verdadero dilema. Los agentes de IA están trayendo nuevas oportunidades al entorno laboral y se están integrando en las operaciones internas. Sin embargo, el comportamiento arriesgado de un agente puede amplificar las amenazas internas y crear nuevos modos de fallo para las organizaciones que no estén preparadas para gestionarlos.
La doble cara de la IA ya está aquí: una innovación extraordinaria acompañada de riesgos sin precedentes.
Sacar el máximo partido a tus agentes
Las empresas pioneras están aprovechando la ola de la Inteligencia Artificial como catalizador para modernizar la gobernanza, reducir el exceso de datos compartidos y desplegar controles incrementales en toda la organización. El cambio cultural es igual de importante: aunque los líderes empresariales son responsables de la estrategia de IA, los equipos de TI y seguridad deben colaborar con el negocio en la observabilidad, la gobernanza y la seguridad, creando comités que abarquen toda la empresa y fomentando una experiencia de los empleados segura. Para estas organizaciones, proteger a los agentes de acuerdo con sus requisitos de gobernanza no es una limitación, sino que se está convirtiendo en una ventaja competitiva, y todo empieza por proteger a los agentes igual que a los humanos y aplicar los mismos principios de Zero Trust a los agentes de IA.
Se empieza por la observabilidad, porque no se puede proteger lo que no se ve, ni gestionar lo que no se entiende. La observabilidad consiste en disponer de un plano de control en todos los niveles de la organización (TI, seguridad, desarrolladores y equipos de IA) para entender:
- Qué agentes existen
- Quién es el responsable de cada uno
- Qué sistemas y datos manejan
- Cómo se comportan
La observabilidad abarca cinco áreas clave:
- Registro: un registro centralizado se convierte en el punto de referencia único para todos los agentes de la organización —ya sean aprobados, de terceros o agentes en la sombra emergentes—. Este inventario ayuda a evitar la dispersión de agentes, facilita el seguimiento y la responsabilidad sobre cada uno, y permite identificar nuevos agentes, además de posibilitar que los no autorizados puedan ser restringidos o puestos en cuarentena cuando sea necesario.
- Control de acceso: cada agente se gestiona aplicando los mismos controles de identidad y políticas que se usan para los usuarios humanos y las aplicaciones. Los permisos de mínimo privilegio, aplicados de forma coherente, garantizan que los agentes solo puedan acceder a los datos, sistemas y flujos de trabajo necesarios para cumplir su función, ni más ni menos.
- Visualización: los paneles y la telemetría en tiempo real ofrecen información sobre cómo interactúan los agentes con personas, datos y sistemas. Los responsables pueden ver dónde están operando los agentes, entender las dependencias y monitorizar el comportamiento y el impacto, lo que facilita la detección rápida de usos indebidos, desviaciones o riesgos emergentes.
- Interoperabilidad: los agentes funcionan en plataformas de Microsoft, frameworks de código abierto y ecosistemas de terceros, bajo un modelo de gobernanza coherente. Esta interoperabilidad permite que los agentes colaboren con personas y otros agentes en distintos flujos de trabajo, pero siempre gestionados bajo los mismos controles empresariales.
- Seguridad: las protecciones integradas salvaguardan a los agentes frente a abusos internos y amenazas externas. Las señales de seguridad, la aplicación de políticas y las herramientas integradas ayudan a las organizaciones a detectar agentes comprometidos o desalineados a tiempo y a responder con rapidez, antes de que los problemas escalen y causen daños empresariales, regulatorios o reputacionales.
Cerrando la brecha: lista de comprobación para la gobernanza y seguridad de la IA
El camino para controlar los riesgos de la IA es claro:tratar a los agentes de IA con el mismo rigor que a cualquier empleado o cuenta de servicio de software. Aquí enumeramos siete puntos para una checklist:
- Definir el alcance y el principio de mínimo privilegio: documentar el propósito de cada agente y concederle acceso únicamente a lo que necesita. Nada de privilegios amplios.
- Extender las políticas de Prevención de Pérdida de Datos y Cumplimiento: aplicar las reglas de protección de datos también a los canales de IA. Mantener trazabilidad y etiquetar el contenido generado por IA.
- Proporcionar plataformas de IA autorizadas: ofrecer alternativas seguras para reducir la shadow IA. Bloquear las aplicaciones no autorizadas.
- Planificar para incidentes relacionados con IA: actualizar los planes de continuidad de negocio para incluir escenarios con IA. Realizar ejercicios de simulación (“tabletop”) y supervisar métricas de observabilidad en los planos de identidad, datos y amenazas.
- Adoptar las regulaciones: construir la gobernanza de IA desde ahora y autorregularse, al documentar los datos de entrenamiento, evaluar sesgos y establecer supervisión humana en las áreas legal, de datos y de seguridad, de modo que el cumplimiento regulatorio venga incorporado, no añadido a posteriori.
- Gestionar el riesgo de forma holística: elevar el riesgo asociado a la IA al nivel empresarial: establecer responsabilidad ejecutiva, KPIs medibles y visibilidad a nivel de consejo, al mismo nivel que otros riesgos financieros y operativos.
- Fomentar una cultura de innovación segura: formar a los empleados en el uso responsable de la IA. Promover la transparencia y la colaboración.
Las organizaciones que tengan éxito con los agentes de IA serán aquellas que prioricen la observabilidad, la gobernanza y la seguridad. Lograrlo requiere colaboración entre todos los equipos y una observabilidad completa de los agentes de IA en todos los niveles de la organización: profesionales de TI, equipos de seguridad, equipos de IA y desarrolladores. Todo ello debe poder gestionarse y supervisarse desde una plataforma central unificada.
Agent 365 es el plano o sistema de control unificado de Microsoft para gestionar agentes de IA en toda la organización. Proporciona un sistema centralizado, de nivel empresarial, para registrar, gobernar, securizar, observar y operar agentes de IA, ya estén construidos sobre plataformas de Microsoft, frameworks de código abierto o sistemas de terceros.
Puedes encontrar más información sobre los productos y servicios de Microsoft que ayudan a proteger la IA y los agentes aquí.
Para más información, visita el post de Vasu Jakkal, Corporate Vice President, Microsoft Security: 80% of Fortune 500 use active AI Agents: Observability, governance, and security shape the new frontier | Microsoft Security Blog
____________________________________________________________________________________
1Índice de Seguridad de Datos de Microsoft 2026: Unificando la Protección de Datos y la Innovación en IA, Microsoft Security, 2026.
2Basado en la telemetría propia de Microsoft, que mide los agentes creados con Microsoft Copilot Studio o Microsoft Agent Builder que estuvieron en uso durante los últimos 28 días de noviembre de 2025.
3Las métricas de agentes por industria y región se elaboraron usando telemetría propia de Microsoft, midiendo agentes creados con Microsoft Copilot Studio o Microsoft Agent Builder que estuvieron en uso durante los últimos 28 días de noviembre de 2025.
4Encuesta multinacional realizada en julio de 2025 a más de 1.700 profesionales de seguridad de datos, encargada por Microsoft a Hypothesis Group.
Metodología
Métricas de Agentes por Industria y Región
Se desarrollaron utilizando telemetría propia de Microsoft, midiendo los agentes creados con Microsoft Copilot Studio o Microsoft Agent Builder que estuvieron en uso durante los últimos 28 días de noviembre de 2025.
Índice de Seguridad de Datos 2026
Se realizó una encuesta global online de 25 minutos entre el 16 de julio y el 11 de agosto de 2025, con la participación de 1.725 responsables de seguridad de datos.
Las preguntas se centraron en el panorama actual de la seguridad de datos, los incidentes de seguridad, la protección del uso de GenAI por parte de empleados y el uso de GenAI dentro de los programas de seguridad de datos, para resaltar comparativas con 2024.
Además, se llevaron a cabo entrevistas en profundidad de una hora con 10 responsables de seguridad de datos en EE. UU. y Reino Unido, con el objetivo de obtener ejemplos cualitativos sobre cómo están abordando la seguridad de datos en sus organizaciones.
Definiciones
Agentes Activos son aquellos que:
- Están desplegados en producción, y
- Tienen alguna “actividad real” asociada en los últimos 28 días.
Se define “actividad real” como:
• Al menos una interacción con un usuario (en el caso de agentes asistenciales), o
• Al menos una ejecución autónoma (en el caso de agentes autónomos).
###