La adopción de agentes de Inteligencia Artificial está creciendo a un ritmo sin precedentes. Según el informe Cyber Pulse 2026 de Microsoft, más del 80% de las empresas Fortune 500 ya utilizan agentes activos creados con herramientas low code, lo que marca un punto de inflexión en la transformación digital global . Este avance abre enormes oportunidades, pero también introduce riesgos que muchas organizaciones aún no están preparadas para gestionar.
En este contexto, la seguridad, la gobernanza y la observabilidad se convierten en pilares esenciales para garantizar un uso responsable y seguro de la IA en entornos corporativos.
La explosión de los agentes de IA: innovación y riesgo a partes iguales
Los agentes de IA ya no son herramientas reservadas a equipos técnicos. Gracias a plataformas como Microsoft Copilot Studio o Agent Builder, cualquier profesional puede crear agentes capaces de automatizar tareas, analizar datos o interactuar con sistemas empresariales. Sectores como software, manufactura, finanzas y retail lideran esta adopción, utilizando agentes para funciones cada vez más complejas .
Sin embargo, esta democratización también ha generado un fenómeno preocupante: la shadow IA. Muchos agentes se crean sin supervisión del departamento de TI, lo que abre la puerta a brechas de seguridad, accesos indebidos y vulnerabilidades críticas.
El riesgo de los “agentes dobles”
Uno de los hallazgos más relevantes del informe es la aparición de los llamados agentes dobles: agentes legítimos que, debido a permisos excesivos o instrucciones manipuladas, pueden ser explotados por ciberdelincuentes.
Microsoft ha detectado campañas reales donde atacantes emplearon técnicas como el envenenamiento de memoria para alterar el comportamiento de asistentes de IA, comprometiendo su precisión y fiabilidad . Además, investigaciones del AI Red Team demostraron que los agentes pueden ser engañados mediante elementos visuales o contextuales diseñados para manipular su razonamiento.

Estos riesgos evidencian la necesidad urgente de establecer controles sólidos y una supervisión continua.
Zero Trust aplicado a la IA: un nuevo estándar de seguridad
El modelo Zero Trust, ampliamente adoptado en ciberseguridad, se convierte ahora en un requisito indispensable para los agentes de IA. Sus principios clave —mínimo privilegio, verificación explícita y asumir brechas— deben aplicarse tanto a usuarios humanos como a agentes automatizados.
El informe destaca que solo el 47% de las organizaciones está implementando controles específicos para IA generativa, lo que deja un amplio margen de mejora en la protección de datos y sistemas críticos .
Observabilidad: el primer paso para proteger la IA
Microsoft subraya que “no se puede proteger lo que no se ve”. Por ello, la observabilidad se convierte en la base de una estrategia de seguridad efectiva. Esta incluye, entre otras cosas, registro centralizado de agentes, control de acceso y permisos mínimos, paneles de telemetría en tiempo real o protecciones integradas contra amenazas internas y externas.
Además, el informe propone siete acciones clave para reforzar la gobernanza:
- Definir el alcance y aplicar mínimo privilegio.
- Extender políticas de cumplimiento y DLP a la IA.
- Ofrecer plataformas autorizadas para reducir shadow IA.
- Preparar planes de respuesta ante incidentes con IA.
- Adoptar regulaciones y documentar datos de entrenamiento.
- Gestionar el riesgo de forma holística a nivel ejecutivo.
- Fomentar una cultura de innovación segura.
La IA está transformando la empresa moderna, pero su adopción masiva exige una estrategia de seguridad robusta y proactiva. Las organizaciones que prioricen la observabilidad, la gobernanza y el modelo Zero Trust estarán mejor preparadas para aprovechar el potencial de los agentes de IA sin comprometer su seguridad ni su reputación.