La adopción de la agentic AI —la nueva generación de sistemas autónomos capaces de tomar decisiones, ejecutar tareas y coordinar procesos sin supervisión constante— avanza a gran velocidad. Sin embargo, un reciente estudio de Dynatrace revela una paradoja que está marcando el ritmo de esta tecnología: el 50% de los proyectos siguen atrapados en la fase piloto, incapaces de escalar hacia entornos reales de producción. Aun así, las organizaciones no solo no frenan su inversión, sino que planean incrementarla de forma significativa durante el próximo año.
Un crecimiento acelerado… con frenos evidentes
El informe, basado en una encuesta a 919 líderes globales, muestra que la adopción de agentic AI está todavía en una etapa temprana, pero creciendo con fuerza. El 26% de las organizaciones ya gestiona más de 11 proyectos simultáneos, una cifra notable para una tecnología emergente. Las áreas donde esperan mayor retorno de inversión (ROI) son claras:
- Monitorización de sistemas (44%)
- Ciberseguridad (27%)
- Procesamiento de datos (25%)
Estas prioridades reflejan un patrón: las empresas buscan automatizar tareas críticas, repetitivas y de alto volumen, donde la autonomía de los agentes puede generar eficiencias inmediatas.
¿Por qué no avanzan los proyectos?
A pesar del entusiasmo, la realidad operativa es más compleja. Según el estudio, los principales frenos para pasar de piloto a producción son:
- Preocupaciones de seguridad, privacidad y cumplimiento normativo (52%)
- Dificultades técnicas para gestionar agentes a gran escala (51%)
En otras palabras, las empresas no dudan del valor de la agentic AI, pero sí de su capacidad para controlarla, auditarla y garantizar que actúe de forma fiable en escenarios reales.
Alois Reitbauer, Chief Technology Strategist de Dynatrace, lo resume con claridad: las organizaciones no frenan por falta de confianza en la IA, sino porque escalar sistemas autónomos requiere garantías sólidas de comportamiento seguro y predecible.
La supervisión humana sigue siendo imprescindible
Aunque el discurso del sector apunta hacia una autonomía creciente, la práctica actual es mucho más conservadora:
- 7 de cada 10 decisiones tomadas por agentes de IA siguen siendo verificadas por humanos.
- El 87% de las organizaciones desarrolla agentes que requieren supervisión humana activa.
Los líderes consultados prevén un equilibrio 50/50 entre humanos e IA en tareas de TI y soporte rutinario, y un 60/40 en aplicaciones de negocio. La autonomía total aún queda lejos.
El gran desafío: la observabilidad
Uno de los puntos más críticos identificados por Dynatrace es la observabilidad. Para que los agentes autónomos puedan operar con seguridad, las empresas necesitan visibilidad completa sobre:
- Cómo toman decisiones
- Cómo interactúan entre sí
- Qué impacto generan en los sistemas
- Cómo se comportan en tiempo real
Actualmente, la observabilidad se aplica sobre todo en la fase de implementación (69%), seguida de la operación (57%) y el desarrollo (54%).
Sin esta transparencia, escalar la agentic AI se convierte en un riesgo operativo difícil de asumir.
Un déjà vu en el mundo de la IA
El fenómeno no es nuevo. Otros estudios ya mostraban que menos del 40% de los proyectos de IA llegan a producción, y que los principales obstáculos son la calidad de los datos y la falta de madurez técnica.
La agentic AI no es la excepción: promete transformar la automatización empresarial, pero aún necesita un marco sólido de gobernanza, seguridad y observabilidad para desplegarse a gran escala.