IA generativa y datos sensibles: una combinación explosiva

El uso masivo de herramientas de inteligencia artificial generativa está provocando un aumento sin precedentes en las violaciones de datos corporativos. Según el informe Cloud and Threat Report: 2026 de Netskope Threat Labs, las infracciones relacionadas con IA generativa se han más que duplicado en el último año, impulsadas por el uso de cuentas personales, la falta de controles y la rápida adopción de estas tecnologías.

Un crecimiento explosivo del uso… y del riesgo

El estudio revela que la organización promedio registra 223 incidentes mensuales de envío de datos sensibles a aplicaciones de IA generativa, una cifra que puede alcanzar los 2.100 incidentes en el 25% de las empresas con mayor exposición. Este volumen creciente está directamente relacionado con la expansión del uso de estas herramientas:

  • El número de usuarios de apps de IA generativa ha crecido un 200% en un año.
  • El volumen de prompts enviados ha aumentado un 500%, pasando de 3.000 a 18.000 por organización al mes.

Este incremento masivo ha desbordado la capacidad de muchos equipos de seguridad para mantener el control sobre la información que circula por estas plataformas.

El enemigo interno: Shadow AI y cuentas personales

Uno de los factores más preocupantes es la persistencia del shadow AI, es decir, el uso de herramientas de IA sin supervisión ni aprobación corporativa. Aunque el uso de cuentas personales ha disminuido ligeramente, el 47% de los usuarios sigue accediendo a herramientas de IA generativa desde cuentas no gestionadas.

Esto convierte a las aplicaciones personales en un riesgo crítico:

  • Están implicadas en 6 de cada 10 incidentes de amenazas internas.
  • Se utilizan para enviar datos regulados, propiedad intelectual, código fuente y credenciales.
  • Su uso viola directamente las políticas de seguridad de la mayoría de organizaciones.
Qué es la seguridad Cloud

La seguridad tradicional ya no es suficiente

Los equipos de ciberseguridad se enfrentan a un escenario en el que la IA generativa ha cambiado las reglas del juego. Según Netskope, la adopción de estas tecnologías ha creado un nuevo perfil de riesgo, más complejo y difícil de gestionar, que obliga a replantear los modelos de confianza y los perímetros de seguridad tradicionales.

Además, la llegada de sistemas de IA “agéntica” —capaces de ejecutar tareas autónomas— está ampliando aún más la superficie de ataque, lo que exige controles más avanzados y una monitorización continua.

Recomendaciones clave para las empresas

El informe propone una serie de medidas esenciales para mitigar estos riesgos:

  • Mapear el flujo de información sensible, incluyendo el uso de apps personales.
  • Implementar controles unificados que registren y gestionen la actividad en todos los servicios cloud.
  • Aplicar políticas coherentes tanto en servicios gestionados como no gestionados.
  • Incorporar la monitorización de IA agéntica en las evaluaciones de riesgo.
  • Actualizar las herramientas de DLP para que sean “conscientes de la IA”.

El objetivo es lograr un equilibrio entre innovación y seguridad, permitiendo a los empleados aprovechar la IA sin comprometer la integridad de los datos corporativos.

0 0 votes
Article Rating
Subscribe
Notify of
guest
0 Comments
Newest
Oldest Most Voted
Inline Feedbacks
View all comments

Relacionados

Tendencias

Más leídos

Se habla de..

Contacta con nosotros

Contacto

Servicios para empresa

Tenga en cuenta que estamos especializados en servicios para empresas y por lo general no solemos prestar servicios a particulares salvo en circunstancias en las cuales desean un serivicio de tipo empresarial. Aún así, puede continuar si lo desea. 

0
Would love your thoughts, please comment.x
()
x