La irrupción de la inteligencia artificial generativa ha transformado profundamente el panorama de la ciberseguridad. Entre sus manifestaciones más preocupantes destacan los deepfakes, contenidos sintéticos hiperrealistas capaces de imitar voces, rostros y comportamientos humanos con una precisión cada vez mayor. Lo que hace unos años parecía un riesgo lejano se ha convertido en una amenaza real y creciente para empresas de todos los tamaños .
Según datos recientes, el 62% de las organizaciones sufrió algún tipo de ataque con deepfakes en 2025, y algunas estimaciones elevan esta cifra hasta el 85% en grandes y medianas empresas. La accesibilidad de estas herramientas, unida a su rápida evolución, ha abierto la puerta a un nuevo tipo de fraude difícil de detectar y con un impacto potencialmente devastador.
Cómo operan los ataques con deepfakes
Los ciberdelincuentes utilizan deepfakes principalmente para suplantar identidades y ejecutar ataques de ingeniería social más convincentes que nunca. Entre las técnicas más habituales destacan:
1. Suplantación de directivos para desviar fondos
Uno de los casos más mediáticos fue el ataque a la filial de Arup en Hong Kong, donde un deepfake del CTO consiguió engañar a un empleado para transferir 25 millones de dólares a los atacantes. La víctima incluso participó en una videollamada con recreaciones sintéticas de varios compañeros, imposibles de distinguir de los reales .
2. Combinación de voz clonada y phishing
Los atacantes envían mensajes de voz generados por IA imitando a ejecutivos, seguidos de correos electrónicos que solicitan acciones urgentes. En algunos casos, estas tácticas han derivado en la instalación de malware, robo de credenciales y despliegue de ransomware.
3. Falsificación de identidades en procesos de selección
Los deepfakes también se utilizan para acceder a puestos de trabajo remotos con identidades falsas, como en el caso de un supuesto ingeniero contratado por KnowBe4 que resultó ser un actor vinculado a Corea del Norte. El fraude se descubrió cuando intentó instalar malware en los sistemas corporativos.
Por qué los deepfakes son un riesgo creciente
La amenaza se intensifica por varios factores clave:
- Barreras de entrada cada vez más bajas: herramientas open source y modelos accesibles permiten a actores con poca experiencia generar deepfakes convincentes.
- Mejora acelerada de la tecnología: en solo seis meses, la calidad de las imitaciones ha avanzado de forma notable, incluyendo gestos, acentos y patrones de comportamiento.
- Expansión del objetivo: no solo las grandes corporaciones están en riesgo; las pymes, con menos recursos de ciberseguridad, se han convertido en un blanco prioritario.
- Mayor exposición pública: cada aparición en podcasts, conferencias o vídeos corporativos genera material que puede ser utilizado para clonar voces e imágenes.
Cómo mitigar los ataques con deepfakes
Aunque la amenaza es real, existen medidas efectivas para reducir el riesgo:
1. Limitar la exposición pública
Auditar y controlar el material audiovisual disponible de directivos y personal clave. Reducir grabaciones públicas innecesarias.
2. Reforzar los procesos de verificación
Eliminar la dependencia de canales únicos como llamadas o mensajes de voz. Implementar verificación multifactor para solicitudes sensibles, especialmente transferencias.
3. Formación continua
Actualizar los programas de concienciación en ciberseguridad para incluir ejemplos de deepfakes y técnicas de detección.
4. Uso de herramientas de detección
Soluciones basadas en IA pueden analizar patrones faciales, metadatos o irregularidades en la voz para identificar contenido sintético.
5. Preparar planes de respuesta
Incluir escenarios de suplantación mediante audio o vídeo en los protocolos de incidentes.
Conclusión
Los deepfakes representan una de las amenazas emergentes más complejas para las empresas. Su capacidad para manipular la percepción humana y vulnerar procesos críticos exige una combinación de tecnología, formación y procedimientos robustos. Las organizaciones que actúen ahora estarán mejor preparadas para afrontar un futuro donde la frontera entre lo real y lo sintético será cada vez más difusa.