La IA avanza a un ritmo vertiginoso, y con ella también lo hacen los riesgos asociados a su uso indebido. OpenAI, creadora de ChatGPT, ha lanzado una advertencia contundente: sus próximos modelos de IA podrían alcanzar niveles tan altos de capacidad en ciberseguridad que representarían un riesgo significativo si caen en manos equivocadas.
IA y ciberseguridad en 2025
La relación entre inteligencia artificial y ciberseguridad nunca ha sido tan estrecha. Por un lado, los modelos de IA permiten a los equipos de seguridad detectar vulnerabilidades, automatizar auditorías de código y responder más rápido a incidentes.
Por otro, los ciberdelincuentes también han comenzado a aprovechar estas herramientas para crear malware más sofisticado, lanzar ataques adaptativos y reducir la barrera técnica de entrada.
OpenAI reconoce que sus modelos más recientes, como GPT‑5 y GPT‑5.1 Codex Max, han demostrado un salto cualitativo en pruebas de seguridad ofensiva. En un reto de “capture the flag”, GPT‑5 apenas alcanzó un 27% de éxito, mientras que su sucesor logró un 76% en pocos meses. Este progreso evidencia que la IA ya no es solo un asistente, sino un potencial actor en operaciones complejas de intrusión.
Los riesgos identificados
OpenAI define como “alto riesgo” aquellos escenarios en los que un modelo de IA puede:
- Desarrollar exploits de día cero contra sistemas bien defendidos.
- Asistir en intrusiones industriales o empresariales con efectos reales.
- Automatizar campañas de malware que se adaptan al entorno en tiempo real.
- Facilitar ataques DDoS o ransomware con un nivel de personalización nunca visto.
La preocupación principal es que estas capacidades, si se liberan sin control, podrían ser utilizadas por grupos criminales o incluso actores estatales para escalar ataques a gran escala.

La respuesta de OpenAI
Para mitigar estos riesgos, OpenAI ha anunciado una serie de medidas estratégicas:
1. Red teaming externo
La compañía está contratando organizaciones especializadas en “red team” para poner a prueba sus modelos como lo haría un atacante real. El objetivo es detectar vulnerabilidades antes de que puedan ser explotadas.
2. Programa de acceso confiable
Los modelos más avanzados estarán disponibles únicamente para socios verificados en el ámbito de la seguridad. Esto limita el acceso a capacidades críticas y evita que usuarios malintencionados las utilicen.
3. Aardvark: IA para defensa
OpenAI ha lanzado en beta privada su agente de seguridad Aardvark, capaz de identificar vulnerabilidades en software de código abierto y sugerir parches. La idea es que la IA se convierta en un aliado de los defensores, no de los atacantes.
4. Defensa en profundidad
La empresa está reforzando controles de acceso, monitorización, detección de amenazas y sistemas de respuesta. Además, entrenan a sus modelos para rechazar solicitudes dañinas, permitiendo únicamente usos educativos o legítimos.
Impacto en empresas y usuarios
La advertencia de OpenAI no es solo un ejercicio de transparencia, sino un llamado a la acción para todo el ecosistema digital. Las empresas deben entender que:
- La IA acelera tanto la defensa como el ataque. Ignorarla significa quedar en desventaja.
- Los fundamentos siguen siendo clave. Autenticación multifactor, concienciación de usuarios y controles básicos son la primera línea de defensa.
- La colaboración será esencial. Iniciativas como el Frontier Model Forum buscan que los principales laboratorios de IA trabajen juntos en modelos de amenaza compartidos.
Para los usuarios, la lección es clara: la seguridad digital ya no depende solo de contraseñas fuertes, sino de un ecosistema donde la IA juega un papel central.
Un futuro dual: oportunidad y amenaza
La IA aplicada a la ciberseguridad es un arma de doble filo. Puede ser la herramienta definitiva para proteger infraestructuras críticas, pero también el catalizador de ataques más devastadores. La clave estará en cómo se gestionen los accesos, las regulaciones y la ética en el desarrollo de estos modelos.
OpenAI, al reconocer públicamente los riesgos, abre la puerta a un debate necesario: ¿hasta qué punto debemos limitar el acceso a capacidades avanzadas de IA? ¿Cómo equilibrar innovación y seguridad?