La inteligencia artificial (IA) se ha convertido en el motor de transformación más poderoso de la última década. Desde asistentes virtuales hasta sistemas de diagnóstico médico, pasando por chatbots de atención al cliente y algoritmos financieros, su adopción es masiva y transversal. Sin embargo, un nuevo frente de debate emerge: las aseguradoras consideran que la IA es demasiado arriesgada para cubrir bajo sus pólizas corporativas.
Este hecho plantea un desafío crítico para empresas, reguladores y consumidores: ¿cómo gestionar los riesgos de una tecnología que avanza más rápido que la capacidad de prever sus consecuencias?
El origen del problema
Según un reportaje del Financial Times, grandes aseguradoras como Great American, Chubb y W. R. Berkley han solicitado a los reguladores estadounidenses autorización para excluir responsabilidades derivadas de la IA en sus pólizas corporativas. La razón principal es la opacidad de los modelos: sus resultados son considerados “cajas negras” difíciles de auditar y prever.
Aunque AIG ha aclarado que no planea aplicar estas exclusiones, la tendencia refleja un temor creciente en el sector.
Los ejemplos recientes muestran que los riesgos no son hipotéticos:
- Google AI Overview acusó erróneamente a una empresa solar de problemas legales, lo que derivó en una demanda de 110 millones de dólares.
- Air Canada se vio obligada a respetar un descuento inventado por su chatbot.
- Un grupo de estafadores clonó digitalmente a un directivo de la firma Arup y robó 25 millones de dólares durante una videollamada que parecía real.
Estos casos ilustran que los errores de la IA pueden tener consecuencias financieras devastadoras y, lo más preocupante, afectar simultáneamente a miles de empresas.
El riesgo sistémico: la pesadilla de las aseguradoras
Las aseguradoras están acostumbradas a manejar pérdidas millonarias en casos aislados. Como explicó un ejecutivo de Aon, un siniestro de 400 millones es asumible. Lo que no pueden gestionar es un fallo masivo de un modelo de IA que provoque 10.000 reclamaciones al mismo tiempo.
Este riesgo sistémico convierte a la IA en un fenómeno comparable a una crisis financiera global: un solo error puede desencadenar una cascada de pérdidas imposibles de cubrir.
Implicaciones para las empresas
Las compañías que integran IA en sus procesos enfrentan un dilema:
- Sin cobertura aseguradora, cualquier error de sus sistemas puede derivar en pérdidas millonarias.
- Con cobertura limitada, deberán asumir parte del riesgo y reforzar sus protocolos internos de control.
- Con exclusiones totales, podrían quedar expuestas a litigios y sanciones sin respaldo financiero.
Esto obliga a las empresas a replantear su estrategia de adopción de IA, priorizando la auditoría de modelos, la transparencia algorítmica y la gestión ética de datos.
El papel de los reguladores
Los reguladores se encuentran en una posición clave. Si permiten que las aseguradoras excluyan la IA de sus pólizas, las empresas podrían frenar la innovación por miedo a las pérdidas. Si obligan a cubrirla, las aseguradoras podrían enfrentar una crisis de solvencia.
La solución pasa por un marco regulatorio equilibrado, que defina responsabilidades claras entre desarrolladores de IA, usuarios corporativos y aseguradoras. La creación de estándares de seguridad y certificación de modelos podría ser un primer paso.
¿Es posible asegurar la IA?
Aunque hoy parece inviable, existen alternativas:
- Coberturas parciales: limitar el alcance de las pólizas a ciertos usos de IA (por ejemplo, chatbots de atención al cliente, pero no sistemas financieros).
- Fondos de compensación sectoriales: similares a los que existen en la banca, donde las empresas contribuyen a un fondo común para cubrir incidentes masivos.
- Auditorías obligatorias: exigir que los modelos pasen pruebas de transparencia y seguridad antes de ser asegurables.
- Seguros paramétricos: pólizas que se activan automáticamente ante determinados eventos, reduciendo la incertidumbre.
La falta de cobertura aseguradora puede tener un efecto directo en la innovación:
- Startups: podrían ver frenada su capacidad de escalar, al no poder asumir riesgos financieros elevados.
- Grandes corporaciones: disponen de más recursos para gestionar riesgos, pero podrían ralentizar la adopción de IA en áreas críticas.
- Consumidores: podrían perder confianza en servicios basados en IA si perciben que no están respaldados por seguros.