Meta ha anunciado oficialmente su decisión de no suscribir el nuevo código de práctica para inteligencia artificial (IA) promovido por la Unión Europea (UE), argumentando que dicha normativa genera confusión legal y podría frenar la innovación tecnológica en Europa. Este rechazo pone de relieve las crecientes tensiones entre gigantes tecnológicos y los reguladores europeos en torno al desarrollo responsable de la IA.
Una negativa con implicaciones profundas
Joel Kaplan, director global de asuntos públicos de Meta, comunicó la decisión a través de LinkedIn el 22 de julio de 2025. Según Kaplan, el código europeo —aunque voluntario— anticipa medidas que serán implementadas bajo la inminente Ley de IA de la UE, programada para entrar en vigor en agosto. En su opinión, este documento no brinda claridad jurídica, sino que incrementa la incertidumbre normativa, lo que podría desalentar la inversión y el avance de modelos de IA avanzados dentro del continente.
¿Qué propone el código de práctica?
Publicado el 10 de julio de 2025, el código busca crear un marco orientativo que facilite la adaptación temprana a la Ley de IA. Aquellas empresas que lo firmen podrían beneficiarse de una transición más sencilla cuando la legislación se implemente oficialmente. Sin embargo, Meta considera que las exigencias del código son excesivas y poco claras, lo que añade complejidad a un entorno regulatorio que ya de por sí es estricto.
Europa vs. Estados Unidos: dos visiones sobre la IA
El enfoque europeo busca garantizar una IA segura, ética y transparente, mientras que Estados Unidos opta por una postura más flexible que favorece la rápida innovación. Meta ha respaldado históricamente la visión estadounidense, alineándose con políticas que promueven menos intervención gubernamental. Su postura actual refuerza esa preferencia y podría sentar precedente para que otras empresas tecnológicas sigan el mismo camino.

Presión desde el sector empresarial
En junio, varias empresas europeas de renombre —entre ellas Airbus, Mercedes-Benz y Philips— solicitaron a la UE aplazar la aplicación de la Ley de IA por dos años. Alegan que el calendario propuesto no permite una preparación adecuada y genera demasiadas incógnitas legales. Este llamado refleja una creciente inquietud sobre cómo el marco regulatorio podría afectar la competitividad global de las empresas tecnológicas europeas.
El rechazo de Meta no debe interpretarse simplemente como un acto de rebeldía. La compañía advierte que una regulación demasiado estricta podría empujar a desarrolladores de IA a países con leyes más laxas, dejando a Europa en desventaja tecnológica. Si bien la protección del consumidor y la ética son pilares fundamentales, el exceso de burocracia podría generar un efecto inverso al deseado: frenar el progreso en lugar de canalizarlo de forma responsable.
El equilibrio entre control y libertad
Lograr un consenso entre innovación y regulación es uno de los retos más complejos que enfrenta el ecosistema tecnológico global. El código europeo pretende asegurar que los avances en IA se alineen con principios de seguridad, transparencia y respeto por los derechos humanos. No obstante, sin un diálogo más fluido entre empresas y reguladores, iniciativas como esta podrían terminar creando más fricciones que soluciones.
¿Qué sigue ahora?
La negativa de Meta no impide que otras empresas firmen el código. De hecho, podría abrir el debate sobre su reformulación o sobre alternativas más inclusivas que contemplen las preocupaciones del sector tecnológico. La UE podría verse obligada a renegociar partes del marco, buscando un término medio que no sacrifique ni la innovación ni la ética.