El presidente Donald Trump ha firmado una controvertida orden ejecutiva que prohíbe a las agencias federales contratar tecnología de inteligencia artificial (IA) considerada “woke” o ideológicamente sesgada. Esta medida, que forma parte de su nuevo AI Action Plan, promete redefinir la relación entre el gobierno de EE. UU. y las empresas tecnológicas, generando intensos debates sobre la libertad de expresión, la neutralidad algorítmica y la competitividad internacional frente a China.
¿Qué dice exactamente la orden?
La orden ejecutiva prohíbe expresamente que la IA financiada por el gobierno esté influenciada por ideologías como la diversidad, equidad e inclusión (DEI), la teoría crítica de la raza, el feminismo interseccional, el reconocimiento de sesgos inconscientes y otras corrientes asociadas con el discurso progresista. Trump calificó estas ideologías como “destructivas y distorsionadoras de la precisión” y prometió que a partir de ahora, el gobierno solo trabajará con IA que “persiga la verdad, la imparcialidad y la objetividad estricta”.
Objetivos del nuevo “AI Action Plan”
Lanzado simultáneamente a la orden, este plan abandona los enfoques que ponen énfasis en los riesgos sociales de la IA y se enfoca en:
- Reforzar la infraestructura nacional de IA.
- Eliminar barreras burocráticas para startups y empresas emergentes.
- Incrementar la inversión en seguridad nacional.
- Acelerar la competencia tecnológica con China.
¿Qué se considera “IA woke”?
Según el texto oficial, se trata de cualquier modelo que “manipule respuestas en favor de dogmas ideológicos” o que promueva representaciones diversas por motivos raciales o de género. Ejemplos recientes incluyen el escándalo de Google Gemini mostrando imágenes históricas con diversidad racial inapropiada, o el enfoque inclusivo de varios chatbots que evitan reproducir discursos discriminatorios.
¿Es posible una IA verdaderamente neutral?
Expertos en sociolingüística como Philip Seargeant advierten que “el lenguaje nunca es neutral” y que pretender objetividad absoluta es una fantasía. Rumman Chowdhury, ex enviada de EE. UU. para IA y directora de Humane Intelligence, teme que las empresas modifiquen sus datos de entrenamiento para alinearse con posturas gubernamentales. Esto plantea preguntas éticas profundas sobre quién define lo que es “verdad” y cómo se accede a la información.

El impacto en Silicon Valley y los contratos federales
Las principales compañías de IA como OpenAI, Google, Anthropic y xAI han recibido recientemente contratos de hasta 200 millones de dólares por parte del Departamento de Defensa. En este contexto, la orden podría generar un efecto de enfriamiento: aquellas empresas que no se alineen ideológicamente con el gobierno corren el riesgo de quedar fuera de futuras licitaciones.
Curiosamente, xAI —la empresa de Elon Musk— podría ser una de las más favorecidas. Su chatbot Grok ha sido promovido como “anti-woke” y está ahora disponible para todas las agencias gubernamentales. Sin embargo, también ha sido acusado de emitir contenidos antisemitas y de extrema derecha, lo que podría complicar su posición legal.
En el fondo, esta orden refuerza la visión de la IA como un conflicto de valores entre democracias occidentales y regímenes autoritarios como el chino. En palabras de Chris Lehane, jefe de asuntos globales en OpenAI, se trata de una “competencia entre la IA democrática liderada por EE. UU. y la IA autocrática liderada por China”.
¿Qué consecuencias podría tener?
- Polarización tecnológica: Se puede profundizar la brecha entre la IA “aprobada” y la IA “progresista”, afectando a desarrolladores, investigadores y usuarios.
- Menor transparencia: Si las empresas reformulan sus modelos para cumplir con la orden, podría haber menos acceso a IA diversa e inclusiva.
- Riesgo de censura algorítmica: Definir “verdad” y “neutralidad” desde una oficina gubernamental podría distorsionar el desarrollo libre de conocimiento.
La orden ejecutiva contra la “IA woke” de Trump marca un punto de inflexión en la política tecnológica de EE. UU. Aunque muchos celebran la búsqueda de objetividad, otros advierten que se trata de una forma encubierta de censura ideológica. En un mundo donde incluso los datos tienen ideologías, ¿es realmente posible construir una IA imparcial?