Cuando el presidente Donald Trump publicó esta semana en redes sociales que “la sobrerregulación por parte de los Estados está amenazando con socavar este Motor de Crecimiento”, no hablaba del petróleo ni de los bancos. Hablaba, claro, de la inteligencia artificial.
Detrás de ese mensaje hay un esfuerzo coordinado de la Casa Blanca y de algunos de los actores más poderosos de Silicon Valley para bloquear que los Estados de EE.UU. apliquen sus propias normas sobre IA. El vehículo: el proyecto anual de ley de defensa y un borrador de orden ejecutiva que permitiría a Washington demandar a los Estados e incluso amenazar sus fondos federales si no retroceden.
Lo que comenzó como una disputa técnica sobre la “preeminencia” regulatoria se ha convertido rápidamente en una batalla política de alto riesgo sobre quién debe escribir el manual de regulación de la IA en Estados Unidos: Washington o los Estados.
El plan Trump–Big Tech: usar la política de defensa para silenciar las leyes estatales de IA
Según informes de Bloomberg y otros medios, el “zar” de la IA y las criptomonedas de la Casa Blanca, David Sacks, y el líder de la mayoría en la Cámara de Representantes, Steve Scalise, encabezan una campaña entre bambalinas para insertar un texto en la Ley de Autorización de Defensa Nacional (NDAA) que anule o limite severamente las regulaciones estatales de IA.
Al mismo tiempo, la administración ha distribuido un borrador de orden ejecutiva titulada, en mayúsculas, “Eliminating State Law Obstruction of National AI Policy”. La orden instruiría al Departamento de Justicia a crear una Fuerza de Trabajo de Litigios IA (“AI Litigation Task Force”) para impugnar en los tribunales las leyes estatales sobre IA, alegando que violan la Cláusula de Comercio o que entran en conflicto con políticas federales. También instruiría a las agencias a retener ciertos fondos federales a los Estados cuyas leyes de IA se consideren demasiado restrictivas.
La idea es simple: reemplazar el mosaico emergente de normas estatales por un “marco de política nacional para la IA, mínimamente gravoso y uniforme”, tal como lo describe el borrador. Es importante señalar que al respecto aún no existe en la legislación federal: el Congreso no ha aprobado una ley integral sobre IA.
¿Por qué las Big Tech está totalmente a favor?
Los principales actores de la IA se han alineado detrás del esfuerzo. Google, Meta y OpenAI están presionando a favor de la preeminencia federal, argumentando que una proliferación de regímenes estatales crearía obligaciones incompatibles y ralentizarían la innovación.
Poderosos capitalistas de riesgo y donantes del Partido Republicano como Marc Andreessen y Ben Horowitz estarían llamando a líderes republicanos para instarlos a incluir el lenguaje de preeminencia en la ley de defensa. Un grupo respaldado por la industria, Build American AI, impulsa públicamente la misma postura, con un argumento poderoso: Estados Unidos debe evitar un mapa regulatorio “balcanizado” si quiere mantenerse por delante de China.
Para las empresas, las apuestas son claras:
- Las reglas sobre responsabilidad y seguridad en algunos Estados podrían hacer responsables a los desarrolladores por los daños causados por sus sistemas.
- Los mandatos de transparencia podrían obligarlos a revelar más sobre cómo se entrenan y evalúan los modelos “frontera”.
- Las reglas por sector —para contratación, vivienda, seguros o policía— podrían limitar el despliegue lucrativo de sistemas automatizados.
Y los Estados se están moviendo velozmente.
Los Estados llenan el vacío federal
Mientras el Congreso se encontraba paralizado, las legislaturas estatales, en cambio, hicieron importantes avances. Un informe reciente contabilizó 73 nuevas leyes relacionadas con IA en 27 Estados, solo en 2025, Encabezan la lista California, Texas, Montana, Utah y Arkansas.
El mayor punto de fricción es el proyecto SB 53 de California, la Ley de Transparencia en Inteligencia Artificial Fronteriza, firmada en septiembre. Es la primera ley en EE.UU. dirigida a los modelos de “frontera”: aquellos en la vanguardia de tamaño y capacidad. El SB 53 exige que ciertos desarrolladores de IA realicen evaluaciones de seguridad, documenten riesgos y compartan informes de transparencia con un nuevo organismo estatal.
Más aún: los legisladores californianos ya estudian proyectos complementarios como el AB 853, que obligaría a los grandes proveedores de IA generativa a ofrecer herramientas de detección y etiquetas de procedencia para el contenido generado por IA.
Otros Estados exploran vías alternativas:
- Nueva York aprobó una ley que exige inventarios detallados de los sistemas automatizados usados en agencias públicas.
- Varios Estados impulsan leyes sobre la exposición de menores a chatbots, discriminación algorítmica, deepfakes en elecciones y vigilancia laboral.
Para los grupos de la sociedad civil, esta experimentación es una característica, no un error. Un análisis del Center for American Progress advirtió que la moratoria federal y la preeminencia “plantean riesgos serios”, alertando que podría congelar la innovación en gobernanza justo cuando los daños de la IA están escalando.
En otras palabras: los laboratorios desplegaron primero sistemas disruptivos; ahora los Estados quieren ejecutar sus propios experimentos —en regulación.
Una guerra civil republicana sobre IA y federalismo
La cuestión está lejos de ser una clara disputa entre demócratas y republicanos.
A comienzos de este año, el Senado votó 99–1 para eliminar una moratoria de diez años sobre leyes estatales de IA que Trump había respaldado en un proyecto de ley tributario y de gasto. La enmienda fue copatrocinada por la demócrata Maria Cantwell y la republicana Marsha Blackburn, quienes sostuvieron que impedir la acción estatal antes de que existan salvaguardas federales sólidas dejaría a las personas vulnerables expuestas.
Ahora, mientras la Casa Blanca intenta de nuevo con la ley de defensa y una nueva orden ejecutiva, la base MAGA se está rebelando.
La republicana de Georgia Marjorie Taylor Greene criticó el plan, insistiendo en que “los Estados deben conservar el derecho de regular y legislar sobre IA” y advirtiendo que los republicanos que “vendan a sus electores para ayudar a Big Tech” enfrentarán una reacción adversa.
El activista conservador Mike Davis, aliado cercano de Trump en muchos temas —pero feroz crítico de las Big Tech—, ha calificado el esfuerzo de “amnistía para la IA”, argumentando que, si las empresas tecnológicas quieren una preeminencia federal, primero deben demostrar que protegen a “los conservadores, niños, comunidades y creadores”.
Incluso algunos senadores republicanos que apoyan la innovación en IA están inquietos por la iniciativa. Les preocupa:
- una posible afectación a los derechos de autor para artistas cuyos datos se usan en el entrenamiento de modelos,
- un debilitamiento de las protecciones estatales para menores,
- el establecimiento de un precedente a través del cual Washington cercene la autoridad estatal para ayudar a plataformas dominantes.
El líder de la mayoría en el Senado, John Thune, confirmó que los líderes republicanos exploran un texto de prevalencia federal, pero dijo que cualquier acuerdo debe todavía “garantizar que los Estados tengan algún rol” en cómo operan las empresas de IA dentro de sus fronteras.
Es una alineación inusual: millonarios tecnológicos y republicanos pro-empresa por un lado, conservadores defensores de los derechos estatales y escépticos de la tecnología por el otro.
Preguntas constitucionales y de gobernanza
Más allá de la política, hay preguntas constitucionales complejas.
El proyecto se ancla en la Cláusula de Comercio, argumentando que las leyes estatales de IA imponen cargas indebidas al comercio interestatal y entran en conflicto con una estrategia nacional de crecimiento basada en la IA.
Los expertos legales ya cuestionan si la Casa Blanca puede:
- prevalecer sobre amplias áreas de la ley estatal sin la existencia de una clara ley federal competente
- retener fondos federales importantes —como los destinados a infraestructura digital— como castigo por la sanción de regulaciones estatales de IA que incomoden a Washington.
Algunos analistas detectan aquí los ecos de disputas pasadas acerca de regulaciones medioambientales y sanitarias, en las cuales los tribunales limitaron los intentos federales de presionar económicamente a los Estados.
Otros señalan la ironía: un movimiento que durante mucho tiempo defendió el federalismo ahora coquetea con una expansión agresiva de la preeminencia federal, pero esta vez para proteger a un pequeño grupo de empresas de IA altamente concentradas.
Seguridad vs. velocidad: dos visiones del futuro de la IA en EE.UU.
La cuestión involucra dos visiones enfrentadas acerca del rumbo que debería tomar la IA en Estados Unidos.
El campo pro-federal argumenta:
- EE.UU. está en una carrera de IA contra China.
- Un mosaico de reglas estatales ralentizará la implantación, elevará los costos de cumplimiento y empujará a los laboratorios experimentales de punta a mudarse al extranjero.
- La innovación requiere un marco regulatorio de “mano suave”, coordinado a nivel de nacional, que reconozca a la IA como una infraestructura critica y pueda tolerar el riesgo, con tal de permitirle avanzar rápidamente.
El campo pro-estatal responde:
- Los sistemas de IA ya están causando daños concretos: sesgos en contrataciones y créditos, noticias falsas, material de abuso sexual infantil (CSAM) creado enteramente por IA, desinformación y chatbots abusivos dirigidos específicamente a menores.
- Sin una ley federal integral, eliminar la autoridad estatal crearía un vacío regulatorio justo cuando la tecnología se vuelve ubicua.
- Los Estados han actuado históricamente como laboratorios de democracia, pioneros en normas de privacidad, medioambiente y protección al consumidor que luego se adoptan a nivel federal.
En ese sentido, el SB 53 de California y las normas de transparencia de IA en Nueva York no son simples curiosidades legales; son los primeros intentos de probar cómo podría ser una supervisión responsable de la IA en la práctica.
Conclusión: ¿Quién escribe el manual que gobernará a las máquinas?
La pregunta clave es la siguiente:
¿Puede la Casa Blanca deslizar la preeminencia federal en la regulación de la IA dentro la Ley de Defensa, o tendrá que recurrir a una orden ejecutiva controversial, que probablemente será judicialmente impugnada el mismo día en que se firme?
¿Quién debe gobernar los sistemas que, cada vez más, serán nuestro nexo con las noticias, los empleos, la educación, y la política?
- ¿Un régimen federal único y “liviano”, fuertemente influido por las propias empresas que construyen los modelos?
- ¿O un mosaico caótico de normas estatales que puede ser incoherente al principio, pero refleja las preocupaciones locales y fuerza a experimentar con ellos en el mundo real, a través de parámetros de seguridad y responsabilidad?
Trump y sus aliados en Silicon Valley apuestan a que la promesa de crecimiento económico —y el temor a China— persuadirá al Congreso de recortar el poder de los Estados a favor de una política nacional “pro-IA”. Sus críticos advierten que hacerlo no solo socavaría el federalismo, sino que también retrasaría importantes protecciones a los ciudadanos, justo cuando la IA comienza a expandirse a todos los rincones de la vida cotidiana.
Por ahora, el código que impulsa a la IA de frontera sigue escribiéndose mayoritariamente en laboratorios privados. La lucha que se desarrolla en Washington decidirá quién escribirá el código legal que la gobierne.
Por Norberto Luongo












