L’annuncio di un ordine esecutivo con cui Donald Trump intende limitare la capacità degli Stati americani di legiferare sull’intelligenza artificiale riporta al centro un nodo irrisolto della governance tecnologica: chi deve regolare l’IA in un sistema federale?
Dietro la promessa di uno “standard unico” emergono fratture costituzionali, interessi industriali e un vuoto normativo che rischia di avere effetti ben oltre i confini degli Stati Uniti.
Indice degli argomenti
Cosa prevede l’ordine esecutivo annunciato da Trump
Secondo quanto riportato da Reuters l’11 dicembre 2025, Donald Trump ha annunciato l’intenzione di firmare un ordine esecutivo volto a ridurre, se non bloccare, l’efficacia delle leggi statali che regolano l’intelligenza artificiale.
L’obiettivo dichiarato sarebbe quello di evitare che le aziende tecnologiche debbano confrontarsi con un mosaico di normative diverse da Stato a Stato, considerate un freno all’innovazione e alla competitività degli Stati Uniti nel confronto globale, in particolare con la Cina.
L’iniziativa potrebbe sembrare un punto di svolta per l’introduzione di nuove regole federali sull’IA e la creazione di un framework normativo omogeneo. Tuttavia, l’annuncio del Presidente Trump sembra piuttosto volto alla limitazione dell’autonomia normativa dei singoli Stati.
L’ordine esecutivo, infatti, nelle intenzioni dell’amministrazione, consentirebbe al governo federale di valutare l’impatto delle leggi statali e, in caso di giudizio negativo, di usare leve indirette (come, ad esempio, l’accesso a fondi federali per infrastrutture digitali o programmi tecnologici) per scoraggiarne l’applicazione.
La notizia non riguarda quindi tanto “cosa” regolare, quanto “chi” debba farlo. Ed è proprio questo spostamento di prospettiva a rendere l’annuncio politicamente e giuridicamente rilevante.
Il problema che Trump dice di voler risolvere: il “patchwork” normativo
La narrativa dell’amministrazione Trump è molto lineare: troppe leggi statali, diverse tra loro, creano incertezza giuridica. Così le imprese che sviluppano o utilizzano sistemi di intelligenza artificiale (dai modelli generativi ai sistemi di riconoscimento facciale, fino agli algoritmi decisionali) sarebbero costrette ad adeguarsi a requisiti eterogenei, con costi elevati e rischio di contenzioso.
Il cosiddetto “patchwork normativo” è un argomento ricorrente nel dibattito tecnologico statunitense, già utilizzato per criticare le leggi statali sulla privacy, come il California Consumer Privacy Act. La principale criticità sollevata è che la progressiva adozione di normative statali divergenti in assenza di una legge federale unificata ha finito per creare requisiti diversi e sovrapposti per le imprese che operano in più Stati.
In questa prospettiva, solo una regolazione federale uniforme sarebbe in grado di garantire chiarezza, prevedibilità e rapidità di sviluppo.
Il problema, però, è che lo standard federale evocato dall’amministrazione non esiste ancora e che l’ordine esecutivo, anziché introdurre una disciplina alternativa, si limita a contenere (o, meglio, scoraggiare) quelle esistenti a livello locale. È qui che iniziano le prime crepe nel racconto dell’efficienza regolatoria.
Il punto di vista degli Stati USA: perché molti non vogliono fermarsi
Diversi Stati americani hanno reagito con freddezza, se non con aperta opposizione, all’annuncio dell’ordine esecutivo: il governatore della Florida Ron DeSantis ha dichiarato che un ordine esecutivo “non può prevaricare” le leggi statali; e in Minnesota alcuni parlamentari locali hanno comunicato l’intenzione di proseguire comunque il lavoro legislativo nonostante il piano federale, ritenendo che un ordine esecutivo non può sostituire un dibattito democratico né cancellare competenze tradizionalmente riservate agli Stati.
In effetti, Stati come California, Colorado, Minnesota e New York hanno già avviato o adottato normative sull’IA che affrontano temi concreti: tutela dei minori, trasparenza dei sistemi automatizzati, limitazioni all’uso di chatbot in ambiti sensibili, obblighi informativi verso i cittadini.
Dal punto di vista dei legislatori statali, è indubbio che l’assenza di una legge federale sull’IA abbia reso necessario un intervento locale per colmare un vuoto di tutela. In altre parole, non ci sarebbe alcuna una competizione normativa con Washington, in quanto la legislazione statale non rappresenta altro che una risposta pragmatica a rischi già manifesti: discriminazione algoritmica, uso improprio dei dati, diffusione di deepfake, impatti su lavoro e istruzione.
Critiche costituzionali: può un ordine esecutivo bloccare leggi statali?
Il nodo giuridico è forse il più delicato.
Negli Stati Uniti, la regolazione delle attività economiche e la tutela dei cittadini rientrano spesso nelle competenze concorrenti tra Stato federale e Stati membri.
In assenza di una legge federale che preveda espressamente la preemption, ovvero la prevalenza del diritto federale su quello statale, la possibilità di neutralizzare leggi locali tramite un ordine esecutivo appare quantomeno controversa.
Gli esponenti repubblicani, citati dalle fonti giornalistiche, più che esprimere perplessità sul merito della deregulation annunciata da Trump, dimostrano scetticismo sul metodo adottato: un ordine presidenziale non può infatti sostituire il Congresso né riscrivere l’equilibrio dei poteri previsto dal Decimo Emendamento.
Da questo punto di vista, l’iniziativa rischia di aprire un contenzioso costituzionale piuttosto che semplificare il quadro normativo.
In pratica, nel tentativo di ridurre l’incertezza regolatoria, l’amministrazione Trump potrebbe crearne una nuova, questa volta sul piano istituzionale.
Congresso diviso: quando la deregulation non trova una maggioranza
Anche se l’idea di limitare le leggi statali sull’IA non è nuova, finora non ha mai trovato una solida base legislativa.
Alcune fonti riportano come il recente tentativo di inserire in un disegno di legge federale (nello specifico, il National Defense Authorization Act) una clausola che avrebbe bloccato per un decennio le normative statali sull’IA, sia fallito e segnalano che l’idea di una preemption federale non ha finora trovato una solida base legislativa nemmeno all’interno del Congresso.
Questo elemento, spesso trascurato nel racconto mediatico, è in realtà cruciale: se neanche una maggioranza conservatrice riesce a convergere su una deregulation esplicita dell’IA, significa che il tema tocca sensibilità trasversali.
Da un lato, la difesa dell’innovazione e del libero mercato; dall’altro, la tutela dei cittadini e il rispetto dell’autonomia statale.
L’ordine esecutivo, in questo contesto, appare come una scorciatoia politica più che come una soluzione strutturale.
Big Tech: chi beneficerebbe davvero dell’ordine di Trump
Una parte della critica più esplicita ha sottolineato che la riduzione delle leggi statali sull’IA e la centralizzazione normativa rischiano di favorire soprattutto i grandi operatori tecnologici, che da tempo sostengono l’idea di un unico standard federale per evitare costi e incertezze derivanti dalle normative divergenti. Secondo The Guardian, i detrattori dell’ordine esecutivo sostengono che esso darebbe priorità agli interessi delle Big Tech e indebolirebbe le tutele per i consumatori e la società.
Se è vero che un quadro normativo meno frammentato è certamente auspicabile, è altrettanto vero che l’obiettivo potrebbe essere raggiunto solo se tale quadro fosse accompagnato da standard minimi di tutela. In assenza di questi, l’uniformità rischierebbe di tradursi in un abbassamento complessivo delle garanzie.
In questo modo, le grandi aziende, con risorse legali e capacità di lobbying, sarebbero le prime a beneficiare di regole leggere e centralizzate, mentre gli utenti e le comunità locali perderebbero la possibilità di incidere attraverso legislazioni mirate.
Per questo, alcuni commentatori, hanno parlato più o meno apertamente di “regalo alle Big Tech” mascherato da politica industriale e segnalato come l’ordine allineerebbe la politica statunitense agli interessi di Silicon Valley e investitori tech, mettendo in discussione le tutele regolatorie. Una lettura che, pur non unanimemente condivisa, trova riscontro nella mancanza di una proposta federale alternativa concreta.
Una scelta che conta anche per l’Europa
Il dibattito americano sull’IA non è isolato. In Europa, l’AI Act ha seguito però una strada opposta, e cioè quella della regolazione centralizzata, dettagliata e vincolante, costruita proprio per evitare frammentazioni nazionali.
La differenza è sostanziale rispetto all’iniziativa trumpiana. Nel modello europeo, l’uniformità è il risultato di un compromesso normativo che introduce obblighi, divieti e responsabilità; nel modello evocato da Trump invece, l’uniformità rischia di essere ottenuta per sottrazione, eliminando le regole esistenti senza sostituirle.
Per le aziende globali, questo doppio binario potrebbe tradursi in una crescente asimmetria regolatoria; per i decisori pubblici europei, rappresenterebbe un ulteriore banco di prova sulla tenuta del modello di governance dell’IA basato sul rischio e sulla tutela dei diritti fondamentali.
Standard federale o rinuncia alla governance dell’IA?
La questione sollevata dall’annuncio di Trump oltrepassa la contingenza politica.
Più che stabilire se le leggi statali sull’IA siano troppe o troppo severe, si tratta di decidere se la governance dell’intelligenza artificiale debba essere il risultato di un processo democratico, multilivello e trasparente.
Uno standard federale può essere una soluzione solo se esiste davvero. In sua assenza, limitare l’autonomia degli Stati rischia di tradursi in una sospensione della regolazione.
Peccato che nell’ecosistema dell’IA, l’assenza di regole non sia mai neutrale.
L’interrogativo che resta aperto è se gli Stati Uniti stiano costruendo una strategia di governo dell’intelligenza artificiale o semplicemente cercando di guadagnare tempo, lasciando che sia il mercato a decidere.













