Maggio 2026 segna una pietra miliare nella ridefinizione della dottrina militare americana: la fusione tra cybersicurezza, intelligenza artificiale e potere militare convenzionale smette di essere una visione strategica e diventa architettura operativa concreta.
Il Pentagono ha siglato accordi con otto grandi aziende tech, tra cui OpenAI, Google, Microsoft, SpaceX e Amazon, per integrare i loro modelli AI nelle reti classificate delle forze armate.
L’obiettivo dichiarato: fare degli Stati Uniti una forza militare “AI-first”, capace di mantenere superiorità decisionale su tutti i domini di guerra.
Nel frattempo, la Casa Bianca discute meccanismi di revisione governativa per i modelli AI ad alto rischio cibernetico, e l’Esercito chiede ai produttori di missili, radar e sistemi d’arma di aprire le proprie interfacce software per integrare agenti digitali in tempo reale.
Il Center for AI Standards and Innovation (CAISI) presso il NIST conferma nuovi accordi con Google DeepMind, Microsoft e xAI: collaborazioni industriali ampliate, con cui il CAISI condurrà valutazioni e ricerche mirate per migliorare lo stato della sicurezza in questo settore.
Indice degli argomenti
Codice e combattimento non sono più domini separati, ma un’unica architettura
La dottrina è chiara: “il rischio di non muoversi abbastanza velocemente supera il rischio di un’integrazione imperfetta.” Codice e combattimento non sono più domini separati. Sono un’unica architettura.
La cyber security non è più una funzione separata, ma è a pieno titolo considerata dal governo americano, una capacità di combattimento.
Non si tratta solo di difendere reti o impedire intrusioni: la sicurezza informatica diventa infrastruttura della superiorità decisionale e operativa.
Già a gennaio, il Dipartimento della Difesa aveva formalizzato una strategia “AI-first”, imponendo la distribuzione dei modelli più avanzati a tutti i livelli di classificazione entro 30 giorni dal rilascio pubblico.
I nuovi contratti includono clausole di lawful operational use, obbligando i fornitori ad accettare qualunque impiego giudicato legittimo dal Pentagono,
inclusi sistemi d’arma autonomi e attività di intelligence.
Oltre 1,3 milioni di dipendenti del Dipartimento della Difesa utilizzano già la piattaforma GenAI.mil, riducendo operazioni che richiedevano mesi a una questione di giorni.
L’intelligenza artificiale non è più un supporto analitico o da laboratorio: entra nella catena di comando, nell’intelligence, nel targeting e nella logistica.
I modelli approvati operano ora sulle reti classificate di livello IL6 e IL7, rispettivamente destinate a dati segreti e ai sistemi più riservati dell’intero apparato militare.
Se la velocità di deployment diventa il parametro guida, la cyber security deve garantire non solo la difesa, ma l’operatività continua dei modelli in ambienti classificati, assicurandone aggiornabilità e controllo.
Un’architettura che assicuri flessibilità di lungo periodo
Il confine tra strumento di difesa e arma non è mai stato così sottile. Quando un modello AI entra in un circuito classificato, può essere impiegato per analisi di intelligence, correlazione di dati sensibili e supporto decisionale in scenari di conflitto attivo.
Un sistema capace di individuare vulnerabilità, suggerire priorità tattiche o orchestrare sciami di sensori è, simultaneamente, elemento di sicurezza e di potenza bellica.
L’aver siglato l’accordo con i principali fornitori di tecnologie ha come obiettivo industriale la riduzione della dipendenza da un singolo attore, costruendo un’architettura che garantisca flessibilità di lungo periodo alla Joint Force.
Quando il Pentagono stringe accordi con Google, Microsoft, Amazon e OpenAI per far girare i loro modelli sulle reti classificate, lo presenta come una scelta pragmatica: diversificare i fornitori, evitare dipendenze, costruire un sistema più robusto.
Tuttavia, è lecito interpretare questa narrativa come “retorica della resilienza”.
Le tre implicazioni di questa strategia
Quello che accade sotto la superficie è altro. Queste aziende non producono tecnologia militare: producono infrastruttura digitale commerciale, cloud, modelli linguistici, sistemi di elaborazione dati, nata per usi civili e ora integrata nella catena di comando militare.
Il processo non è neutro: significa che le architetture su cui poggia l’economia digitale globale vengono progressivamente adattate, ottimizzate e vincolate alle esigenze operative delle forze armate.
Le implicazioni sono almeno tre.
Prima: le aziende che accettano clausole di lawful operational use rinunciano a definire autonomamente i limiti etici del proprio prodotto, di
fatto cedono quella sovranità al Pentagono.
Seconda: i modelli AI commerciali, addestrati su dati civili e distribuiti a miliardi di utenti, diventano anche strumenti di targeting, intelligence e supporto al combattimento. La stessa tecnologia, gli stessi pesi, due mondi
paralleli sempre meno separati.
Terza: l’infrastruttura cloud privata, i datacenter di Amazon, Google, Microsoft, diventa parte dell’apparato bellico americano, con tutto ciò che questo comporta in termini di geopolitica, vulnerabilità e responsabilità.
La resilienza, in questo senso, è reale.
Ma è anche una cornice narrativa che rende accettabile, e quasi inevitabile, una trasformazione molto più radicale: il fatto che l’industria tecnologica civile stia diventando, strutturalmente, un prolungamento dell’apparato militare.
L’Ucraina come fonte d’ispirazione
Una svolta arriva il 5 maggio, quando il Segretario dell’Esercito Dan Driscoll convoca i grandi della difesa, Boeing, Lockheed Martin, Palantir, Northrop Grumman, e lancia il programma “Right to Integrate“: ogni produttore di sistemi d’arma dovrà aprire le proprie interfacce software, permettendo a missili, droni e sensori di parlarsi in tempo reale.
L’ispirazione viene dall’Ucraina. Sul campo, l’apertura forzata delle API ha permesso di collegare droni, sensori e piattaforme di fuoco in un unico sistema modulare, a una velocità che nessuna architettura chiusa avrebbe potuto garantire.
Driscoll non usa mezzi termini: “Non possiamo più combattere attraverso sistemi disaggregati. Dobbiamo integrare alla velocità dell’informazione digitale, sfruttando AI agentica, sciami di droni e cyber weapons.”
Ma nessun comunicato stampa dice la cosa più importante: ogni interfaccia aperta è potenzialmente anche una porta per gli attaccanti.
E in un contesto di guerra, proprio queste porte potrebbero dare accesso agli attaccanti.
Un avversario sofisticato, come Russia, Cina, un qualunque altro gruppo APT statale, che riuscisse ad accedere a queste interfacce potrebbe causare seri danni.
Potrebbe iniettare dati falsi nel flusso sensoriale, facendo credere a un sistema automatizzato che un bersaglio sia altrove, o che una minaccia non esista.
Potrebbe degradare silenziosamente le comunicazioni tra droni e stazione di controllo, senza spegnerli, semplicemente rendendoli inaffidabili nel momento sbagliato.
Potrebbe studiare i pattern decisionali dei modelli AI integrati, imparando a prevedere e anticipare le risposte operative americane.
Nel caso estremo, potrebbe prendere il controllo di un’arma come un drone armato reindirizzandolo.
Pro e contro: ciò che rende veloce, rende l’esercito più fragile
L’integrazione totale che rende un esercito più veloce lo rende anche più fragile.
Vulnerabilità software, dipendenze di filiera e accessi non protetti smettono di essere problemi informatici. Diventano obiettivi militari.
Per questa ragione, la Casa Bianca valuta di introdurre un processo di revisione preventiva per i modelli AI ritenuti in grado di generare rischi di tipo cyber.
Secondo il Wall Street Journal, l’ipotesi in discussione è un ordine esecutivo focalizzato sulla sicurezza informatica che istituirebbe un gruppo di supervisione dedicato, incaricato di fissare standard e procedure per i cosiddetti frontier models.
I riflettori sono puntati su Mythos, il nuovo modello di Anthropic, capace, secondo fonti governative, di trovare vulnerabilità software con un livello di automatismo tale da aprire la strada a una potenziale “bugmageddon”, un’ondata di exploit diffusi su scala planetaria.
Vicepresidente J.D. Vance, Segretario al Tesoro Scott Bessent e Direttore Nazionale per il Cyber Sean Cairncross hanno incontrato più volte i vertici dell’industria per individuare regole e limiti comuni.
Sotto scrutinio sono i modelli capaci di individuare vulnerabilità su scala industriale e automatizzare attacchi complessi, una evidente minaccia per le infrastrutture critiche nazionali.
Il cambio di paradigma
Il ragionamento è semplice: un modello del genere, rilasciato senza controlli, potrebbe essere usato per attaccare reti elettriche, manipolare sistemi finanziari o sabotare catene di fornitura globali.
Non serve uno stato nazionale per farlo, basta un attore con le risorse
e il modello giusto.
È un cambio di paradigma profondo. Fino a ieri, la sicurezza dell’AI significava evitare che un modello producesse contenuti pericolosi o rispondesse a domande sbagliate.
Oggi il problema è diverso e più radicale: alcuni modelli sono così evoluti da alterare l’equilibrio stesso tra attacco e difesa digitale.
Chi li controlla ha un vantaggio strutturale. Chi non li governa, espone l’intera infrastruttura digitale a un rischio sistemico.
Il messaggio che arriva da Washington è chiaro: la competizione strategica del XXI secolo si gioca sulla capacità di integrare AI, dati e sistemi d’arma più velocemente dell’avversario.
Chi controlla i modelli, le interfacce e i dati classificati controlla il vantaggio
operativo.
Una domanda per Europa e Italia
Per Europa e Italia questo pone una domanda scomoda: in un ecosistema in cui i grandi fornitori di cloud,
AI e software difensivo sono quasi tutti americani, che cosa significa davvero sovranità tecnologica? Non si tratta solo di produrre chip o finanziare startup.
Si tratta di decidere chi ha accesso alle infrastrutture digitali su cui poggia la difesa, chi può aggiornare i modelli in uso nelle reti classificate, e chi stabilisce le regole di ingaggio del software in tempo di crisi.
Finché queste domande restano senza risposta, la sovranità tecnologica europea rimane una dichiarazione di intenti.
Washington, nel frattempo, sta costruendo l’architettura.
Siamo dinanzi ad una trasformazione culturale e della dottrina militare: la sicurezza informatica e l’IA sono parti integranti della kill chain digitale.
Gli Stati Uniti non si stanno preparando alla guerra ibrida: la stanno ridefinendo dall’interno, algoritmo per algoritmo.
Il software è diventato dominio operativo, e la velocità di aggiornamento del codice conta quanto la potenza di fuoco.
Il vantaggio strategico dell’AI nella catena di comando
Israele ha già dimostrato che il vero vantaggio strategico non sta in una singola piattaforma, ma nella capacità di integrare industria, forze armate e campo di battaglia in un unico ciclo continuo di sviluppo e adattamento.
Un modello collaudato sotto fuoco reale, che oggi altri eserciti studiano e replicano.
La Cina procede con metodo: centinaia di documenti analizzati da Reuters descrivono l’integrazione sistematica di modelli AI nell’Esercito Popolare di Liberazione, dal riconoscimento autonomo degli obiettivi al supporto decisionale in tempo reale sul campo.
Non un esperimento, ma una dottrina già operativa. In questo scenario, l’Europa rischia di restare intrappolata tra regolamentazione e
dipendenza tecnologica, senza riuscire a costruire una traiettoria propria. Osservare non basta più. Occorre costruire autonomia industriale, capacità di valutazione indipendente e controllo operativo lungo tutto il ciclo digitale della difesa.
Chi non lo fa adesso, potrebbe non avere più la possibilità di farlo in condizioni di parità.












