conflitto iran

LLM in guerra: il Pentagono aprirà alle aziende la possibilità di training AI con dati riservati



Indirizzo copiato

I modelli di IA generativa utilizzati in ambienti riservati sono in grado di rispondere alle domande, ma al momento non imparano dai dati che analizzano. La situazione potrebbe cambiare presto. Ecco perché il Pentagono sta pianificando di consentire alle aziende specializzate in AI di addestrare i propri modelli utilizzando dati riservati

Pubblicato il 19 mar 2026

Laura Teodonno

Senior Security & Osint Analyst, Hermes Bay

Tommaso Diddi

Analista Hermes Bay



LLM guerra

L’integrazione dei modelli di intelligenza artificiale generativa (GenAI) nelle operazioni militari e di intelligence degli Usa sta attraversando una fase di accelerazione senza precedenti.

Il Pentagono sta discutendo piani per creare ambienti sicuri in cui le aziende sviluppatrici di modelli linguistici di grandi dimensioni possano addestrare versioni militari dei propri sistemi su dati classificati, come riportato da MIT Technology Review sulla base di fonti informate dei piani del Dipartimento della Difesa.

Si tratta di un passaggio qualitativo rispetto all’uso già consolidato di questi strumenti in ambito governativo: non più soltanto interrogare un modello su informazioni riservate, ma consentirgli di apprendere direttamente da esse, incorporandole nella propria struttura interna.

Le implicazioni operative, di sicurezza e geopolitiche di questa transizione sono di portata considerevole.

LLM e guerra in Iran, a che punto siamo

Per comprendere la portata di questa evoluzione è necessario distinguere tra due modalità d’uso dell’intelligenza artificiale in contesti sensibili. Nella prima, già ampiamente praticata, un modello preaddestrato viene interrogato all’interno di un ambiente classificato: le risposte vengono generate sulla base di conoscenze acquisite durante la fase di addestramento su dati pubblici, eventualmente integrate con documenti riservati forniti come contesto della singola sessione.

Le informazioni riservate, in linea di principio, non dovrebbero modificare il modello, restano nel perimetro della sessione e non si trasmettono all’esterno.

Nella seconda modalità, quella ora in discussione al Pentagono, il modello si addestra direttamente su dati classificati: rapporti di sorveglianza, valutazioni di obiettivi militari, documenti di intelligence.

Queste informazioni non rimangono confinate a una sessione, ma vengono assorbite nella struttura parametrica del modello stesso, diventando parte integrante della sua base di conoscenza.

Le collaborazioni con Anthropic e gli altri

Modelli come Claude di Anthropic sono già impiegati in ambienti classificati per rispondere a quesiti operativi, inclusa l’analisi di obiettivi in scenari di conflitto attivo.

Il Dipartimento della Difesa ha avviato collaborazioni con OpenAI e con xAI di Elon Musk per l’utilizzo dei rispettivi modelli in contesti governativi e, secondo reporting successivi, anche in ambiti riservati, e la spinta all’adozione è stata rafforzata da un memorandum del Segretario alla Difesa Pete Hegseth emanato nel gennaio 2026, che delineava l’ambizione di trasformare le forze armate americane in una struttura orientata all’intelligenza artificiale come priorità operativa.

In questo quadro, l’addestramento su dati classificati rappresenta il passo successivo logico: rendere i modelli non solo strumenti di consultazione, ma sistemi capaci di svolgere autonomamente compiti analitici che oggi richiedono operatori umani specializzati.

Il salto dall’uso in sessione all’addestramento diretto apre scenari di rischio che non esistevano nella configurazione precedente.

Il più critico, secondo Aalok Mehta, direttore del Wadhwani AI Center presso il Center for Strategic and International Studies ed ex responsabile delle politiche sull’AI per Google e con precedenti responsabilità di policy domestica presso OpenAI, riguardala possibilità che informazioni classificate, assorbite durante l’addestramento, vengano successivamente riprodotte dal modello a utenti che non avrebbero diritto ad accedervi.

Si consideri un modello che, nel corso dell’addestramento, abbia elaborato documenti contenenti l’identità di una fonte umana infiltrata in un’organizzazione avversaria: quel dato, incorporato nella struttura del modello, potrebbe in linea teorica emergere in risposta a una query di un operatore di un dipartimento con un livello di classificazione inferiore. Il danno operativo e per l’incolumità della fonte sarebbe immediato e difficilmente rimediabile.

Una sfida ancora aperta per gli LLM

Il problema della compartimentazione dell’informazione, principio cardine dell’intelligence tradizionale, si scontra con la natura intrinseca dei modelli linguistici di grandi dimensioni: isistemi LLM non archiviano i dati come farebbe un database relazionale, separando e isolando ciascuna informazione in una struttura definita.

Apprendono invece rappresentazioni distribuite del linguaggio e dei concetti, dove le informazioni si intrecciano e si influenzano reciprocamente in modi non sempre prevedibili né controllabili con precisione.

Implementare politiche di accesso differenziate su un sistema di questo tipo rappresenta una sfida ancora aperta nella ricerca sulla sicurezza dei modelli.

I rischi degli LLM in guerra

Sul versante opposto, il rischio di esposizione dei dati classificati all’esterno del perimetro militare o trasmessi alle aziende sviluppatrici è ritenuto gestibile con le infrastrutture già esistenti.

Diverse società hanno costruito ambienti sicuri, accreditati per la gestione di
informazioni riservate, in cui i modelli operano in isolamento rispetto alle reti pubbliche: query e risposte restano nel perimetro classificato senza transitare sui server delle aziende.

L’addestramento in ambienti analoghi è tecnicamente fattibile e il Pentagono prevede, secondo alcune ricostruzioni, di valutare preliminarmente l’efficacia dei modelli su dati non classificati, come immagini satellitari commerciali, prima di procedere con materiale riservato.

La prospettiva

L’escalation dell’uso militare dell’intelligenza artificiale generativa si inserisce in un contesto geopolitico caratterizzato da tensioni crescenti, in cui la velocità di elaborazione delle informazioni e la capacità di prendere decisioni in tempi ridotti sono percepite come vantaggi competitivi determinanti.

L’AI generativa ha già trovato impiego, secondo alcune ricostruzioni giornalistiche, in funzioni di combattimento attivo per classificare liste di obiettivi e formulare raccomandazioni su quali colpire per primi, nonché in ruoli amministrativi come la redazione di contratti e rapporti operativi.

La prospettiva di modelli addestrati su decenni di intelligence classificata che operano come analisti autonomi estende questa logica al livello dell’elaborazione strategica, non solo tattica.

guest

0 Commenti
Più recenti
Più votati
Inline Feedback
Vedi tutti i commenti

Articoli correlati

0
Lascia un commento, la tua opinione conta.x