guerra e cyber

L’AI nella kill chain: i vantaggi e le perplessità nella guerra in Iran



Indirizzo copiato

Il numero di oltre 2.000 obiettivi iraniani, vittime di attacco per mano americana in soli quattro giorni, dimostra la maggiore rapidità ed efficacia degli strumenti AI rispetto ai sistemi tradizionali guidati dall’uomo. Ecco i motivi della dilagante diffusione dell’AI in ambito militare e come funziona Maven di Palantir nel conflitto contro l’Iran

Pubblicato il 18 mar 2026

Marco Santarelli

Analista Investigativo su reti informative e sicurezza internazionale



AI nella kill chain

L’intelligenza artificiale sta prendendo sempre più piede in campo militare e gli Usa ne stanno facendo largo uso nell’attuale guerra in Medio Oriente contro l’Iran.

Gli oltre 2.000 obiettivi iraniani già colpiti dal Pentagono in quattro giorni mostrano la maggiore rapidità ed efficacia degli strumenti AI rispetto ai sistemi tradizionali guidati dall’uomo.

AI e decision making

Continua l’ascesa dell’intelligenza artificiale come arma bellica all’avanguardia, rapida ed efficace.

La guerra che si sta combattendo in Medio Oriente tra Usa e Iran sta facendo emergere un nuovo modo di prendere decisioni sul campo di battaglia da parte statunitense che sfrutta, appunto, l’intelligenza artificiale, tecnologia in continua evoluzione, per colpire in maniera mirata e veloce i suoi obiettivi.

Lo dimostra il numero di oltre 2.000 obiettivi iraniani che sono stati vittime di attacco per mano americana in soli quattro giorni.

Il ritmo serrato mette in evidenza la capacità degli strumenti di intelligenza artificiale di setacciare i flussi di dati di intelligence provenienti da droni, satelliti ed altri sensori e di colpire molto più precisamente e rapidamente rispetto alla tradizionale pianificazione guidata dall’uomo.

È la prima volta che modelli di AI generativa all’avanguardia vengono utilizzati in guerra con strumenti di AI ampiamente diffusi tra i civili per supportare i comandanti nell’interpretare i dati, pianificare le operazioni e avere feedback in tempo reale durante i combattimenti.

Vantaggi e perplessità

L’intelligenza artificiale è entrata a far parte dell’arsenale del Dipartimento della Difesa degli Usa già da un paio d’anni. Il sistema operativo principale per i dati del Pentagono è il Maven Smart System di Palantir, che insieme al modello Claude di Anthropic, forma un pannello di controllo per l’analisi dei dati in tempo reale per le operazioni in Iran.

La piattaforma Maven di Palantir funge da “cervello” software durante un’operazione militare in tempo reale. Come ha affermato il responsabile di Palantir per il Regno Unito e l’Europa, Louis Mosley, “il motivo per cui i modelli all’avanguardia sono così importanti – il cambiamento tecnologico dell’ultimo anno e mezzo – è che sono passati dalla sintesi al ragionamento”, ossia riescono a considerare un problema un passo alla volta, portando a un “enorme balzo in avanti nel volume delle decisioni e nella velocità con cui [il personale militare] può prendere tali decisioni” durante complesse operazioni di guerra.

I dubbi e le perplessità sulla supervisione di questi sistemi

Non mancano, ovviamente, dubbi e perplessità sulla supervisione di questi sistemi, come emerso già dalla recente disputa tra Anthropic e il Pentagono proprio in merito ai limiti dell’intelligenza artificiale ad uso militare.

Anthropic, azienda fondata nel 2021 con sede a San Francisco, è stata la prima società di AI a fare contratti da centinaia di milioni di dollari con il Pentagono per la gestione di documenti secretati e legati alla sicurezza nazionale, per questo i suoi sistemi sono usati da numerosi fornitori dell’esercito statunitense, integrati direttamente nei loro servizi o utilizzati per svilupparli.

Rispetto ad altri colossi del settore tecnologico che sviluppano strumenti di
intelligenza artificiale, come Meta, Alphabet e OpenAI, Anthropic si è sempre distinta per una maggiore attenzione ai dati degli utenti e cautele nello sviluppo di sistemi che potrebbero essere pericolosi per la collettività, tra cui l’applicazione dell’AI su armi autonome sul campo di battaglia.

Rischi letali: il caso del bombardamento della scuola in Iran

Il bombardamento di una scuola elementare femminile a Minab, nel sud dell’Iran, potrebbe rappresentare un esempio dei rischi letali che questi strumenti autonomi possono portare con sé, anche se non è stato ancora chiarito il reale coinvolgimento di sistemi di intelligenza artificiale nell’operazione.

Secondo quanto riportato dal Financial Times, Jessica Dorsey, che studia l’uso dell’AI e del diritto umanitario internazionale all’Università di Utrecht, sostiene che “se guardiamo alla campagna contro l’ISIS, la coalizione ha colpito circa 2.000 obiettivi nei primi sei mesi della campagna in Iraq e Siria […] Ora confrontiamo questo dato con i resoconti su questa campagna, dove lo stesso numero di attacchi [da parte degli Usa] è avvenuto solo nei primi quattro giorni. Ciò illustra la portata e la velocità dell’esecuzione degli obiettivi”.

La Società della Mezzaluna Rossa della Repubblica Islamica dell’Iran, organizzazione umanitaria iraniana non governativa, parla dioltre 20.000 edifici non militari colpiti da Usa e Israele, di cui 17.353 residenziali.

L’AI nella kill chain

Gli strumenti di intelligenza artificiale supportano l’intera kill chain, così come viene chiamata, la catena di uccisione, dall’individuazione e identificazione dell’obiettivo, passando per la definizione delle priorità dell’obiettivo e la selezione dell’arma appropriata, fino alla valutazione dei danni di guerra e all’attacco.

È quello che sta facendo la piattaforma Maven di Palantir in Iran nell’Operazione Epic Fury.

In passato le kill chain prevedevano la produzione di una serie di documenti, che venivano poi esaminati e approvati o meno dal comandante di alto rango, in un lasso di tempo che andava da ore a giorni in alcuni casi.

Oggi, invece, con l’intelligenza artificiale, quei giorni e quelle ore si sono ridotti in minuti e addirittura in secondi.

Tutto avviene in maniera quasi istantanea, con il rischio, come probabilmente nel caso del bombardamento della scuola elementare di Minab, di incorrere in obiettivi non vagliati in maniera adeguata.

Come ha dichiarato Sophia Goodfriend, ricercatrice nel campo della tecnologia e delle forze armate presso l’Università di Cambridge, l’intelligenza artificiale che abbiamo a disposizione oggi, “supera qualsiasi cosa abbiamo visto in passato e consente alle forze armate di operare con una velocità e una portata senza precedenti nell’individuazione di obiettivi aerei”.

La dilagante diffusione dell’AI in ambito militare

Se il sistema Maven aveva più di 20.000 utenti in 35 entità militari sul campo, oggi, per i ricercatori della difesa negli Usa si è arrivati a quasi 50.000 utenti, con la NATO che ha aderito all’uso di Maven lo scorso anno.

Altre forme di intelligenza artificiale, incluse la navigazione autonoma e la visione artificiale, trovano utilizzo negli ultimi anni anche nelle zone di guerra in Iran, Gaza e Ucraina.

Fabian Hoffmann, esperto di missili presso l’Oslo Nuclear Project, ha affermato che è possibile che il software di riconoscimento delle immagini basato sull’AI stia aiutando Israele e gli Usa a identificare rapidamente i lanciatori di missili balistici ed altre risorse, analizzando le riprese dei droni di sorveglianza.

In questo modo, il processo è diventato più semplice e veloce, con una garanzia maggiore di successo nel colpire i lanciatori iraniani.

guest

0 Commenti
Più recenti
Più votati
Inline Feedback
Vedi tutti i commenti

Articoli correlati

0
Lascia un commento, la tua opinione conta.x