Nella guerra in Iran è sceso in campo il soldato Claude, l’AI di Anthropic, nonostante il rifiuto di Anthropic di concedere al Dipartimento della Guerra (ex Difesa) statunitense l’accesso illimitato ai propri modelli, cui era seguito un ordine presidenziale di Trump, disatteso, di usare l’intelligenza artificiale della società fondata dai fratelli italoamericani Dario e Daniela Amodei.
Il Pentagono aveva chiesto di usare modelli AI privi di restrizioni, ma Anthropic aveva opposto resistenza. A quel punto, è intervenuto il presidente Donald Trump con l’ordine presidenziale di troncare ogni rapporto con Anthropic, definita “un’organizzazione di estrema sinistra” e dunque “un rischio per la sicurezza nazionale”.
Tuttavia, secondo il Wall Street Journal, il Pentagono avrebbe ignorato l’ordine e sfruttato l’intelligenza artificiale dell’azienda di San Francisco guidata da Dario Amodei per supportare i raid Usa negli attacchi contro l’Iran.
Claude è integrato nel software di Palantir di Peter Thiel, guidata dal Ceo Alexander Karp, e già era servito nell’operazione Absolute Resolve culminata con la cattura di Maduro in Venezuela, non solo in fase di preparazione, ma anche nella fase esecutiva dell’attacco.
Gli avvenimenti recenti “rappresentano un salto di paradigma nell’uso dell’intelligenza artificiale in contesti di guerra. Non si è trattato solo di potenza cinetica ma di una superiorità decisionale cibernetica”, scrive su Cybersecurity.it Gaetano Percuoco, innovazione e cyber security della CDA Consulting.
“Prima di tutto, è necessario chiarire che non c’è stato uso di IA in ‘armi autonome’, che è uno dei due ‘guardrail’ su cui Anthropic ha deciso di non concedere al DoW“, commenta Alessandra Russo, PhD in Istituzioni e Politiche (Relazioni Internazionali) all’Università Cattolica del Sacro Cuore di Milano.
Secondo Alessandro Curioni, Fondatore di DI.GI Academy, specializzato in Information Security & Cybersecurity, “se un ordine politico viene disatteso nel giro di poche ore, la prima questione non è tecnologica, ma istituzionale”.
Ecco cosa sappiamo e quali sono le questioni in gioco.
Indice degli argomenti
Il soldato Claude va in guerra: le questioni in gioco
La messa al bando dell’AI Claude di Anthropic, decisa dal presidente Donald Trump, le forze armate degli Stati Uniti hanno fatto ricorso all’uso dell’intelligenza artificiale bandita per sferrare un’imponente operazione militare in Iran che, secondo Trump, dovrebbe durare 4-5 settimane.
L’operazione israelo-americana, che rischia di trasformarsi in una guerra regionale dopo l’attacco dell’Iran contro i civili (a Dubai e nei Paesi del Golfo) e contro le infrastrutture critiche (siti di raffinazione del petrolio in Arabia Saudita, depositi di gas liquefatto Gln nel Qatar, petroliere ombra russo-iraniane nello Stretto di Hormuz ormai chiuso: infatti il petrolio segna +10%, gas + 28% e Gln +45%), sta entrando nel vivo e vede protagonista Claude di Anthropic. Il “soldato” Claude.
I militari avevano chiesto di eliminare le “restrizioni etiche” (o meglio tecnologiche) di Claude, in particolare adversarial training, adversarial fine-tuning, filtri sugli output, quelle “misure necessarie per rendere un modello AI più robusto contro la manipolazione”, spiega l’esperta cyber e collaboratrice di The Outlook di CyberSecurity360, Alessia Valentini, sul suo post su LinkedIn. Ma, aggiunge Valentini, “toglierle non lo rende più potente, lo rende più esposto ad errori e ad attacchi del nemico”.
Quelle misure sono “paletti” o guardrail per la protezione affidabile di un’intelligenza artificiale, mentre un’AI ad alto privilegio risulta indifendibile, soprattutto adoperando difese perimetrali tradizionali.
L’ordine disatteso di Trump
“Se un ordine politico viene disatteso nel giro di poche ore, significa che la tecnologia non è più un semplice strumento”, sottolinea Alessandro Curioni, “ma un’infrastruttura già integrata nei processi decisionali e non la si spegne con un comunicato. perché il tempo della tecnologia non coincide con il tempo della politica“.
“Un divieto può essere emanato in ore; l’integrazione di un sistema di IA nei processi di intelligence richiede mesi, È come ordinare di togliere l’elettricità da un ospedale nel mezzo di un intervento chirurgico: si può firmare il decreto, ma nessuno spegne la luce. Ma c’è un secondo livello, più sottile”, evidenzia Curioni. Ecco quale.
L’AI nei raid Usa in Iran
Secondo fonti prossime al Pentagono, sempre riportate dal Wall Street Journal, il Comando Centrale degli Stati Uniti (Centcom), l’organismo dedicato al coordinamento delle operazioni militari americane in Medio Oriente e Asia centrale, avrebbe sfruttato Claude per per la gestione di alcune operazioni, per:
- valutare l’intelligence in tempo reale;
- identificare i bersagli;
- simulare i possibili scenari tattici “what-if” in real-time nel corso dei raid prima di far decollare i bombardieri.
“Per quanto riguarda l’uso che è noto dei modelli di Anthropic nell’operazione Epic Fury, è stato per effettuare analisi di dati di intelligence, identificazione/ prioritizzazione dei bersagli e simulazioni di scenari di battaglia per aiutare la fase di planning”, sintetizza Alessandra Russo.
Non si tratta di un supporto irrilevanti, ma non ha neanche superato uno dei due guardrail.
“Se si impiega un modello di IA per valutare intelligence e simulare scenari di battaglia, non stiamo parlando di un supporto marginale“, avverte Curioni: “Stiamo parlando di un sistema che entra nel ciclo decisionale. E quando l’IA entra nel ciclo decisionale militare, la questione non è più ‘usarla o non usarla’, machi ne governa i parametri, le soglie, le dipendenze. In altre parole: chi tiene il timone“.
Questo ci porta a un aspetto meno discusso, quello della delega cognitiva. “Se si usa un modello per identificare target o simulare scenari di battaglia, non stiamo parlando di un calcolatore neutrale, ma di una macchina che suggerisce priorità, riduce l’incertezza e se aumenta la fiducia nel mezzo, si accorcia la distanza tra accettare un suggerimento e delegare una decisione. È un processo silenzioso, ma potente”, mette in evidenza Curioni.
La scalata di Claude sull’App Store
Secondo SensorTower, a fine gennaio Claude sfiorava la top 100, per entrare nella top 20 a febbraio. Ma sabato sera ha messo la freccia su ChatGPT di OpenAI, guadagnando la prima posizione nella classifica delle app gratis dell’App Store americano.
Il balzo di Claude sul marketplace di Apple è avvenuto con l’escalation del braccio di ferro e il Dipartimento della Guerra dell’amministrazione Trump.
Sms anonimi e flussi sulle cripto verso Teheran: cosa succede
La guerra in Iran giunge dopo giorni di minacce e sospetti, mentre fallivano i negoziati sul nucleare a Ginevra.
Un messaggio conciso, dal tono deciso e minacciosa e dall’origine ignota, ha fatto la sua comparsa pochi giorni sui telefonini di migliaia di cittadini iraniani. Recitava: “Il presidente degli Stati Uniti è un uomo d’azione. Aspettate e vedrete”.
Inoltre, secondo il New York Times, sulla piattaforma di criptovalute Binance sarebbero passate transazioni di criptovalute, per trasferire importi significativi verso gruppi legati a Teheran.
Da un’indagine interna è emerso l’accesso all’exchange da oltre 1.500 account attribuibili a utenti iraniani. Su almeno due conti le transizioni avrebbero complessivamente totalizzato una cifra pari a circa 1,7 miliardi di dollari verso entità supportate dall’Iran tra il 2024 e il 2025, tra cui i ribelli Houthi nello Yemen. Altri proxy dell’Iran sono Hamas a Gaza e Hezbollah in Libano.
A causa delle sanzioni occidentali, Teheran ha cercato alternative come le criptovalute per bypassare le restrizioni bancarie e commerciali.
Cosa insegna il caso dell’AI di Anthropic usata nella guerra in Iran
Il divorzio fra la società dei fratelli Amodei e il Pentagono è giunto a poche ore dall’inizio della guerra in Iran. Ma, bypassando l’ordine esecutivo di Trump, l’uso di Claude ha aiutato l’attacco all’Iran, come i droni economici hanno roivoluzionato la guerra in Ucraina.
“Questa vicenda non dimostra tanto che si ignorano i divieti, ma qualcosa di più scomodo:l’intelligenza artificiale è già troppo intrecciata in certi processi critici per essere trattata come un optional. Si può discutere di opportunità, si possono aprire inchieste, si possono rinegoziare contratti”, mette in guardia Alessandro Curioni.
Secondo siti di analisi militari, non solo il Pentagono ha usato Claude, ma anche Project Maven, un sistema di computer vision per analizzare immagini satellitari, realizzata da Google nel 2017, ma poi sviluppata da Palantir che, dopo il ritiro della società di Mountain View (per questioni etiche e proteste dei dipendenti contrari a creare software per i militari), ne ha preso la titolarità.
“Nonostante gli annunci di venerdì, c’è un phase-out di Anthropic che durerà qualche mese, anche perché i modelli di Anthropic sono embedded nel Maven Smart System (il sistema sviluppato con Palantir), che il DOW usa nelle sue operazioni”, conferma Alessandra Russo.
Fonti militari riferiscono che l’installazione di Claude è in tutti i sistemi IT dei “comandi militari di tutto il globo, incluso il comando centrale Usa per il Medio Oriente (Centcom).
La partita dell’AI nel campo di battaglia
A seguito del bando di Anthropic, il Pentagono sta siglando un accordo multimilionario con OpenAI (ChatGPT) per rimpiazzare i modelli di Claude, tuttavia la sostituzione richiederà mesi.
Le Nazioni Unite intanto definiscono l’impiego di modelli IA civili in operazioni di bombardamento come un “precedente pericoloso” dove sfuma la frontiera tra tecnologia commerciale (in mano ad aziende private) e strumenti letali.
“L’idea di tornare a un mondo pre-IA in ambito militare è un’illusione retrospettiva. La tecnologia, quando diventa vantaggio competitivo o strategico, tende a sopravvivere ai divieti e più cresce la competizione geopolitica, più la tentazione di usarla prevale sulla prudenza di sospenderla“, conclude Alessandro Curioni.
I precedenti: l’AI di Anthoropic e Palantir in guerra, dall’Ucraina a Gaza
“L’uso dell’IA in guerra è pervasivo nelle forze armate e lo abbiamo visto in modo plastico con Israele dopo il 7 ottobre 2023 con The Gospel e Lavender, ma anche la guerra in Ucraina ci da molti esempi. Lo stesso Maven Smart System è stato fornito alle forze ucraine e ha potuto fruire di on the ground testing & refinement”, spiega Alessandra Russo.
“Questi sistemi sono impiegati per velocizzare e (nella teoria) rendere più precisi i processi decisionali attraverso l’analisi di enormi quantità di dati da più fonti di intelligence per l’ottenimento di ‘actionable intelligence’, ovvero target e piani pronti da implementare; e tendenzialmente il processo avviene con un framework di human in the loop, al più human on the loop“, aggiunge Alessandra Russo.
Continua Alessandra Russo: “I problemi sono intrinseci ai sistemi e all’uso che se ne fa (poco sorprendentemente):
- I sistemi sono proni ad errori e inaccuratezze non verificabili ex post per via della loro natura a “scatola nera”, quindi se qualcosa va storto non è possibile fare reverse-engineering per capire dove sia avvenuto il problema
- sono vulnerabili ad attacchi esterni e a ogni livello: data e model poisoning, attacchi avversari, prompt injection;
- l’IA funziona bene in domini discreti e formalizzati: in guerra può essere si un formidabile supporto, ma è documentato che soprattutto in situazioni di sovraccarico cognitivo gli esseri umani siano proni all’automation bias, ovvero a prendere per buono l’output del sistema senza dovute verifiche. È un fenomeno molto documentato sia in aviazione civile sia in ambito militare. Inoltre, come nel caso israeliano, se si alza la soglia di ciò che è accettabile come ‘errore’ si rischia di causare danni e vittime evitabili. Non che sia un problema solo dell’IA, ma viene sicuramente aumentato”.
Quindi, rimanendo nel perimetro degli impieghi noti nell’attacco all’Iran, “quello che ci si auspica è che l’uso di questi sistemi avvenga con la consapevolezza dei rischi che questo comporta. Se c’è supervisione umana l’IA è uno strumento potentissimo per ottenere superiorità informativa e di consapevolezza situazionale, e soprattutto velocità nelle decisioni (informate) che è fondamentale per mantenere momentum e vantaggio sul nemico”.











