Nell’arco dello scorso anno gli Stati Uniti hanno portato avanti un’innovativa operazione di spionaggio nelle acque del Pacifico, in particolare al largo della Corea del Sud, delle Filippine, dell’India e dell’Indonesia, utilizzando a bordo di tre navi un’Intelligenza Artificiale generativa per raccogliere e interpretare informazioni.
Si è trattato di un’esercitazione che ha coinvolto circa 2.500 membri dei servizi della 15th Marine Expeditionary Unit e che ha sperimentato per la prima volta l’utilizzo di strumenti di LLM.
Secondo il Pentagono l’esperimento è stato un successo, tanto da prevedere ingenti finanziamenti per progetti di questo tipo. Si sono sollevate però anche delle perplessità circa la precisione di questi sistemi, inseriti in processi decisionali molto delicati.
Indice degli argomenti
La sperimentazione di Vannevar Labs
L’azienda di tecnologia della difesa al centro di questa sperimentazione è la Vannevar Labs, fondata nel 2019 da specialisti con esperienza pregressa nei servizi segreti statunitensi e che offre ai propri clienti un accesso semplice all’enorme e varia quantità di dati che Vannevar raccoglie dal 2021 in diverse modalità, dall’intelligence open source, ai rapporti provenienti da sensori che monitorano le onde radio, passando per informazioni fornite da operatori umani sul campo.
L’azienda dichiara di raccogliere ogni giorno terabyte di dati provenienti da 180 Paesi e l’obiettivo di fornire tali informazioni in maniera agevole e comprensibile è raggiunto grazie all’impiego di modelli linguistici di intelligenza artificiale.
Vannevar Labs utilizza sia modelli già esistenti come quelli sviluppati da OpenAI e Microsoft, sia creandone di propri realizzati su misura, ma sempre dotati di un’interfaccia chatbot con la quale è possibile avere conversazioni simili a quelle umane.
I modelli dell’esercito americano
Quest’ultima caratteristica in particolare distingue gli strumenti impiegati nell’esercitazione in oggetto dai modelli di computer vision e strumenti di IA sviluppati in passato dall’esercito americano, come quelli utilizzati dal 2017 nel Project Maven, strumento di intelligenza artificiale del Dipartimento della Difesa progettato per elaborare immagini e video full-motion dai droni e rilevare automaticamente potenziali bersagli.
I modelli linguistici di grandi dimensioni potrebbero risolvere il problema di gestire e analizzare le immense quantità di dati per la guerra e la sorveglianza. Scott Philips, chief technology officer di Vannevar Labs afferma che la mission dell’azienda consiste nel raccogliere e dare un senso ai dati per poter aiutare gli Usa a prendere buone decisioni.
L’interpretazione dei dati: i timori fuori dal Pentagono
A preoccupare maggiormente gli esperti esterni al Pentagono è proprio l’aspetto di interpretazione dei dati di questi modelli di IA.
Heidy Khlaaf, scienziata presso l’AI Now Institute, dichiara che gli LLM sono altamente imprecisi e che, nonostante si inserisca l’elemento umano nel processo di controllo dei risultati, dato che quei risultati sono forniti sulla base di migliaia di dati raccolti e analizzati, non sarebbe possibile per un essere umano vagliare quella quantità di informazioni per capire se il prodotto finale è corretto o meno.
Inoltre, a destare preoccupazione è anche il fatto che i dati open source sono molto gravemente suscettibili a campagne di disinformazione e manipolazione. Per Chris Mouton, ingegnere senior di RAND Corporation, think tank statunitense finanziata dal Dipartimento della Difesa, la questione aperta circa questi modelli di IA riguarda lo scopo per i quali verranno utilizzati.
Si tratterà di un ulteriore strumento di indagine insieme ai tanti che gli analisti già utilizzano o li si sfrutterà per produrre analisi su cui fare diretto affidamento nei processi decisionali? È importante risolvere la questione soprattutto per quell’ambito di analisi che riguarda il sentiment, vale a dire l’attività di identificare, estrarre e interpretare opinioni dal testo.
Se da una parte, infatti, Philips sostiene che i modelli di IA dell’azienda Vannevar siano in grado di giudicare se un articolo è favorevole o meno agli Usa, Khlaaf sottolinea quanto un’analisi di quel tipo sia difficile anche per gli esseri umani, essendo una metrica altamente soggettiva.
I rischi dell’uso dell’IA per lo spionaggio militare
Il rischio che si delinea sarebbe quello di segnalare come ostili contenuti che in realtà non lo sono e prendere decisioni che aggravino situazioni di tensione senza che ce ne sia la reale necessità.
Dello stesso parere sembrerebbe anche Mouton, il quale ha testato la capacità di alcuni modelli di riconoscere contenuti stranieri come propaganda. I risultati hanno confermato l’incapacità dell’IA di riconoscere le forme più sottili ma l’autore riconosce che potrebbero essere utili in molti altri compiti di analisi.
Imperfezioni accettabili in nome dell’efficienza
In discussione è dunque capire quali imperfezioni sono accettabili in nome dell’efficienza. Nell’esercito statunitense ci sono sicuramente voci entusiaste per l’uso dell’IA con interfaccia chatbot, da chi la utilizza per tradurre e riassumere testi in lingua straniera, come testimonia il capitano Kristin Enzenauer, a chi si fa aiutare nella scrittura dei rapporti giornalieri e settimanali da inviare ai comandanti, come il capitano Will Lowdon.
A convincere gli ufficiali è soprattutto la velocità delle operazioni svolte dall’intelligenza artificiale che risultano molto più efficienti in situazioni dinamiche.
L’apparato di Intelligence statunitense è stato infatti inondato per anni da una quantità di dati superiore a quella che gli analisti umani sono in grado di analizzare.
Il contratto fra Vannevar Labs e il Pentagono
Gli strumenti di Vannevar sono il frutto di un contratto che l’azienda ha stipulato con la Defense Innovation Unit del Pentagono a novembre del valore di 99 milioni di dollari. E si sono rivelati estremamente utili nell’attività di spionaggio svolta nel Pacifico, durante la quale a fare la differenza è stata la velocità con cui i dati sono stati interpretati e analizzati, nonostante il fatto che le navi avessero connessioni internet discontinue, rallentando la capacità di sintetizzazione dell’IA.
In questo modo l’azienda Vannevar va ad affiancarsi alle altre aziende che svolgono questo genere di attività per l’esercito statunitense come Microsoft, Palantir, Anduril e Scale AI.
Prospettive future: sempre più IA nello spionaggio militare
Per quanto i dubbi permangano circa l’opportunità di usare questa tecnologia in un contesto tanto delicato e dalle profonde implicazioni etiche come quello militare, il colonnello Sean Dyanan, completato questo primo test ha dichiarato ai giornalisti che è in arrivo un uso sempre più intenso dell’IA generativa nelle operazioni militari e il Pentagono ha annunciato che nei prossimi due anni è prevista una spesa di circa 100 milioni di dollari per progetti di questo tipo.