Un account fittizio registrato su Twitter come “Bloomberg Feed” ha divulgato, lo scorso 22 maggio, un’immagine raffigurante un’esplosione avvenuta nei pressi di un edificio somigliante al quartier generale del Dipartimento della difesa degli Stati Uniti d’America, il quale riportava la descrizione: “Grande esplosione vicino al Pentagono, a Washington”.
Il tweet è divenuto in poco tempo virale sulla piattaforma, tanto da scatenare un breve calo del mercato azionario negli istanti successivi alla sua diffusione.
Indice degli argomenti
Il caso del presunto attacco al Pentagono
A simulare la veridicità dell’immagine, apparentemente generata dall’intelligenza artificiale, avrebbe concorso anche la sua condivisione da parte di un account Twitter dotato della cosiddetta “spunta blu”, la quale in genere indica l’autenticità di un profilo social.
Nel caso in questione, tuttavia, l’account che ha diffuso l’immagine dell’attacco avrebbe utilizzato la grafica della testata giornalistica di fama internazionale Bloomberg, dotandosi altresì della spunta blu in modo da apparire il più somigliante possibile all’account ufficiale del media statunitense.
Ad oggi è infatti possibile dotare il proprio account Twitter del contrassegno in questione semplicemente possedendo un abbonamento attivo al nuovo servizio Twitter Blue e rispettando la conformità dei criteri di idoneità.
La verosimiglianza del tweet ha quindi tratto in inganno diversi utenti della piattaforma, i quali avrebbero creduto alla notizia dell’attacco sino al momento della smentita da parte delle autorità locali, che sarebbe giunta nel giro di venti minuti dalla pubblicazione del post.
Secondo quanto riportato dalle principali testate giornalistiche internazionali, l’immagine sarebbe circolata per un breve periodo su pagine Twitter marginali, prima che il post originale venisse definitivamente rimosso dalla piattaforma.
Il Dipartimento dei vigili del fuoco di Arlington, in Virginia, ha prontamente smentito la notizia, pubblicando un tweet a sua volta nel quale si escludeva la verificazione di esplosioni o altri incidenti nella zona e veniva rassicurata la popolazione in merito ad eventuali pericoli.
Anche un portavoce del Dipartimento della Difesa avrebbe confermato alla rivista Forbes che si sarebbe trattato di un’immagine fittizia e ingannevole, mettendo in guardia gli utenti del web in merito ai pericoli della disinformazione generata dall’intelligenza artificiale.
Mitigare le minacce derivanti dall’IA incontrollata
Secondo quanto dichiarato da Renée DiResta, technical research manager presso lo Stanford Internet Observatory, in casi del genere il problema non riguarderebbe l’intelligenza artificiale di per sé, quanto piuttosto la possibilità per l’utente di comprendere in maniera chiara e manifesta l’attendibilità di una notizia sui social network.
A parere della ricercatrice, la decisione di Twitter di rendere la “spunta blu” applicabile potenzialmente a tutti gli account e non più solamente a quelli autentici di pubblico interesse, rischierebbe di portare ad un incremento del fenomeno della disinformazione sulle piattaforme social.
A seguito del moltiplicarsi di fatti come quello appena citato, diversi funzionari governativi statunitensi e aziende operanti nel settore hanno contribuito a creare campagne di sensibilizzazione in merito alle minacce derivanti dall’intelligenza artificiale incontrollata.
All’inizio del mese di maggio, l’amministrazione Biden avrebbe reso noto un piano da 140 milioni di dollari finalizzato a creare istituti di ricerca per la valutazione tecnologica dell’IA e a guidare l’innovazione responsabile.
Inoltre, un gruppo di leader nel settore, tra cui il CEO di Twitter Elon Musk e il cofondatore di Apple Steve Wozniak, avrebbero esortato i laboratori di Intelligenza Artificiale a rallentare lo sviluppo di tale tecnologia, temendo un utilizzo sempre più incontrollato e malevolo.
AI Act: lo stato della normativa comunitaria in materia di intelligenza artificiale
I settori interessati dalla disinformazione
A oggi, diversi settori risultano essere interessati da fenomeni di disinformazione derivante dall’intelligenza artificiale.
Tra questi vi è quello della sanità, ove si teme che i dati utilizzati dall’IA per adempiere a prestazioni di assistenza sanitaria, potrebbero essere distorti o utilizzati in modo improprio per generare disinformazione.
Recentemente, l’Organizzazione Mondiale della Sanità (OMS) ha richiesto cautela nell’uso dell’intelligenza artificiale per il settore: l’Organizzazione si è dichiarata entusiasta del potenziale dell’IA, ma ha altresì affermato di nutrire preoccupazioni su come tale tecnologia verrà utilizzata per migliorare l’accesso alle informazioni sanitarie, come strumento di supporto alle decisioni e per perfezionare le cure diagnostiche.
Così come la sanità, anche il panorama politico è interessato dai rischi della disinformazione guidati dall’intelligenza artificiale.
Secondo alcune delle principali testate giornalistiche internazionali, le future elezioni in Gran Bretagna e negli Stati Uniti potrebbero infatti essere compromesse da false notizie diffuse su larga scala, nonché immagini, video e audio di propaganda fittizi.
Come affermato dal professor Michael Wooldridge, Direttore della ricerca sull’intelligenza artificiale presso l’Alan Turing Institute del Regno Unito, in ambito tecnologico l’IA “è la numero uno della lista” in termini di preoccupazioni: “abbiamo le elezioni in arrivo nel Regno Unito e negli Stati Uniti e sappiamo che i social media sono un canale incredibilmente potente per la disinformazione”.
In relazione alla diffusione di notizie false e/o ingannevoli, Wooldridge ha inoltre aggiunto che l’IA generativa può produrre disinformazione su scala industriale, e che chatbot come ChatGPT sarebbero in grado di produrre disinformazione mirata e potenzialmente distruttiva.