L’intelligenza artificiale generativa potrebbe presto trasformarsi in un’arma sofisticata per manipolare l’opinione pubblica attraverso sciami di agenti autonomi capaci di infiltrarsi nelle comunità online, minacciando così le fondamenta stesse della democrazia.
È questo l’allarme lanciato da un consorzio internazionale di esperti in intelligenza artificiale e disinformazione, che include ricercatori di numerose università internazionali, tra cui Berkeley, Harvard, Oxford, Cambridge e Yale, oltre alla vincitrice del Premio Nobel per la Pace Maria Ressa.
L’avvertimento, pubblicato sulla rivista Science, descrive una minaccia emergente che, secondo gli autori, potrebbe materializzarsi in occasione delle elezioni presidenziali statunitensi del 2028: sciami di intelligenze artificiali malevole, difficili da rilevare, potrebbero invadere i social media e i canali di messaggistica per plasmare il consenso pubblico su scala industriale.
Indice degli argomenti
La precisione chirurgica degli Agentic AI
Gli esperti delineano uno scenario in cui leader politici con ambizioni autocratiche potrebbero schierare quantità pressoché illimitate di agenti artificiali programmati per impersonare esseri umani online.
Questi sistemi sarebbero in grado di infiltrarsi con precisione chirurgica nelle comunità digitali, apprenderne nel tempo le caratteristiche peculiari e diffondere menzogne sempre più convincenti e accuratamente calibrate, fino a modificare opinioni su scala demografica.
La capacità di tali tecnologie di coordinare autonomamente le proprie azioni, infiltrarsi tra gli utenti reali e fabbricare consenso in modo efficiente rappresenterebbe un salto qualitativo rispetto alle precedenti campagne di disinformazione.
Attraverso l’imitazione adattiva delle dinamiche sociali umane, questi sciami minerebbero i processi democratici, potenzialmente convincendo intere popolazioni ad accettare elezioni cancellate o risultati elettorali sovvertiti.
Bot AI con dinamiche umane, ma alta scalabilità
Il pericolo viene amplificato dai progressi compiuti dalle intelligenze artificiali nella comprensione del tono e del contenuto delle conversazioni online.
I sistemi più avanzati sono ormai capaci di replicare le dinamiche umane utilizzando espressioni gergali appropriate e pubblicando contenuti a intervalli irregolari per evitare il riconoscimento automatico.
Lo sviluppo dell’intelligenza artificiale agente, dotata della capacità di pianificare e coordinare azioni in autonomia, rende questo scenario tecnicamente plausibile.
I test in laboratorio
Daniel Thilo Schroeder, ricercatore presso l’istituto Sintef di Oslo e tra gli autori dello studio, ha simulato il comportamento di questi sciami in condizioni di laboratorio, constatando quanto sia semplice creare piccoli eserciti di bot capaci di navigare le piattaforme social, utilizzare la posta elettronica e sfruttare diversi strumenti digitali a seconda del canale ritenuto più efficace per raggiungere un obiettivo specifico.
La facilità con cui si possono programmare questi sistemi risulta particolarmente inquietante, considerando le potenzialità di scalabilità delle operazioni.
L’evoluzione dei bot AI in uno sciame
Jonas Kunst, professore di comunicazione presso la BI Norwegian Business School, sottolinea come la vera minaccia emerga quando questi bot evolvono in un collettivo capace di scambiarsi informazioni per risolvere problemi comuni, in questo caso obiettivi malevoli come l’analisi di una comunità per individuarne i punti deboli.
Tale coordinamento incrementerebbe esponenzialmente l’accuratezza e l’efficienza delle operazioni di influenza.
Gli sciami potrebbero operare non solo attraverso i social media, ma anche mediante canali di messaggistica, blog e posta elettronica, selezionando autonomamente il mezzo più adatto a raggiungere lo scopo prefissato.
Questa versatilità multicanale renderebbe estremamente complessa l’identificazione e il contrasto delle campagne di manipolazione.
Recenti campagne di disinformazione
Nel corso delle consultazioni elettorali del 2024 in diversi Paesi, tra cui Taiwan, India e Indonesia, sono già emersi esempi di campagne di disinformazione supportate da strumenti di intelligenza artificiale, come l’uso di contenuti generati artificialmente e la creazione di fonti informative fittizie.
A Taiwan, dove gli elettori sono regolarmente bersagliati dalla propaganda cinese, secondo testimonianze di esponenti politici e osservatori locali, account automatizzati avrebbero intensificato l’interazione con i cittadini su piattaforme come Threads e Facebook negli ultimi mesi.
Durante discussioni su temi politici, tali account avrebbero diffuso grandi volumi di informazioni difficilmente verificabili, contribuendo a un sovraccarico informativo deliberato.
Il disimpegno politico come propaganda mascherata
Puma Shen, parlamentare taiwanese del Partito Progressista Democratico impegnato nella lotta alla disinformazione, ha riferito che questi account citerebbero articoli falsi sull’abbandono di Taiwan da parte degli Stati Uniti o cercherebbero di convincere i giovani taiwanesi a mantenere una posizione di neutralità sulla questione sino-taiwanese, presentandola come eccessivamente complessa per chi non possiede conoscenze approfondite.
L’obiettivo, secondo tali valutazioni, non sarebbe promuovere direttamente la Cina, ma indurre al disimpegno politico, una strategia particolarmente insidiosa perché meno riconoscibile come propaganda tradizionale.
Contromisure contro i bot AI
Per contrastare questa minaccia, il consorzio di ricercatori chiede un’azione globale coordinata che includa lo sviluppo di strumenti in grado di individuare comportamenti collettivi riconducibili a sciami artificiali e l’adozione di meccanismi di contrassegno digitale dei contenuti per identificare le campagne di disinformazione gestite da sistemi di intelligenza artificiale.
Michael Wooldridge, professore di fondamenti dell’intelligenza artificiale all’Università di Oxford, conferma la plausibilità dello scenario prospettato, ritenendo credibile che attori malintenzionati tentino di mobilitare eserciti virtuali di agenti basati su modelli linguistici per manipolare l’opinione pubblica e destabilizzare i processi elettorali, prendendo di mira ampie fasce di popolazione attraverso i social media ed altri canali digitali.
La tecnologia necessaria, secondo gli autori, è in larga parte già disponibile e destinata a diventare progressivamente più accessibile.
Tra gli autori dello studio figurano anche Gary Marcus della New York University, noto per il suo approccio critico nei confronti delle capacità attuali dei modelli di intelligenza artificiale, Audrey Tang, ministra per il digitale di Taiwan, David Garcia dell’Università di Costanza, Sander van der Linden dell’Università di Cambridge e Christopher Summerfield dell’Università di Oxford.
La varietà di competenze rappresentate nel gruppo contribuisce a rafforzare la solidità delle analisi presentate.
Altri esperti mantengono tuttavia un atteggiamento più cauto. Inga Trauthig, esperta di tecnologie della propaganda e consulente per il Panel Internazionale sull’Ambiente dell’Informazione, osserva che nel 2024, anno caratterizzato da numerose consultazioni elettorali, le capacità tecniche per campagne di microtargeting basate su intelligenza artificiale erano già presenti, ma il loro impiego non ha raggiunto i livelli ipotizzati da alcuni studiosi.
La maggior parte dei propagandisti politici continuerebbe a fare affidamento su
tecnologie più consolidate, mostrando una certa riluttanza ad adottare strumenti
all’avanguardia.
Serve vigilanza costante
Questa lentezza nell’adozione sarebbe dovuta sia alla resistenza a cedere il controllo delle campagne elettorali a sistemi automatizzati, sia alla valutazione dei rischi associati all’uso di tecniche potenzialmente illecite, anche alla luce del fatto che gli elettori restano fortemente influenzati da materiali e dinamiche offline.
Nonostante queste riserve, la convergenza tra capacità tecnologiche in rapida evoluzione e possibili utilizzi malevoli rende necessaria una vigilanza costante e lo sviluppo tempestivo di contromisure efficaci, prima che tali minacce possano incidere in modo sistematico sui processi democratici.












