l’analisi

AI come arma cognitiva: dall’ISIS alla tecnodestra, la nuova ingegneria della radicalizzazione



Indirizzo copiato

L’IA abbassa le barriere dell’estremismo: ISIS produce deepfake credibili, la tecnodestra “inonda la zona” di contenuti alternativi. Non più propaganda unidirezionale ma radicalizzazione personalizzata. Ecco come l’intelligenza artificiale sta diventando un moltiplicatore di forza cognitiva

Pubblicato il 31 dic 2025

Tania Orrù

Privacy Officer e Consulente Privacy



IA ISIS e tecnodestra

Alcune recenti inchieste hanno riportato al centro del dibattito un fenomeno che, pur non essendo del tutto nuovo, sta assumendo caratteristiche radicalmente diverse e di cui si parla poco: l’uso dell’intelligenza artificiale da parte di ISIS e di altri gruppi estremisti per creare contenuti falsi, diffondere propaganda online e reclutare nuovi membri.

Si tratta di una tendenza preoccupante, osservata con crescente attenzione da servizi di intelligence, forze di sicurezza e ricercatori indipendenti.

Secondo quanto riportato dalle fonti giornalistiche, le organizzazioni jihadiste starebbero infatti sperimentando strumenti di intelligenza artificiale generativa per produrre testi, immagini e soprattutto video sempre più sofisticati, capaci di apparire credibili e coerenti con i linguaggi contemporanei delle piattaforme social.

La creazione di contenuti progettati per essere inseriti, senza attrito, negli ecosistemi digitali, ne mimano estetica, ritmo e codici comunicativi.

L’IA moltiplicatore di forza cognitiva

L’aspetto più rilevante delle inchieste citate è la constatazione che gli strumenti AI abbiano abbassato drasticamente le barriere all’ingresso.

Tecnologie che fino a pochi anni fa richiedevano competenze avanzate, infrastrutture costose e team specializzati sono oggi disponibili attraverso piattaforme accessibili, spesso open source o comunque a basso costo. Questo consente anche a gruppi frammentati, sotto pressione militare o logistica, di mantenere una presenza digitale continua e adattiva.

Come confermato da fonti giornalistiche internazionali, l’intelligenza artificiale sta diventando un moltiplicatore di capacità per attori estremisti che operano prevalentemente nello spazio informativo.

Il punto centrale, tuttavia, non è l’IA come strumento creativo in senso stretto, bensì il suo ruolo di moltiplicatore di forza cognitiva: l’IA, in questi casi, pur non introducendo necessariamente nuovi contenuti o nuove ideologie, rende industriale la produzione di messaggi radicali, abbatte i costi della propaganda e ne accelera la circolazione.

La tecnologia trasforma la comunicazione estremista in un processo continuo, scalabile e adattivo e il risultato è un ambiente informativo sempre più instabile, in cui la frammentazione della verità diventa una condizione strutturale e non più un effetto collaterale.

Come i gruppi estremisti usano oggi l’IA

L’uso dell’intelligenza artificiale da parte di gruppi estremisti come ISIS, oltre a produrre contenuti propagandistici più “curati”, si sta integrando progressivamente nelle strategie comunicative complessive.

I sistemi generativi consentono di produrre grandi volumi di testi ideologici in tempi ridottissimi, adattando il linguaggio a contesti culturali e linguistici differenti e rendendo la propaganda più flessibile e meno riconoscibile come tale.

In parallelo, l’IA viene utilizzata per creare immagini e video sintetici che simulano eventi, dichiarazioni o scenari di conflitto, spesso con un livello di realismo sufficiente a superare un primo sguardo critico. L’intelligenza artificiale viene usata anche per creare scene di conflitto completamente simulate, con tanto di immagini e video che mostrano bombardamenti, movimenti militari o attacchi mai avvenuti. Si tratta di video dotati di un realismo tale da essere scambiati per eventi reali, almeno nelle prime fasi della loro diffusione.

Come documentato da Associated Press, durante il conflitto tra Israele e Hamas sono circolate online numerose immagini e contenuti generati o alterati con l’intelligenza artificiale, raffiguranti scene di guerra e distruzione mai avvenute, che hanno contribuito a diffondere disinformazione e a confondere l’opinione pubblica nelle fasi più concitate della crisi.

La possibilità di tradurre automaticamente questi contenuti in più lingue amplia ulteriormente la portata dei messaggi, rendendo la propaganda realmente globale e non più legata a specifiche aree geografiche o comunità linguistiche.

Interazioni sintetiche e manipolazione cognitiva

Un ulteriore elemento di discontinuità rispetto alla propaganda del passato riguarda la capacità dell’IA di simulare interazioni umane credibili.

Account automatizzati, chatbot e profili che imitano il comportamento di utenti reali possono rispondere, commentare, incoraggiare e guidare le conversazioni, creando l’illusione di una comunità viva e partecipata.

In questo modo la propaganda anziché essere un messaggio unidirezionale, si pone come un dialogo continuo, in grado di adattarsi alle reazioni degli interlocutori e ridurre progressivamente la capacità dell’utente di distinguere tra informazione, opinione e manipolazione.

L’intelligenza artificiale è quindi parte attiva del processo comunicativo e viene usata per modificare le condizioni cognitive entro cui si formano le opinioni.

Video, deepfake e propaganda: perché l’impatto è diverso dal passato

Tra tutte le applicazioni dell’intelligenza artificiale in ambito estremista, la produzione e manipolazione di video rappresenta probabilmente la trasformazione più significativa. Nonostante i deepfake, ovvero i video sintetici o manipolati attraverso reti neurali, esistano da alcuni anni, solo recentemente hanno raggiunto una soglia di qualità e accessibilità tale da renderli realmente pervasivi.

Il video occupa una posizione centrale negli ecosistemi digitali contemporanei, in quanto è il formato privilegiato dagli algoritmi delle piattaforme social, quello che genera maggiore engagement e che viene percepito come più “autentico” dagli utenti.

In questo contesto, la possibilità di generare video credibili consente ai gruppi estremisti di costruire narrazioni potenti, capaci di suscitare emozioni forti e di rafforzare l’identificazione ideologica.

A differenza dei testi o delle immagini statiche, il video combina voce, volto, movimento e contesto, creando un’esperienza immersiva che rende più difficile mantenere una distanza critica.

Inoltre, i sistemi di moderazione automatica faticano maggiormente a individuare manipolazioni sofisticate, soprattutto quando i contenuti, non violando apertamente le policy, si muovono in un’area grigia fatta di suggestioni, allusioni e narrazioni implicite.

L’IA consente infine di produrre molteplici versioni dello stesso messaggio, testando quali funzionano meglio su specifici segmenti di pubblico e adattando rapidamente la strategia comunicativa di conseguenza.

Reclutamento personalizzato e radicalizzazione assistita da algoritmi

Uno degli aspetti più delicati dell’uso dell’IA da parte dei gruppi estremisti riguarda il reclutamento.

A differenza dei modelli tradizionali, basati su messaggi generici e su un’esposizione progressiva ai contenuti ideologici, l’intelligenza artificiale consente oggi una forma di radicalizzazione molto più personalizzata.

Analizzando comportamenti, interazioni e segnali digitali, è possibile adattare il messaggio al profilo emotivo e cognitivo del singolo utente.

In questo scenario, la propaganda smette di essere un atto esplicito di indottrinamento per diventare una sequenza di interazioni apparentemente innocue, spesso costruite per creare empatia e senso di appartenenza.

L’uso di sistemi automatizzati che simulano conversazioni reali permette infatti di accompagnare gradualmente l’utente lungo un percorso di radicalizzazione, riducendo la percezione di trovarsi di fronte a un messaggio estremista.

Questo tipo di radicalizzazione assistita da algoritmi rende più complessa l’attività di prevenzione, perché non esiste più un unico contenuto “pericoloso” da rimuovere, bensì una molteplicità di micro-interazioni che, prese singolarmente, possono apparire irrilevanti.

L’IA, in questo contesto, agisce come un acceleratore silenzioso, capace di ridurre i tempi e di aumentare l’efficacia dei processi di estremizzazione, spesso al di sotto della soglia di attenzione delle piattaforme e delle autorità.

Non solo ISIS: l’IA come strumento politico radicale

Sarebbe un errore interpretare questi fenomeni esclusivamente come una questione legata al terrorismo jihadista.

Le stesse tecnologie vengono oggi utilizzate anche in ambiti politici radicali non necessariamente violenti, ma comunque in grado di produrre effetti destabilizzanti sul piano democratico e sociale.

In diversi contesti europei e internazionali, movimenti di estrema destra stanno sperimentando l’uso di contenuti generati da IA per amplificare messaggi polarizzanti e anti-istituzionali.

In questi casi, l’obiettivo, anziché essere il reclutamento militante in senso stretto, è la costruzione di un clima di sfiducia generalizzata. Le immagini e i video sintetici vengono utilizzati per rafforzare narrazioni emotive su temi come immigrazione, sicurezza e identità nazionale, spesso senza dichiarare l’origine artificiale dei contenuti.

Il risultato è una forma di disinformazione che punta a confondere piuttosto che a convincere, e a rendere indistinguibile il confine tra vero e falso.

L’intelligenza artificiale diventa così uno strumento di normalizzazione della manipolazione: quando la produzione di contenuti sintetici diventa routine, la percezione stessa dell’informazione cambia, e con essa il rapporto tra cittadini, media e istituzioni.

Il punto di contatto tra l’estremismo jihadista e le nuove forme di radicalismo politico è infatti la metodologia comunicativa. In entrambi i casi, l’IA viene utilizzata per trasformare lo spazio pubblico digitale in una sorta di “zona di guerra cognitiva”, in cui l’obiettivo è rendere impraticabile qualsiasi verità condivisa.

La moltiplicazione dei messaggi, delle narrazioni e delle versioni concorrenti degli stessi eventi produce una saturazione informativa che favorisce la sfiducia sistemica e l’astensione critica.

La questione investe direttamente la qualità e la tenuta dello spazio pubblico digitale.

Curtis Yarvin, tecnodestra e immaginari post-democratici

In questo quadro si inserisce la cosiddetta “tecnodestra”, rappresentata da figure come Curtis Yarvin.

Da teorico neoreazionario a lungo marginale, oggi sempre più legittimato negli ambienti della destra statunitense e citato da esponenti come JD Vance, Yarvin incarna una visione post-democratica in cui tecnologia e automazione diventano strumenti di governo e di legittimazione del potere.

Nella visione di Yarvin, il problema non è tanto confutare il consenso democratico, quanto disintegrarlo. La sua celebre critica alla “Cattedrale” (termine con cui viene definito l’insieme di media, università e istituzioni culturali che, a suo avviso, controllano il discorso pubblico) trova nell’intelligenza artificiale uno strumento perfettamente coerente.

L’IA consente infatti di “inondare la zona” (flooding the zone) con una quantità tale di contenuti alternativi, interpretazioni e simulazioni da rendere irrilevante l’autorità delle fonti tradizionali. In questo modo, la verità viene, di fatto, sommersa.

Yarvin, diversamente dai propagandisti nel senso tradizionale, rappresenta un caso emblematico di come ideologia politica e immaginario tecnologico possano fondersi in una visione coerente del potere. Le sue teorie, che immaginano forme di governo basate su élite tecniche, algoritmi e sistemi automatizzati, contribuiscono a legittimare l’idea che la mediazione democratica possa essere sostituita da processi computazionali più efficienti.

In questo contesto, l’uso di video e contenuti generati da IA assume un significato che va oltre la comunicazione. L’IA diventa parte integrante di una narrazione in cui, oltre ad essere strumento di divulgazione, la tecnologia è un vero e proprio principio ordinatore della società.

Il legame tra queste correnti ideologiche e l’uso dell’IA nella sfera pubblica è particolarmente rilevante perché mostra come la manipolazione algoritmica non sia appannaggio esclusivo di attori violenti, terroristici o clandestini.

Al contrario, essa può inserirsi in discorsi apparentemente sofisticati, accademici o “razionali”, contribuendo a ridefinire i confini di ciò che viene percepito come legittimo nel dibattito politico.

Un problema tutt’altro che marginale

Il filo conduttore che unisce terrorismo jihadista, movimenti estremisti e tecnodestra è l’uso strategico dell’intelligenza artificiale per produrre realtà alternative credibili, emotivamente coinvolgenti e personalizzate.

L’IA, pur non creando l’estremismo, ne modifica profondamente le dinamiche di diffusione, rendendolo più adattivo, più resiliente e meno visibile.

Siamo di fronte a un cambiamento strutturale del modo in cui l’informazione viene prodotta, distribuita e consumata. La possibilità di simulare eventi, persone e discorsi mette in crisi i tradizionali meccanismi di fiducia su cui si basano le società democratiche.

Ridurre la questione a un problema tecnico significherebbe ignorarne la dimensione politica e culturale: l’intelligenza artificiale, in quanto tecnologia di mediazione, diventa inevitabilmente una tecnologia di potere.

Quali risposte sono realistiche (e quali no)

Il minimo comune denominatore di queste dinamiche è la frammentazione deliberata della realtà.

Attraverso una combinazione di disinformazione strategica, personalizzazione algoritmica e saturazione cognitiva, l’IA viene impiegata per confondere il pensiero critico, erodere la fiducia nelle istituzioni e spingere gli individui verso camere dell’eco sempre più estreme.

Si tratta di una strategia che sfrutta consapevolmente le logiche stesse dei sistemi intelligenti.

Le risposte a questa sfida devono andare oltre l’introduzione di nuovi strumenti di rilevazione o di watermarking dei contenuti. Sebbene queste soluzioni siano necessarie, esse si rivelano insufficienti in un contesto in cui le stesse tecnologie possono essere utilizzate per aggirare i controlli.

La regolamentazione, come quella prevista dal Digital Services Act europeo, rappresenta un passo importante, ma richiede un’applicazione coerente e una cooperazione reale tra piattaforme, istituzioni e comunità scientifica.

Accanto alle misure normative, è fondamentale investire in alfabetizzazione digitale e trasparenza.

Gli utenti devono essere messi nelle condizioni di comprendere come funzionano i sistemi di generazione dei contenuti e quali interessi possono nascondersi dietro narrazioni apparentemente neutre.

Allo stesso tempo, è necessario riconoscere che l’IA è un elemento che ridefinisce i rapporti di forza nello spazio informativo.

Serve quindi una riflessione più ampia sull’impatto politico e sociale dell’IA, poiché il rischio è quello di inseguirne gli effetti senza mai intervenire sulle cause: in questo vuoto le forme più sofisticate di propaganda estremista trovano il loro terreno fertile.

guest

0 Commenti
Più recenti
Più votati
Inline Feedback
Vedi tutti i commenti

Articoli correlati

0
Lascia un commento, la tua opinione conta.x