La disinformazione digitale si conferma uno strumento sempre più raffinato per destabilizzare le alleanze occidentali, e l’Italia ne è diventata un bersaglio ricorrente.
Ecco l’analisi dell”ultimo caso di deepfake ai danni della presidente del Consiglio, Giorgia Meloni, già oggetto di precedenti video falsi. Ma facciamo una premessa per capire la gravità della disinformazione.
Indice degli argomenti
L’analisi di NewsGuard
Dal mese di agosto 2025, secondo un’analisi condotta da NewsGuard, organizzazione specializzata nel monitoraggio dell’affidabilità delle informazioni, si sono identificate sedici dichiarazioni false attribuite a esponenti del governo italiano, che nel complesso hanno raccolto circa 29 milioni di visualizzazioni sulla piattaforma X entro il 4 maggio 2026.
Il fenomeno non riguarda soltanto la quantità di contenuti circolati, ma la loro struttura narrativa: si tratta di affermazioni costruite per alimentare divisioni all’interno degli schieramenti geopolitici occidentali, sfruttando figure politiche reali come vettori di messaggi mai pronunciati.
Il deepfake contro Giorgia Meloni: cosa è successo
Il caso più recente e più articolato riguarda la Presidente del Consiglio Giorgia Meloni.
A partire da gennaio 2026, NewsGuard ha documentato affermazioni false specificamente volte a delineare una critica aperta e una frattura nei rapporti col presidente statunitense Donald Trump, in contrasto con la sua posizione ufficiale, che è quella di mantenere solidi rapporti bilaterali tra Italia e Usa.
Le affermazioni riportate da NewsGuard hanno complessivamente totalizzato 18 milioni di visualizzazioni su X e 1,6 milioni su TikTok al 30
aprile 2026. L’intento è amplificare la narrativa di un’America sempre più isolata dai suoi tradizionali alleati.
Il video su TikTok generato con l’intelligenza artificiale: l’origine
Uno degli esempi più significativi riguarda un video generato con intelligenza artificiale, pubblicato su TikTok il 16 aprile 2026.
Nel filmato, Meloni sembrava affermare: “Presidente Trump, a un certo punto bisogna dirlo chiaramente: così non si guida il mondo”, presentato dal
testo sovrapposto come “il discorso della Meloni contro Trump censurato dalle TV”.
L’analisi del video condotta con lo strumento di rilevamento Hive ha assegnato al contenuto una probabilità del 99% di essere frutto di generazione con intellifgenza artificiale.
Le anomalie rilevate includono espressioni facciali meccaniche, movimenti innaturali e incoerenze nella sincronizzazione labiale.
La costruzione del filmato sembra partire da immagini reali di un discorso di Meloni a Roma il 3 marzo 2026, nel corso del quale non fu pronunciata alcuna dichiarazione di questo tipo.
L’account che aveva pubblicato il video per la prima volta, il 18 marzo 2026, lo aveva persino etichettato come “simulazione” nella didascalia, elemento che non ha impedito la diffusione virale del contenuto in versioni decontestualizzate.
La diffusione del deepfake contro Meloni
La propagazione di questo video è particolarmente indicativa dal punto di vista dell’analisi delle dinamiche di disinformazione: il contenuto è stato condiviso tanto da sostenitori di Meloni, che lo hanno interpretato come prova di una sua ritrovata fermezza politica, quanto da suoi oppositori, che lo hanno usato per criticare quello che descrivevano come un tardivo
distacco da Trump.
Si tratta di un pattern di amplificazione bidirezionale che massimizza la diffusione indipendentemente dall’orientamento politico degli utenti, sfruttando la polarizzazione del dibattito pubblico come moltiplicatore organico.
I precedenti dei deepfake con Meloni come protagonista
Gli altri casi documentati da NewsGuard seguono una logica simile. Un post pubblicato il 21 gennaio 2026 da un account indiano critico nei confronti di Trump ha costruito un dialogo fittizio in cui Meloni avrebbe minacciato di chiudere le basi militari statunitensi in Italia, di abbandonare gli accordi commerciali e di boicottare catene di ristorazione americane, raccogliendo 3,7 milioni di visualizzazioni e 53.000 like.
In realtà, il video utilizzato mostrava una conferenza stampa del 9 gennaio 2026 in cui Meloni citava retoricamente le posizioni di chi proponeva una presa di distanza dagli Usa, per poi confutarle esplicitamente.
Un secondo post, pubblicato il 6 aprile 2026 da un account filo-iraniano, attribuiva a Meloni l’intenzione di recarsi in Iran per contribuire alla riapertura dello Stretto di Hormuz e di sostenere il diritto iraniano al blocco dello stretto. Il post ha ottenuto oltre 623.000 visualizzazioni.
NewsGuard ha verificato che non esiste alcuna dichiarazione ufficiale in tal senso da parte di Palazzo Chigi, e che l’Italia ha anzi firmato una dichiarazione congiunta con altri governi europei che condanna la condotta iraniana nello stesso stretto.
Un terzo post, del 15 aprile 2026, attribuiva a Meloni una critica diretta alle posizioni nucleari di Trump, con 445.000 visualizzazioni: anche in questo caso, nessuna fonte ufficiale o giornalistica verificabile ha riscontrato dichiarazioni di questo tipo.
La polarizzazione politica come vettore di amplificazione
Le operazioni di influenza informatica che sfruttano la polarizzazione politica come vettore di amplificazione sono state analizzate in dettaglio nel rapporto annuale dell’EU DisinfoLab e nei documenti tecnici del gruppo Threat Intelligence di Microsoft (MTAC), che hanno documentato campagne strutturate attorno al principio della “rageful sharing”: contenuti progettati per suscitare reazioni emotive intense, tanto di approvazione quanto di indignazione, con l’obiettivo di massimizzare le interazioni indipendentemente dal sentiment.
In questo schema, la verifica della veridicità del contenuto diventa secondaria rispetto alla forza della reazione emotiva che genera, il che spiega perché video come quello analizzato da NewsGuard riescano a diffondersi attraverso comunità politicamente opposte senza perdere slancio.
Gli studi sugli strumenti di rilevamento automatico dei contenuti sintetici
Vale la pena ricordare che gli strumenti di rilevamento automatico dei contenuti sintetici, inclusi sistemi commerciali come Hive e diversi modelli sperimentali sviluppati in ambito industriale e accademico, possono raggiungere accuratezze molto elevate in benchmark controllati.
Tuttavia, numerosi studi hanno mostrato che le prestazioni calano sensibilmente quando i contenuti vengono compressi, ricampionati e ridistribuiti attraverso le piattaforme social, che degradano molti dei segnali forensi utilizzati dai classificatori automatici.
Il benchmark “Deepfake-Eval-2024” pubblicato nel 2025 ha evidenziato riduzioni molto significative delle prestazioni rispetto ai test di laboratorio, mentre altri studi su contenuti social hanno osservato cali dell’accuratezza nell’ordine del 15-20%.
Questo divario tra prestazioni in laboratorio e performance nel mondo reale rappresenta oggi uno dei principali limiti tecnici dell’ecosistema di verifica dei contenuti sintetici.
La sicurezza dell’informazione
I contenuti sintetici generati con intelligenza artificiale vengono utilizzati come punto di partenza per campagne di manipolazione, sfruttando la difficoltà media degli utenti nel riconoscere i deepfake video.
La decontestualizzazione di materiale audiovisivo autentico, come nel caso della conferenza stampa di gennaio, è invece una tecnica più tradizionale, ma altrettanto efficace. Infatti si basa su materiale reale e quindi più
difficile da segnalare automaticamente dalle piattaforme.
Gli account individuati da NewsGuard come principali vettori di queste narrazioni mostrano caratteristiche ricorrenti: sono spesso critici dell’Occidente, filo-iraniani o filo-russi, operano in contesti geografici distanti dall’Italia e promuovono sistematicamente narrative di divisione tra alleati.
Pur non essendo state trovate prove di un coordinamento diretto con campagne sponsorizzate da Stati, lo schema operativo è coerente con le tecniche descritte nella letteratura specialistica sulle operazioni di influenza.









