Negli ultimi anni, si è osservata una crescita esponenziale delle campagne mirate a manipolare l’opinione pubblica attraverso piattaforme digitali, sfruttando vulnerabilità tecnologiche e psicologiche.
Tra le piattaforme maggiormente colpite si annovera Meta, il colosso tecnologico che gestisce Facebook, Instagram e WhatsApp, il cui vasto bacino di utenti globali lo rende un obiettivo privilegiato.
Ecco come le campagne di disinformazione russa eludono gli sforzi di Meta per bloccarle.
Indice degli argomenti
La disinformazione russa ha eluso i tentativi di blocco da parte di Meta
Si consideri il contesto globale in cui operano i soggetti impegnati nella disinformazione. Gli attori statali (e non) che orchestrano queste campagne mirano a generare divisioni sociali e a manipolare il discorso pubblico, sfruttando le vulnerabilità intrinseche delle piattaforme digitali.
Meta, in quanto una delle realtà più influenti nel panorama tecnologico globale, rappresenta un obiettivo privilegiato per tali operazioni, con milioni di utenti distribuiti in ogni parte del mondo.
Le recenti modifiche alle regole sui contenuti di Meta, che hanno rimosso alcune restrizioni automatiche, sollevano dubbi sull’efficacia delle politiche aziendali nel rispettare normative come il Digital Services Act dell’Unione Europea.
Il caso della Social Design Agency
Un caso emblematico è rappresentato dalle attività della Social Design Agency, un’organizzazione russa oggetto di sanzioni internazionali per il suo ruolo nella diffusione di campagne di disinformazione.
Questa organizzazione è riuscita a pubblicare oltre 8.000 inserzioni politiche che hanno affrontato temi di grande attualità come la guerra in Ucraina e la sicurezza internazionale, con l’obiettivo di plasmare le percezioni degli utenti.
L’efficacia di tali operazioni risiede nella capacità di adattarsi rapidamente ai sistemi di controllo e alle policy delle piattaforme, evidenziando le lacune nei meccanismi di moderazione attualmente in uso.
La Social Design Agency rappresenta un esempio paradigmatico delle modalità con cui gli attori della disinformazione sfruttano le vulnerabilità delle piattaforme social. Tra le tecniche più utilizzate si annoverano l’impiego di account falsi, la creazione di reti di bot e l’adozione di strategie di astroturfing, ovvero finalizzate a creare una falsa impressione di consenso popolare.
Gli algoritmi di raccomandazione, progettati per massimizzare l’engagement degli utenti, vengono sfruttati per amplificare la portata di contenuti polarizzanti.
L’evoluzione delle strategie russe: l’esempio della disinformazione in pandemia
L’analisi delle tecniche impiegate dalla disinformazione russa evidenzia un’evoluzione costante delle strategie utilizzate. Inizialmente, le campagne si basavano su approcci rudimentali, come la creazione di pagine o gruppi con nomi accattivanti.
Con il tempo, è emerso un livello di sofisticazione sempre maggiore, caratterizzato dall’uso di tecnologie avanzate per il rilevamento delle tendenze sociali e dall’adozione di strumenti di intelligenza artificiale per generare contenuti personalizzati.
L’obiettivo principale è quello di sfruttare le divisioni preesistenti all’interno delle società target, amplificandole attraverso una narrazione mirata. Per esempio, durante le fasi più critiche della pandemia di Covid-19, si è assistito alla diffusione di informazioni contraddittorie e fuorvianti sui vaccini, progettate per alimentare il dubbio e la sfiducia verso le istituzioni sanitarie.
La capacità di Meta di contrastare queste operazioni è stata messa a dura prova. Nonostante gli investimenti significativi in sistemi di moderazione basati sull’intelligenza artificiale e l’istituzione di team dedicati, persistono limiti intrinseci.
L’intelligenza artificiale, pur essendo in grado di analizzare enormi volumi di dati, fatica a rilevare contenuti che utilizzano codici linguistici o culturali specifici. Le operazioni di disinformazione spesso adottano tecniche creative per aggirare i controlli, come l’uso di metafore o riferimenti indiretti.
La riduzione del personale umano dedicato alla moderazione, avvenuta a seguito di ristrutturazioni aziendali, ha ulteriormente complicato il quadro, riducendo la capacità di risposta dell’azienda.
Altro aspetto critico
Un altro elemento cruciale è rappresentato dall’enorme quantità di contenuti caricati quotidianamente sulle piattaforme social. Ogni minuto vengono pubblicati milioni di post, commenti e video, rendendo estremamente difficile monitorare ogni interazione in tempo reale.
Questo problema di scala è uno dei principali ostacoli per le piattaforme come Meta, che devono bilanciare la protezione della libertà di espressione con la necessità di contrastare la disinformazione.
Le difficoltà operative sono amplificate dal contesto regolatorio globale, caratterizzato da normative divergenti tra Paesi e da pressioni crescenti per garantire la trasparenza e il rispetto dei diritti fondamentali.
I diversi approcci delle piattaforme
Nel panorama delle risposte alle campagne di disinformazione, si osservano approcci differenti tra le principali piattaforme social. X (ex Twitter), per esempio, ha adottato una strategia basata sull’etichettatura dei contenuti problematici invece della loro rimozione diretta.
Questo approccio mira a preservare la libertà di espressione, fornendo al contempo agli utenti strumenti per valutare criticamente le informazioni. YouTube, invece, ha implementato politiche più severe, concentrandosi sulla demonetizzazione dei video ritenuti ingannevoli e sull’applicazione di restrizioni di visibilità.
Entrambe le strategie presentano vantaggi e limiti, riflettendo le diverse filosofie aziendali e le peculiarità delle rispettive piattaforme.
La strada della cooperazione
La collaborazione tra piattaforme potrebbe inoltre rappresentare un importante passo avanti, consentendo di condividere dati e strategie per affrontare minacce comuni.
Per esempio, l’istituzione di database condivisi per identificare account falsi e contenuti problematici potrebbe aumentare significativamente la capacità di risposta del settore.
Parallelamente, è fondamentale investire nell’alfabetizzazione digitale degli utenti.
La capacità di riconoscere contenuti manipolativi e di valutare criticamente le fonti è un elemento chiave per ridurre l’impatto della disinformazione.
Campagne educative mirate, sviluppate in collaborazione con istituzioni, scuole e organizzazioni non governative, potrebbero contribuire a combattere le
manipolazioni informative.
Una sfida continua
Il fenomeno delle campagne di disinformazione continuerà a rappresentare una sfida per Meta e per le altre piattaforme social.
La rapidità con cui le campagne di disinformazione si evolvono richiede un impegno costante e coordinato. Solo attraverso un uso responsabile delle tecnologie, un dialogo tra governi e aziende tecnologiche e un coinvolgimento attivo della società civile sarà possibile mitigare i rischi e proteggere l’integrità del discorso pubblico.
Le sfide poste dalla disinformazione russa rappresentano un banco di prova per l’intero ecosistema digitale, richiedendo soluzioni innovative e una cooperazione senza precedenti.