L'APPROFONDIMENTO

Fake news, tra rischi cyber e impatti privacy: cosa c’è dietro

Dietro le fake news si nascondono vere e proprie minacce ibride (Hybrid Threats) difficili da individuare e ancor più da attribuire che comportano seri rischi per la reputazione delle aziende e notevoli impatti privacy. Ecco cosa c’è davvero dentro la macchina delle notizie false

15 Giu 2020
M
Luca Mella

Cyber Security Expert


Negli ultimi anni abbiamo imparato a convivere con questo termine, lo abbiamo sentito sdoganare persino sui media tradizionali: si tratta appunto delle fake news, o meglio notizie false. Una terminologia cristallina il cui significato è stato ben assimilato anche nei salotti dei media generalisti e persino in molti tavoli, o meglio tavolini, di discussione da bar. Insomma, un po’ tutti hanno almeno un’idea sul fenomeno.

Questo tema sta nuovamente tornando alla ribalta della cronaca per via delle prossime elezioni americane e dei recenti attriti tra Trump e Dorsey – CEO di Twitter – proprio a riguardo di fake news, e anche a causa delle dichiarazioni di neutralità di Zuckerberg che hanno fatto discutere non poco.

Ma in realtà, quanto conosciamo della natura di questo fenomeno?

Certo, una notizia falsa è un concetto intuitivo: notizia, non vera. Peccato che questa semplificazione, benché utile nella divulgazione, si presti eccezionalmente bene ad essere fraintesa e sottostimata.

Infatti, la prima cosa che viene in mente appena udito il termine “fake news”, sono esempi tanto banali e strampalati da non esser per nulla rappresentativi di un fenomeno che di per sé vive in una zona grigia, schiva e fumosa.

Fake news, sono come sembrano?

Chiaro. Le notizie false non sono come sembrano, ma probabilmente stiamo pensando a due cose diverse, per questo è meglio inquadrare l’anatomia delle fake news prima di entrare nel vivo della questione.

Gran parte di noi si è imbattuto in una notizia falsa, di solito sotto forma di articolo condiviso su testate online, connotato da headline molto accattivanti, emotive o scandalistiche, e condiviso su vari social network, in Italia tipicamente Facebook.

Notizie che noi lettori attenti oramai individuiamo e sappiamo riconoscere al volo, dopo pochi secondi di lettura e un rapido fact-checking. Mentre gli altri no, gli altri soffrono di analfabetismo funzionale perché hanno difficoltà a capire se leggendo una notizia vera oppure una falsa.

Certo si tratta di una semplificazione estrema, ma questo è sostanzialmente il come frequentemente pensiamo al fenomeno delle fake news oggi. Al contempo, questa visione si mappa anche nei metodi che utilizziamo per contrastarla: fact-checking, debunking, ricorso alla moderazione delle piattaforme, occhi al cielo per l’aberrante fenomeno dell’analfabetismo funzionale.

Da qui la domanda: questa rappresentazione ci sta aiutando a risolvere il problema?

Facendo un piccolo passo indietro, il nocciolo del problema è che c’è qualcuno che sfrutta lacune e bias cognitivi umani per veicolare informazioni false o faziose, amplificare reazioni emotive e posizioni estreme.

Quindi, probabilmente la natura delle fake news va oltre a come viene comunemente rappresentata. Probabilmente si tratta di un qualcosa che ancora non abbiamo ben compreso, che si muove al di sotto della superficie, qualcosa di più oscuro che neppure la moderazione delle piattaforme riesce a contrastare. Tra l’altro di questo limite ne abbiamo già avuto un assaggio con lo spargimento di fake news sulla pandemia anche attraverso strumenti di messaggistica come WhatsApp, ma questo meriterebbe una discussione ad hoc.

Le minacce ibride

Quanti hanno letto o udito il termine minacce ibride? Forse pochi. Quanti l’hanno invece sentito accostato ai fenomeni delle fake news? Probabilmente meno. Ecco, questo ci dà una grezza misura della reale comprensione del fenomeno delle fake news.

Ad alto livello, le Hybrid Threats sono metodi ed attività con i quali vengono presi di mira istituzioni, politica, società, stati, democrazie ed economie tramite vulnerabilità sistemiche, magari dovute alla memoria storica, alla legislazione, a prassi e costumi, polarizzazioni, disuguaglianze o ideologie differenti.

Le minacce ibride operano in molteplici modi e molto spesso lavorano sotto soglia in maniera da rendere difficile la loro identificazione ed ancor più complicata la loro attribuzione. Tipicamente, sfruttano dualismi come guerra e pace, interno/esterno locale/statale, nazionale/internazionale, amico/nemico e così via. Tra gli obiettivi principe delle loro attività vi è senz’altro il riuscire ad influenzare i processi decisionali su diversi piani: locale, statale e istituzionale ad esempio, con lo scopo di favorire gli obiettivi strategici o economici di chi le opera.

DIGITAL EVENT 9 SETTEMBRE
Cyber Security: tra tecnologia e cultura del dato. Ecco cosa fanno i Security People
Legal
Sicurezza

Questo tipo di minacce è fumoso e venirne a capo è complesso, ma al contempo hanno effetti significativi in vari aspetti delle dinamiche tra popoli, stati, società, fazioni, etnie e classi sociali.

Ma cosa c’entrano queste minacce ibride con le dichiarazioni di importanti politici riguardo all’origine in vitro del coronavirus piuttosto che sulla cura definitiva per la Covid-19, idrossiclorochina o plasma iperimmune a vostra scelta, già lì alla nostra portata ma tenuta nascosta dal potere?

C’entrano eccome. C’entrano perché questa tipologia di notizie è una traccia, un artefatto, un prodotto di alcuni dei modus operandi di questi agenti di minaccia. È un concetto che negli ultimi anni ha preso forma anche nell’ecosistema delle istituzioni europee, ad esempio con l’istituzione del Hybrid CoE, centro europeo di eccellenza per la lotta alle minacce ibride, che dal 2017 studia proprio questi fenomeni.

Fake news: gli attori delle minacce ibride

Sotto il cappello delle minacce ibride non sempre si parla di entità centralizzate come organizzazioni filo governative, state-sponsored, o privati. In questo strano dominio la cabina di regia può anche essere decentralizzata, il che apre una voragine enorme nelle risposte da attuare alle operazioni di questi soggetti ed ancor di più alla loro attribuzione.

In via sommaria questo tipo di minacce è operato tipicamente da:

  • attori legati a Stati (state-sponsored): possono essere enti governativi o entità che fanno uso di propaganda governativa, attori che possono anche utilizzare media tradizionali come tv e radio, e che tipicamente sono gestiti in maniera centralizzata, ma al contempo sono estremamente attivi anche nel digitale;
  • operatori privati: si tratta di aziende che offrono servizi e campagne di persuasione che senza alcuna remora diffondono informazioni false. Sono realtà tipicamente ingaggiate da clientele di altissimo profilo sullo stile della defunta “Cambridge Analytica”. L’operato di queste entità tende ad essere professionale nella forma, anche attraverso l’uso di nomi a dominio che imitano o hanno assonanze con le testate tradizionali;
  • i cosiddetti “troll”: individui o gruppi più o meno organizzati, spesso decentralizzati, che promuovono contenuti abusivi, “hate speech” o pseudo-notizie che rischiano di essere reputate credibili da giornalisti e mass-media, e quindi di alterare i processi decisionali;
  • i cercatori di pura rendita: gruppi, società o individui che sono in cerca di “Click”, di visite e traffico per ottenere quanti più guadagni possibile dagli introiti pubblicitari. Non meno pericolosi dei precedenti, operano spesso su larga scala tant’è che molte volte si parla di “Clickbait Factory”, ovvero veri e propri sistemi di produzione di “Click” estorti alle persone attraverso contenuti di sensazionalistici ed opportunisti, non privi di effetti collaterali che spesso sfociano nella disinformazione.

Dentro la macchina delle fake news

La macchina delle fake news racchiude un cuore pesantemente interconnesso con una delle novità caratteristiche dell’era digitale: le tecnologie dell’advertising, le cosiddette “Ad-Tech” (Advertising Technologies).

Queste tecnologie vengono infatti abusate estensivamente nelle prassi operative di chi opera campagne di influenza in almeno due frangenti: per il finanziamento delle operazioni e per raggiungere persone e luoghi fertili alla diffusione del messaggio.

Questa prospettiva, sulla quale ritorneremo a breve, apre un interrogativo immenso sulle logiche di contrasto alle fake news a cui siamo abituati, che possiamo immaginare decantate da un Boris Johnson che in un febbraio 2020 di un universo parallelo dice più o meno così: “Herd immunity! Aspettiamo che gli umani non abbiano più né analfabetismi funzionali ne bias cognitivi”. Una lotta impari.

Secondo quanto emerge dalle ricerche condotte dalla ONG britannica Global Disinformation Index (GDI), i manovratori delle fake news abusano spesso delle Ad-Tech. Ad esempio, la disseminazione dei contenuti è spesso veicolata sui segmenti di utenti più predisposti alla ricezione dei messaggi mirando a precise fasce di età, interessi, comportamenti, educazione, posizione lavorativa, connessioni, luoghi e spazi virtuali frequentati.

In parole povere, dove è statisticamente più probabile che i messaggi vengano accettati, magari sfruttando il bias di conferma, un tipo bias cognitivo a cui tutti siamo in certa misura soggetti.

Ma non finisce qua. Le Ad-Tech permettono inoltre agli attori delle minacce ibride di ottenere feedback su cosa funziona di più: dati che sono utilizzati per affinare costantemente i contenuti e massimizzarne risposta e diffusione.

Un circolo che nelle mani di esperti senza scrupoli, specialisti della comunicazione e delle debolezze cognitive umane, porta alla grande diffusione ed al lento radicamento dei messaggi, di fatto polarizzando ed influenzando i processi decisionali dei singoli.

Modello di diffusione fake news PMS di GDI (Precision Messaging System).

Tutto questo non si esaurisce in pochi giorni o settimane: è costante, va avanti ininterrottamente per mesi e si modifica nel tempo. Ad esempio, se viene notato che un certo gruppo che in precedenza ha risposto positivamente a contenuti anti-vax, comincia anche a rispondere positivamente a contenuti su anti-5G, pure questi verranno gradualmente inoculati nel ciclo di diffusione e radicamento.

Inoltre, in molti casi queste campagne si finanziano con gli introiti ottenuti dalle Ad-Tech che permettono di creare cospicui guadagni per chi manovra queste operazioni. Il contenuto più accattivante, vero, falso o polarizzante che sia, si riduce ad un mero mezzo di rendita per organizzazioni senza scrupoli completamente disinteressate degli effetti dei messaggi che veicolano. Basta che siano attrattivi.

Gli strumenti di contrasto

Negli ultimi tempi, specie a causa di quanto vissuto durante le fasi iniziali della pandemia, anche l’Europa ha deciso di intensificare gli sforzi per contrastare le minacce ibride che operano la macchina delle fake news. Nel comunicato stampa IP/20/1006 del 10 giugno 2020, l’Europa ha infatti avviato un potenziamento della cooperazione tra istituzioni e stati membri all’interno del Rapid Alert System europeo (RAS), piattaforma dedicata al contrasto alla disinformazione, ed al coordinamento delle azioni di risposta con l’OMS, con la NATO e con il Rapid Response Mechanism del G7.

Si stanno inoltre mettendo in campo azioni sulle piattaforme di social network stesse. Infatti, vengono ora richiesti report mensili dettagliati su come vengono promossi i contenuti autoritativi, su come viene migliorata la consapevolezza degli utenti e su come viene limitata disinformazione ed advertising sul tema coronavirus, insieme al forte incentivo alla nascita di collaborazioni con i fact-checker degli stati membri.

Una forte determinazione e un insieme di azioni che sono rivolte alle piattaforme in maniera molto più marcata rispetto al passato. Tuttavia, probabilmente vi sono anche altri aspetti più peculiari che, alla luce di alcuni dei modus operandi degli attori delle minacce ibride, potrebbero essere considerati nelle strategie di contrasto e per i quali vale la pena riflettere.

La minaccia alla reputazione

Uno dei fattori chiave che spinge parte degli attori della disinformazione è quello finanziario. Infatti, gran parte degli introiti delle fabbriche di fake news viene dall’Ad-Tech. In particolare, secondo ricerche di GDI pubblicate lo scorso marzo, sono cinque i player che coprono l’88% dei ricavi delle operazioni di disinformazione: Google, Criteo, Taboola, OpenX, Xandr.

Loro malgrado, questi gruppi di fatto finanziano e motivano una parte rilevante del fenomeno delle fake news: significa che remunerano gli attori della disinformazione in cambio di spazi dove veicolare i messaggi commerciali dei loro clienti. Riflessivamente, questo però significa che esistono Aziende e Brand che pagano per proiettarsi su spazi dove vengono proferite notizie false e dove gli utenti, loro potenziali clienti, vengono raggirati e sfruttati.

Questo potrebbe essere un buon punto su cui riflettere. Un punto che apre una domanda molto interessante: un brand può dirsi etico se di fatto finanzia le fake news con il denaro con cui si promuove?

Esiste la possibilità che costruendo le giuste leve ed i giusti circoli, il fattore reputazionale possa divenire un driver utile all’erosione delle rendite delle operazioni di disinformazione, aspetto che oggi motiva parte degli attori in gioco.

Il ruolo della privacy

Approcciare questo fenomeno è complicato e la strategia di contrasto deve senz’altro includere altri elementi oltre la moderazione dei contenuti, soluzione che per altro deve tener ben conto del bilanciamento con il rischio censura, o dell’uso del fact-checking per il quale, benché d’obbligo per gli operatori dell’informazione (e qui azzeccatissimo il quesito “chi sono oggi gli operatori dell’informazione?”), è pressoché utopico aspettarsene l’applicazione estensiva ai non addetti ai lavori.

Guardando ai meccanismi sfruttati dalle minacce ibride, il ruolo delle Ad-Tech nel somministrare le fake news ai soggetti più sensibili è tutt’altro che trascurabile. Esiste infatti un intimo legame tra la profilazione estensiva a cui siamo sottoposti e l’efficacia nel raggiungere grandi coinvolgimenti nelle campagne di disinformazione: vengono spesso selezionati segmenti di utenti predisposti alla ricezione di certi messaggi per dare slancio a queste operazioni.

Questo ci fa intuire quanto il legame che si crea tra noi, i nostri profili, i nostri interessi, le nostre abitudini online e l’appartenenza o meno a gruppi, unito all’estrema facilità con cui queste informazioni vengono utilizzate sostanzialmente per qualsiasi finalità – perché di fatto non si tratta di marketing commerciale – sia un fattore davvero rilevante per questo fenomeno.

Da qui possiamo trarre un interessante spunto di riflessione su quale sia il potenziale che il diritto alla privacy possa esprimere in questo ambito. Anche in questo caso, è possibile che se ben applicato possa divenire uno strumento davvero efficace per contrastare intimamente questo fenomeno, diminuendo l’efficacia della diffusione dei falsi messaggi ed al contempo aumentando costi e rischi per gli attori della disinformazione.

Conclusioni

Dietro le fake news ci sono fenomeni complessi che sono radicati nel profondo delle moderne tecnologie digitali. Complessità che sta pian piano rendendo inadeguata la tipica narrativa del fenomeno: non è meramente questione di riuscire a distinguere le notizie vere dalle false o da quelle maliziose.

Ciò che dà vita al fenomeno delle fake news è un fenomeno molto più complicato, che coinvolge ciò che in gergo viene chiamato minacce ibride: minacce caratterizzate da una natura fumosa, molte volte operanti sotto-soglia, ma non per questo meno pericolose perché comunque in grado di impattare severamente i processi decisionali di singoli, gruppi, popolazioni e stati.

Il contrasto a questo genere di impalpabili minacce è stato intensificato negli ultimi tempi, specie perché quanto successo durante la pandemia di coronavirus ha messo direttamente a rischio la salute delle persone, dando vita ad un’escalation che ha superato le soglie di tolleranza di Istituzioni e Stati.

Tuttavia, ci sono alcuni aspetti come la reputazione dei brand e la tutela della privacy che se ben elaborati possono avere un ruolo importante nelle strategie a lungo termine di contrasto agli operatori della disinformazione, spunti su cui vale la pena riflettere.

WHITEPAPER
La guida per scegliere il miglior antivirus gratuito per il tuo PC
Personal Computing
Privacy

@RIPRODUZIONE RISERVATA

Articolo 1 di 5