L'ANALISI

Deepfake in tempo reale: cosa sono, come funzionano e quali tutele per prevenire la minaccia

I deepfake in tempo reale sono un’evoluzione tecnologica dei classici deepfake e consentono di cambiare l’immagine del proprio volto con un altro soggetto esistente o immaginario durante l’utilizzo estemporaneo di applicazioni video. Ecco tutti i dettagli e gli strumenti di tutela preventiva e repressiva

27 Mar 2020
V
Valentino Vescio di Martirano

Avvocato -Tonucci&Partners M&A- ICT & Cybersecurity- Compliance & Privacy


Secondo il Rapporto Clusit 2020 la maggiore minaccia attuale e futura è il deepfake che, nell’accezione più ampia del termine, indica una riproduzione virtuale (ad. esempio un video) creata o modificata con l’intento di rappresentare falsamente la realtà, usando mezzi digitali quali l’intelligenza artificiale (per maggiori approfondimenti cfr. Bertoni, Deepfake, ovvero Manipola et impera. Un’analisi sulle cause, gli effetti e gli strumenti per la sicurezza nazionale, nell’ambito dell’utilizzo malevolo dell’intelligenza artificiale ai fini di disinformazione e Propaganda, in Ciberspazio e diritto, vol. 20, n. 62 1-2-2019, pp. 11-28): la notizia è che il Live deepfake, cioè il deepfake in tempo reale, è divenuto realtà e ora è ancor più facile cambiare l’immagine del proprio volto con un altro soggetto (esistente o immaginario) durante l’utilizzo estemporaneo di applicazioni video.

Deepfake in tempo reale: evoluzione di un fenomeno

Storicamente, il termine deepfake deriva dal nome attribuito ad un software, basato appunto sull’intelligenza artificiale e abbinato al deep learning, impiegato da un collaboratore di Reddit che nel 2017 ha sagomato alcuni volti di celebrità sui corpi di diversi protagonisti di video erotici.

I video così generati erano risultati incredibilmente realistici e inquietanti, specialmente per le vittime le cui identità erano falsamente rappresentate, tanto che a volte per un esperto è stato difficile distinguere un deepfake da un video inalterato (per maggiori approfondimenti Judge Herbert B. Dixon Jr., Deepfakes: More Frightening Than Photoshop on Steroids August 12, 2019 Technology).

Lo sviluppo maggiore dell’utilizzo di questo strumento particolarmente insidioso è avvenuto negli ultimi mesi e immaginiamo che lo scenario futuro sarà ancor più scivoloso e pericoloso.

In pratica, con i deepfake in tempo reale non è più necessario un lungo lavoro di “montaggio” come accadeva in passato.

Ad annunciarlo è stato Hao Li, Professore associato di Informatica presso l’Università della California del Sud (USC), USA, che assieme al team di Pinscreen (gruppo composto da esperti nel deepfake) ha recentemente dimostrato la capacità di sostituzione interattiva del viso, consentendo effettivamente alle persone di avvicinarsi a uno schermo e vedersi in un deepfake in tempo reale.

L’occasione dell’annuncio è stata quella del World Economic Forum (WEF) a Davos, in Svizzera.

Se da un lato, nello sviluppo di questa tecnologia fotorealistica, lo scopo principale del team Pinscreen è stato quello di permettere una migliore “creazione” di assistenti virtuali e avatar, dall’altro si è aperto uno scenario pericoloso e non gestibile né contenibile visto che attualmente non esistono reali contromisure.

Se le grandi bigtech (quali Facebook, Google e Amazon) comprendendone i rischi si sono già attivate per “scovare” i deepfake, per capire la portata del problema è forse utile considerare che i membri del Congresso degli Stati Uniti hanno richiesto un rapporto formale al direttore della National Intelligence per affrontare i possibili scenari che derivano dall’abuso del deepfake; inoltre lo stesso esercito americano, attraverso la Defense Advanced Research Projects Agency (DARPA), ha intrapreso una intensa attività di ricerca con numerose istituzioni accademiche e aziendali per sviluppare la tecnologia in grado di rilevare i deepfakes (Judge Herbert B. Dixon Jr., cit.).

Attualmente, i livelli di affidabilità e replicabilità partoriti da Pinscreen è del 94% (in termini di accuratezza) ed ha riguardato solo personaggi pubblici noti (si tratta di una tecnologia zero-shot in cui i partecipanti possono guardare in uno specchio virtuale e scambiare i loro volti con un certo numero di celebrità e personaggi pubblici quali Michelle Obama, Will Smith, Leonardo DiCaprio ecc.; vi invitiamo a vedere la dimostrazione del funzionamento del Real Time Deep Fake al seguente link).

Tuttavia, non sappiamo in che termini temporali lo sviluppo tecnologico – come noto sempre esponenziale – possa rendere possibile l’utilizzo “domestico” di questo tipo di deepfake in tempo reale (basti considerare che la telecamera utilizzata a Davos dai partecipanti nella presentazione era una normale videocamera RGB e tuttavia, per replicare ogni volto di “origine” della celebrità, sono state usate decine di migliaia di fotogrammi).

WHITEPAPER
Quali elementi considerare per capire se si è vulnerabili agli hacker?
IoT
Sicurezza

Inoltre, secondo le dichiarazioni dello stesso Hao Li, non si può che migliorare il sistema rendendo impercettibili ad occhio nudo qualsiasi difetto.

Dall’altro lato, possiamo sottolineare che attualmente il software utilizzato non prevede e non replica oggetti sul volto (e.g. occhiali) e si può ancora notare che la voce della persona “reale” o per meglio dire “falsificata” non è perfettamente la stessa.

Ma non possiamo riposare sugli allori.

Una startup di Montreal (Canada) ha dimostrato la capacità di sintetizzare la voce di una persona con solo un minuto di registrazione dell’originale.

Del resto, un’altra bigtech (Adobe) ha già sviluppato un software (Photoshop AI-driven), che usa la tecnologia “VoCo” che viene guidata dall’intelligenza artificiale, in grado di analizzare-imparare e replicare la voce di una persona target (Harmon Leon, Why AI Deepfakes Should Scare the Living Bejeezus Out of You, Observer (June 12, 2019); Scott Amyx, Using Artificial Intelligence for Forgery: Fake Could Be Eerily Real, IoT Agenda (July 26, 2017)).

Utilizzo abusivo del deepfake in tempo reale

È intuibile che, con i costanti e notevoli progressi nella tecnologia, il deepfake in tempo reale potrà essere il maggior veicolo di distorsione della realtà economico-sociale.

Immaginiamo gli effetti manipolativi sul mercato azionario, quello politico e giudiziario, nonché sociale.

Per fare un po’ di esempi:

  • sarà semplice rendere dichiarazioni da parte di un “finto” amministratore delegato di una società quotata in borsa per manipolarne le oscillazioni azionarie (cfr. l’art. 185 del testo unico finanziario che prevede l’ipotesi delittuosa della “manipolazione del mercato” ovvero immaginiamo l’ipotesi di aggiotaggio di cui all’art. 2637 c.c.);
  • medesima facilità si avrà nelle dichiarazioni rese da un “finto” esponente politico o sindacale in grado di manipolare l’opinione pubblica (mettendo a rischio lo stesso ordine pubblico);
  • esiste la possibilità – anch’essa agevole – di sostituirsi ad una persona nei notevoli interscambi comunicativi (videochiamate, social network, dibattiti televisivi ecc.);
  • gli attori cinematografici e televisivi non saranno più necessari;
  • ancora, sussiste la facoltà – pure questa pericolosa – di sconvolgere il corso dei procedimenti giudiziari interponendo durante le udienze “falsi” testimoni, avvocati o giudici (specialmente nell’ottica invalsa nell’ultimo periodo di avvalersi della celebrazione delle udienze da remoto e per il qual motivo si invita sin da ora a scongiurare tale rischio inibendone la possibilità).

Tutti gli esempi sopra esposti sembrano plausibili e dipendono solo dal tempo e dalla fantasia emulativa di chi compie questo tipo di azioni.

Al momento numerosi esperti in materia concordano sul fatto che i deepfake creati dal software basato sull’intelligenza artificiale possono essere quasi impossibili da rilevare nell’immediato e il loro numero è destinato ad aumentare (Judge Herbert B. Dixon Jr. cit.).

Tutela preventiva e repressiva

Un supporto a questo tipo di minaccia potrebbe essere fornito dalla “blockchain”, dalla stessa intelligenza artificiale abbinata al machine learnig.

In uno studio dell’Università del Deakin, Victoria, Australia (Nguyen, Nahavandi, Deep Learning for Deepfakes Creation and Detection, 25 Sep 2019) viene evidenziato come il deep learning ha avuto una duplice valenza: una positiva per risolvere problemi complessi e, l’altra, negativa nell’impiego appunto di deepfake.

Cionondimeno, lo stesso machine learning è un valido strumento di contrasto.

Invero, in uno studio condotto dalla Università Federico II di Napoli e dalla Università di Monaco (Rössler, Cozzolino, Verdoliva, Riess, Thies, Nießner, FaceForensics++: Learning to Detect Manipulated Facial Images, 25 Jan 2019) sono state proposte diverse strategie per rilevare automaticamente le manipolazioni del viso (tra queste, ad esempio, la tecnica della Convolution Neural Network).

In sostanza, viene intercettata la manipolazione di quelle zone del volto che “coprono” quei pixel retrostanti all’immagine reale. In questo modo, automaticamente, viene captata l’immagine “fake” che copre il viso e permette, quindi, di allertare che il contenuto visivo è falso.

Tuttavia, un recente studio dell’Università di San Diego (Neekhara, Hussain, Jere, Koushanfar, McAuley, Adversarial Deepfakes: Evaluating Vulnerability of Deepfake Detectors to Adversarial Examples, 14 Mar 2020) che ha analizzato lo stato dell’arte sulle contromisure per contrastare il deepfake (in specie proprio la Convolution Neural Network), ha evidenziato che sebbene gli attuali risultati raggiunti siano promettenti, cionondimeno permangono elementi ed esempi contraddittori che sono in grado di ingannare il risultato di rilevamento, cosicché il machine learning erroneamente è indotto a classificare video falsi come reali e viceversa (insomma, un risultato fuorviante).

Questa considerazione non ci conforta e quindi la strada per la ricerca è ancora aperta.

D’altro canto, non ci conforta nemmeno l’atteggiamento tenuto dalle istituzioni dell’Unione Europea sull’intelligenza artificiale, argomento al quale è ovviamente agganciato lo sviluppo del deepfake.

Pertanto, riteniamo doveroso intervenire legislativamente, quantomeno a livello nazionale: vista la pregnante pericolosità plurioffensiva del deepfake (sia contro il singolo che contro l’ordine sociale), sarebbe opportuno inserire specifiche aggravanti al reato di cui all’art. 494 cod.pen. facendo ricorso a tecniche normative già conosciute.

Si potrebbe, infatti, mutuare quanto descritto al comma II dell’art. 600 quater-1 cod.pen. in seno alla definizione di “immagini virtuali”: cioè di immagini realizzate con tecniche di elaborazione grafica non associate in tutto o in parte a situazioni reali, la cui qualità di rappresentazione fa apparire come vere situazioni non reali.

Potrebbe poi essere data struttura ad una nuova fattispecie di reato che possa conciliare la tutela preventiva dei reati di “pericolo” (volgendo lo sguardo a quei tipi di reato previsti all’art. 241 cod.pen.) ovvero a quelli di evento (es. art. 294 cod. pen.) o a quelli che apprestano tutela al danno, specie se di “rilevante entità”.

WEBINAR
Industrial collaboration: quanti benefici per il settore manifatturiero?
IoT
Manifatturiero/Produzione

Le considerazioni sinora esposte certamente non potranno risultare definitive né risolutive, ma servono esclusivamente a mettere in luce un problema già noto che non deve essere affatto sottovalutato.

@RIPRODUZIONE RISERVATA

Articolo 1 di 4