L'APPROFONDIMENTO

Assistenti vocali e privacy, il problema non sono i dati ma come vengono trattati: lo scenario

Parlando di assistenti vocali e privacy è importante prendere atto che il problema non sono i dati raccolti, non è cosa sanno di noi, ma se possiamo veramente essere sicuri che i nostri dati rimangano nelle mani giuste e non vengano usati per causare dolo. Facciamo il punto sulla questione

16 Ott 2019
I
Pierguido Iezzi

Swascan Cybersecurity Strategy Director e Co Founder


Si parla sempre più spesso di assistenti vocali e privacy, e non potrebbe essere altrimenti considerato che al momento, in tutto il mondo, sono stati venduti più di 100 milioni di dispositivi Alexa.

Ma questi dispositivi hanno dato inizio alla più grande opera di sorveglianza globale – stile 1984 – o si tratta solo dell’ultima psicosi collettiva?

Quali sono le prove che sembrano indirizzarci verso questa visione distopica del nostro futuro connesso?

Assistenti vocali e privacy: le macchine ci sorvegliano?

Nel 2017, un cittadino britannico, è tornato a casa dal lavoro, ed è rimasto abbastanza esterrefatto nel sentire il suo assistente vocale Amazon Echo Dot sputare comandi frammentari, apparentemente basati sulle sue precedenti interazioni con il dispositivo.

In una sorta di incubo Cyber Punk, il dispositivo si è messo a rigurgitare le richieste di prenotare i biglietti del treno per i viaggi che aveva già intrapreso o di registrare programmi televisivi che aveva già visto.

Questo era particolarmente interessante perché la “vittima” era un ex dipendente di Amazon e tre anni prima si era offerto volontario per sedersi in una stanza a recitare una serie di frasi apparentemente prive di significato in un microfono per uno scopo non rivelato.

Solo quando Amazon ha pubblicato l’Echo negli Stati Uniti nel 2014 si è reso conto di ciò su cui stava lavorando. Ha comprato un Dot, il modello più piccolo e più economico dell’Echo, dopo che è stato lanciato nel 2016, e lo ha trovato abbastanza utile fino al giorno in cui è andato in tilt.

Il Dot, ed è abbastanza ovvio, non doveva certo comportarsi come un sergente dei marines. D’altra parte, gli assistenti vocali spesso fanno cose che non dovrebbero fare. L’anno scorso, un cliente di Amazon in Germania è stato erroneamente ricevente di circa 1.700 file audio dall’Echo di qualcun altro, fornendo informazioni sufficienti per nominare e localizzare lo sfortunato utente e la sua ragazza.

Cosa significa? Che le macchine hanno imparato in autonomia ad imparare il nostro linguaggio e ci sorvegliano costantemente?

Assistenti vocali e privacy: lo scenario

Ci stiamo muovendo in una direzione che porterà a scenari orwelliani controllati da intelligenza artificiale e machine learning, dove le Big 5 (Amazon, Microsoft, Apple, Facebook e Google) ci ascoltano h24?

Tutt’altro, il solo assunto che l’intelligenza artificiale e il machine learning (che in fondo sono alla base di questi dispositivi di domotica), al momento, siano in grado di analizzare il nostro linguaggio ed elaborare algoritmi in autonomia capaci di interpretare e comprende ciò che diciamo è fondamentalmente errata.

Il linguaggio è qualcosa di organico, singolare e mutevole, frutto di momenti ed esperienze singolari.

WEBINAR - 3 NOVEMBRE
CISO as a Service: perché la tua azienda ha bisogno di un esperto di Cyber Security?
Sicurezza
Cybersecurity

Questo aspetto non può essere sottovalutato. Al momento il temutissimo machine learning e di conseguenza l’intelligenza artificiale sono nella loro accezione ontologica frutto di forti attività correttive da parte dell’uomo, e non potrebbe essere altrimenti.

Cosa significa? Significa che, come nel caso del famoso centro di raccolta dati di Siri in Romania, dietro ad ogni risposta corretta da parte di questi accessori di domotica si cela un’opera puramente statistica basata sul calcolo della probabilità.

E il discrimen per decidere se la risposta fornita dalla macchina sia corretta o meno è sempre e comunque in mano al singolo data scientist che di fatto sta dietro l’apparecchio.

E cosa dire invece della possibilità – a questo punto abbastanza comprovata – che ogni input vocale da noi dato ai vari Siri, Google Assistant, Alexa, Echo… e chi più ne ha più ne metta sia registrato e ascoltato da sconosciuti?

Qui dobbiamo fare un passo indietro e porci prima di tutto una domanda più introspettiva: veramente pensavamo di acquistare un dispositivo connesso alla rete, sviluppato da un gigante dell’e-commerce, pensato per interagire con noi e che tutto ciò che noi ripetiamo a questa interfaccia rimanesse inter nos?

Come per il recente caso di Google, che affronterò nel dettaglio poco sotto, dobbiamo metterci in testa che oramai il dato non è più in discussione.

La vera problematica che emerge dal caso Alexa, ed è una domanda più che legittima, è come facciamo ad assicurarci che i dati da noi forniti e che arrivano ai centri di raccolta dedicati al costante sviluppo dei già citati algoritmi di intelligenza artificiale e machine learning siano completamente spersonalizzati? E inoltre, sono stati compiuti gli step necessari per informare il cliente finale della vera natura di questa raccolta di informazioni?

Questi sono i veri quesiti da porre alle Big 5 che lavorano dietro le quinte di queste tecnologie.

Il problema non sono i dati

Il dato non è in discussione, cosa significa?

Google è nato oltre 20 anni fa oramai e da allora è divenuto parte integrante della vita di tutti noi anche nella quotidianità.

Recentemente il gigante californiano ha reso disponibile – senza troppa fanfara – la possibilità di scaricare tutti i dati raccolti sulle attività legate ai nostri account dal giorno della loro creazione.

Alcuni tra i più avventurosi che hanno deciso di scaricare questo pacchetto – spesso di dimensione nell’ordine dei Gigabyte – sono rimasti scioccati dalla quantità e varietà di dati immagazzinati attraverso Google e i suoi vari servizi (da YouTube a Maps, passando per Google Photo).

Non c’è dubbio che il diritto alla privacy debba essere inalienabile, ma in fondo Google è pur sempre un business e non ha immagazzinato tutte queste informazioni senza permesso e soprattutto senza rispondere a una necessità che arrivava da parte della sua base utenti.

È assolutamente una banalità, ma nulla è veramente gratuito.

Google per decenni ha prodotto servizi e applicazioni utili permettendo al mondo di utilizzarle “gratis”; in cambio noi abbiamo fornito le nostre preferenze, i nostri interessi, le nostre abitudini e più recentemente anche i nostri spostamenti.

Paradossalmente il nostro desiderio di avere una migliore user experience, di poter usufruire di un servizio “tailorizzato” che intuisca ciò di cui abbiamo bisogno, ha spinto verso questo accumulo di dati. È una semplice questione di confort, come entrare nel nostro bar preferito e vedersi chiedere “il solito?”.

Ovviamente è una forzatura, ma rende a grandissime linee il concetto.

Una cosa è certa: si sta scrivendo molto di privacy e di quanto aziende come Google e Facebook abbiano collezionato su di noi. Ma non sembra possibile tornare indietro, per usufruire di questi servizi abbiamo pagato con le informazioni che noi stessi abbiamo deciso di condividere.

Anche se l’Unione Europea ha sancito tempo fa il diritto a essere dimenticati, questo sembra quasi un’utopia e questo diritto – curiosamente – è stato addirittura sconfitto nelle aule di un tribunale francese.

Ma è veramente una situazione così catastrofica?

In realtà il dato non è in discussione, è uno strumento, anzi lo strumento principe del marketing, ma la sua manipolazione non è il primo pericolo derivante dalla rete, soprattutto se si guarda in prospettiva futura.

WHITEPAPER
Come semplificare il sistema di gestione delle identità digitali?
Sicurezza
IAM

Come per il caso Alexa e più in generale quando si parla di assistenti vocali e privacy, il vero cuore del problema, ed è un aspetto forse sottovalutato o sepolto sotto le storie più glamour delle “macchine che ci spiano”, non è cosa sanno di noi, ma se possiamo veramente essere sicuri che i nostri dati rimangano nelle mani giuste e che questi non vengano usati per causare dolo.

@RIPRODUZIONE RISERVATA