Questo sito web utilizza cookie tecnici e, previo Suo consenso, cookie di profilazione, nostri e di terze parti. Chiudendo questo banner, scorrendo questa pagina o cliccando qualunque suo elemento acconsente all'uso dei cookie. Leggi la nostra Cookie Policy per esteso.OK

Privacy e AI

Gestire il trattamento automatizzato dei dati: un approccio

Quando si parla di privacy e intelligenza artificiale è importante effettuare una completa e incisiva attività di verifica (audit) su tutti i componenti del processo che porta alla elaborazione di un algoritmo di IA per il trattamento automatizzato dei dati, in modo da garantire la corretta tutela dei diritti degli interessati. Ecco un possibile approccio

22 Gen 2019
B

Giancarlo Butti

Internal Auditor - Esperto Privacy e Cyber Security


Privacy e intelligenza artificiale sono due ambiti apparentemente inconciliabili tra loro e fonte di numerosi dibattiti tra gli addetti ai lavori in merito alle conseguenze di un trattamento dei dati personali automatico mediante algoritmi che utilizzano tecniche di IA.

E’ possibile però affrontare i punti critici con un approccio pragramatico: con la completa e incisiva attività di verifica (audit) su tutti i componenti del processo che porta alla elaborazione di un algoritmo di IA per il trattamento automatizzato dei dati.

La dichiarazione etica dei Garanti privacy mondiali sui rischi dell’IA

La preoccupazione sul tema e sulle possibili conseguenze per gli individui, derivanti dal sempre più frequente uso di tali strumenti, è tale da spingere le Autorità Garanti mondiali, nel loro recente incontro a ottobre 2018, ad emettere un documento dal titolo molto significativo: Declaration on ethics and data protection in artificial intelligence (il cui contenuto è ben sintetizzato sul sito dell’Autorità Garante italiana).

Nella dichiarazione etica, si sottolinea l’importanza di:

  • sviluppare le applicazioni di IA secondo un principio di correttezza, garantendo che vengano utilizzate soltanto per facilitare lo sviluppo umano senza ostacolarlo o minarlo;
  • responsabilizzare tutti i soggetti coinvolti, attivando forme di vigilanza continua e definendo processi verificabili di governance dell’IA;
  • migliorare la trasparenza e l’intelligibilità dei sistemi di IA;
  • permettere un effettivo “controllo umano”;
  • sviluppare le applicazioni di IA secondo principi di privacy by design e privacy by default.

Ma questa non è l’unica né la prima presa di posizione delle autorità Garanti sui rischi dell’IA. Sia il CNIL (autorità garante francese), sia l’ICO (autorità garante inglese), hanno pubblicato di recente due volumi sull’argomento. In particolare ICO ha pubblicato: “Big data, artificial intelligence, machine learning and data Protection”, mentre il CNIL ha pubblicato: “Comment permettre à l’homme de garder la main?”.

Fra i vari aspetti che vengono presi in considerazione nella dichiarazione etica dei Garanti mondiali vi è in particolare la scarsa trasparenza degli algoritmi con cui i sistemi di IA arrivano a prendere decisioni:

The current ‘state of the art’ in machine learning is known as deep learning, which involves feeding vast quantities of data through non-linear neural networks that classify the data based on the outputs from each successive layer. The complexity of the processing of data through such massive networks creates a ‘black box’ effect. This causes an inevitable opacity that makes it very difficult to understand the reasons for decisions made as a result of deep learning”.

Tale opacità non si esprime nei soli confronti degli utenti che subiscono le decisioni, ma anche negli stessi produttori dei sistemi.

Al riguardo ICO suggerisce una serie di strumenti che dovrebbero essere utilizzati per rendere più controllabili e trasparenti le tecniche di IA:

In brief…

  • Auditing techniques can be used to identify the factors that influence an algorithmic decision;
  • Interactive visualisation systems can help individuals to understand why a recommendation was made and give them control over future recommendations;
  • Ethics boards can be used to help shape and improve the transparency of the development of machine learning algorithms;
  • A combination of technical and organisational approaches to algorithmic transparency should be used”.

In particolare la possibilità di controllare gli algoritmi o più in generale l’intero processo di sviluppo di tali sistemi e del loro uso è ripreso anche dal CNIL che, nel paragrafo Constituer une plateforme nationale d’audit des algorithmes, suggerisce:

“Développer l’audit des algorithmes de manière à contrôler leur conformité à la loi et leur loyauté est une solution fréquemment évoquée pour assurer leur loyauté, leur responsabilité et, plus largement, leur conformité à la loi”.

Automatizzare la profilazione delle informazioni: i punti critici

Ma quali sono i punti critici nello sviluppo e nell’uso delle tecniche di IA per automatizzare l’elaborazione di decisioni e la profilazione delle informazioni?

In primo luogo dobbiamo considerare i dati che entrano come input nel processo decisionale.

Si tratta in genere di big data, derivanti per lo più da fonti aperte e di dati forniti in parte direttamente dall’interessato.

Il problema di fondo che ci si pone, in particolare quando si trattano informazioni derivanti da fonti aperte, riguarda la loro qualità, la loro veridicità e la loro completezza.

Un tema rilevante riguarda inoltre la liceità dell’uso di tali informazioni, che devono essere raccolte e trattate avendo cura che il soggetto interessato ne sia stato informato ed abbia rilasciato, quando occorra, uno specifico consenso.

Tralasciando questo importante aspetto e concentrandoci sulla qualità dei dati, citiamo il caso riportato nel rapporto “Big data and privacy – Making ends meet della FPF (Future of Privacy Forum)”: le informazioni sul profilo creditizio della signora Judy Thomas e dalla signora Judith Upton sono state scambiate in conseguenza della quasi perfetta coincidenza dei loro SSN, con le relative conseguenze.

Il rapporto procede indicando che ben il 26% dei credit report analizzati rispetto a 1.000 consumatori contenevano errori significativi.

Dal punto di vista prettamente normativo giova ricordare quanto questo possa essere invasivo per un titolare di trattamento, considerando che l’articolo 82 del GDPR, Diritto al risarcimento e responsabilità, così recita:

“1. Chiunque subisca un danno materiale o immateriale causato da una violazione del presente regolamento ha il diritto di ottenere il risarcimento del danno dal titolare del trattamento o dal responsabile del trattamento”.

Essendo inoltre prescritto da parte del GDPR l’uso di dati personali esatti (uno dei principi specifici previsti dall’articolo 5), con il mancato rispetto di tale vincolo si rischia anche una sanzione ai sensi dell’articolo 83.5.a (per intenderci quella che prevede sanzioni fino al 4% del fatturato o fino a 20 milioni di euro).

I dati che entrano nel processo di elaborazione devono quindi rispettare tutte le condizioni previste dalla normativa ed in particolare quanto previsto dall’articolo 5 del GDPR, il che impone processi e procedure tutt’altro che banali.

Due fatti di cronaca dello scorso 13 dicembre ripresi da due quotidiani nazionali riportano in prima pagina notizie relative alle spiacevoli conseguenze subite da due diversi individui come risultato di una errata decisione effettuata in modo automatico da due algoritmi che utilizzano tecniche di IA. Tralasciamo, in quanto estranei a questo intervento, i possibili profili sanzionatori e risarcitori derivanti dall’applicazione della normativa privacy nei due casi. Tali episodi dimostrano che probabilmente non ci si è ancora ben resi conto di quanto sia oneroso rispettare la normativa e di quali siano le reali possibili conseguenze derivanti dalla sua violazione.

È evidente che quanto appena descritto vale per qualunque trattamento di dati personali, ma di norma l’utilizzo di tecniche di IA avviene là dove la quantità di dati è rilevante e conseguentemente più difficile è il rispetto delle regole.

Privacy e intelligenza artificiale: l’importanza di algoritmi trasparenti

Passiamo ora ad un secondo aspetto da considerare: la trasparenza degli algoritmi.

Ci troviamo di fronte ad un problema di natura tecnica costituito dal largo uso di soluzioni basate sull’uso di reti neurali (una cui definizione può essere tratta dall’articolo Intelligenza artificiale e soft computing nella lotta al terrorismo):

“la rete neurale simula, pur in forma enormemente semplificata, il funzionamento di neuroni e sinapsi.

Se si considera un bambino che impara a camminare, si capisce immediatamente che il cervello umano impara a gestire una quantità rilevantissima di informazioni per ottenere il risultato desiderato (muoversi senza cadere) grazie a ripetuti tentativi.

Tuttavia nessuno di noi è in grado di formalizzare quali regole il proprio cervello ha ideato per riuscire a camminare, tanto è vero che riuscire a tradurre questa acquisita capacità in formule utilizzabili ad esempio da un robot, è particolarmente difficile. La nostra mente si comporta al riguardo come una black box e le reti neurali fanno altrettanto…”.

Questa opacità degli algoritmi si presta a molti usi distorti.

Se da un lato nemmeno chi gestisce la piattaforma di IA ha visibilità dell’algoritmo, dall’altra è facile per un gestore malintenzionato nascondersi dietro questa opacità, tecnicamente giustificata, al fine di manipolare e indirizzare i risultati dell’elaborazione.

Sarebbe infatti banale alterare tecnicamente il risultato ottenuto dagli algoritmi pilotandolo verso il risultato desiderato e spacciarlo come il risultato dell’algoritmo stesso.

Il rischio di alterazione dei risultati e la conseguente discriminazione dei soggetti valutati da un algoritmo è una delle maggiori preoccupazioni delle Autorità Garanti.

Privacy e intelligenza artificiale: l’attuale situazione normativa

Dal punto di vista normativo si pongono numerosi problemi.

Da un lato la mancanza di trasparenza contrasta con le previsioni degli articoli 12/14 del GDPR, che impongono al titolare del trattamento di dare evidenza dei trattamenti in essere sui dati. Dall’altro vi è il divieto di ottenere una decisione, che abbia conseguenze rilevanti, in forma totalmente automatizzata (salvo le eccezioni previste dalla normativa).

Rispetto al primo punto in realtà il WP29 nelle sue Linee guida in materia di processi decisionali automatizzati e profilazione appare insolitamente permissivo, o se vogliamo ragionevole e del resto in linea con la posizione del CNIL nel documento sopra citato.

Non è la pubblicazione del codice dell’algoritmo che lo rende trasparente (anche perché tale forma sarebbe incomprensibile ai più), quanto una corretta, completa e chiara descrizione della logica utilizzata.

Una nota tecnica di apertura sul mondo degli algoritmi.

La logica fuzzy ed i sistemi neurofuzzy sono in grado di auto-apprendere, analogamente alle reti neurali, ma hanno la brillante caratteristica di essere trasparenti e quindi di dare evidenza dell’algoritmo generato, il quale infatti può essere ulteriormente ottimizzato o modificato da un esperto umano.

Al riguardo esistono numerosi esempi di sistemi esperti realizzati con tale tecnica quali il sistema di Analisi di elettroforesi capillare realizzato nel 2004 presso l’ospedale San Raffaele di Milano da parte di Lorenzo Schiavina, docente di ricerca operativa alla Cattolica di Brescia (si veda al riguardo il libro “Intelligenza artificiale e soft computing. Applicazioni pratiche per aziende e professionisti”, coautore lo stesso Lorenzo Schiavina ed edito dalla FrancoAngeli 2017).

Conclusioni

Da ultimo consideriamo l’aspetto relativo all’applicazione che gestisce e permette la generazione degli algoritmi.

È evidente che come tutti i software tale applicazioni è soggetta a errori di analisi e di programmazione e quindi potrebbe portare alla generazione di algoritmi errati o ancora, volutamente indirizzati per ottenere un output pilotato secondo i desideri del titolare della piattaforma.

In conclusione quindi, come auspicato dalle autorità Garanti, solo la possibilità di una complessiva ed incisiva attività di verifica (audit) su tutti i componenti del processo che porta alla elaborazione di un algoritmo possono garantire la corretta tutela dei diritti degli interessati.

L’IA non va tuttavia demonizzata e vista come nemica della privacy; in più occasioni io e altri addetti abbiamo proposto la realizzazione di sistemi esperti che guidino i titolari nella complessa implementazione delle misure previste dall’attuale normativa privacy e che parimenti possano guidare chi debba successivamente effettuare la verifica dei vari adempimenti, con modalità oggettive e ripetibili.

@RIPRODUZIONE RISERVATA

Articolo 1 di 5