Questo sito web utilizza cookie tecnici e, previo Suo consenso, cookie di profilazione, nostri e di terze parti. Chiudendo questo banner, scorrendo questa pagina o cliccando qualunque suo elemento acconsente all'uso dei cookie. Leggi la nostra Cookie Policy per esteso.OK

L'APPROFONDIMENTO

Algoritmi e processo decisionale automatizzato, tra giustizia amministrativa e GDPR: che c’è da sapere

Una recente sentenza del Tar del Lazio boccia l’utilizzo dell’algoritmo nel procedimento amministrativo. Al contrario, il Consiglio di Stato si era dimostrato aperto in ordine all’utilizzo degli algoritmi e nell’ambito dei concorsi pubblici aveva imposto alla PA il rispetto di alcuni principi, rafforzando le tutele previste dal GDPR. Ecco che c’è da sapere

19 Set 2019
C
Salvatore Coppola

Avvocato del Foro di Matera, DPO


Il diritto amministrativo non poteva non essere coinvolto dai temi di intelligenza artificiale e dagli algoritmi che la governano e, in particolare, a proposito di algoritmi e processo decisionale automatizzato.

Nella cornice della querelle sulla procedura di mobilità nazionale straordinaria del 2015/16 che ha riguardato 85 mila docenti, nella giurisprudenza amministrativa si stanno confrontando due orientamenti. I Tribunali amministrativi regionali sono orientati a pronunciarsi contro l’utilizzo dell’algoritmo; al contrario, il Collegio di grado superiore (Consiglio di Stato, Sezione Sesta, sentenza n. 2270 dell’8/04/2019) ha affermato che gli algoritmi possono essere utilizzati nelle procedure valutative della Pubblica Amministrazione a patto che siano sempre garantite la massima trasparenza e la possibilità di verifica in sede giurisdizionale.

Quest’ultima è tra le prime sentenze con la quale la Giustizia italiana concilia l’utilizzo dell’intelligenza artificiale e la difesa dei diritti dei cittadini.

L’algoritmo, con le sue modalità automatizzate, assume in concreto una decisione che è destinata a ripercuotersi sulla sfera giuridica degli interessati.

In verità, in un momento in cui non è possibile garantire la perfetta governabilità dei risultati degli algoritmi, questa sentenza è significativa ed è destinata a rappresentare un precedente autorevole in quanto – con apprezzata modernità – interviene a preservare i singoli cittadini dagli effetti collaterali dell’uso delle nuove tecnologie.

Il caso: l’algoritmo del concorso della scuola

Il ricorso a processi decisionali automatizzati, compresa la profilazione, si sta diffondendo in diversi settori, sia privati che pubblici, in quanto il progresso tecnologico ha reso questi trattamenti maggiormente efficienti ed economici.

Nel pubblico è stato il caso del concorso a seguito della legge 107 del 2015 con la quale il Ministero dell’Istruzione dell’Università e della Ricerca è stato autorizzato ad attuare un piano straordinario di assunzioni a tempo indeterminato di docenti per le istituzioni scolastiche statali di ogni ordine e grado.

In particolare, alla fase ordinaria di assunzioni seguivano una fase B, per coprire i posti comuni e di sostegno rimasti vacanti e disponibili all’esito della procedura ordinaria, e una fase C a coprire gli ulteriori posti destinati per il potenziamento dell’offerta formativa (anche per il sostegno) e per le supplenze fino a 10 giorni. Sia la fase B che la C dovevano in ogni caso considerarsi parti di una procedura di assunzione unitaria anche in considerazione del fatto che la domanda di partecipazione era la stessa e che i docenti interessati sarebbero risultati assunti con la medesima decorrenza giuridica al 1° settembre 2015.

Per quanto qui di interesse, l’art. 1, comma 100, della legge 107/2015, prevede che: “i soggetti interessati […] esprimono l’ordine di preferenza tra posti di sostegno e posti comuni. Esprimono, inoltre, l’ordine di preferenza tra tutte le province, a livello nazionale”; al successivo comma 101 si prevede che: “la provincia e la tipologia di posto su cui ciascun soggetto è assunto sono determinate scorrendo, nell’ordine, le province secondo le preferenze indicate e, per ciascuna provincia, la tipologia di posto secondo la preferenza indicata”. In verità, come queste norme giuridiche (amministrative) siano state tradotte in regola algoritmica ancora oggi non è dato sapere!

Algoritmi e processo decisionale automatizzato: la giurisprudenza del TAR

Secondo i giudici del TAR del Lazio, nel 2016, sulla base delle indicazioni previste dalla Buona Scuola approvata l’anno prima, l’assegnazione delle sedi di immissione in ruolo dei docenti è avvenuta sulla base di un algoritmo contravvenendo ai valori della Costituzione e all’art. 6 della Convenzione europea dei diritti dell’uomo.

Le argomentazioni della sentenza si fondano sul medesimo ragionamento seguito da pregresse pronunce del Tar Lazio (n. 6606/2019 e n. 9224/2018) secondo le quali non è possibile permettere che lo svolgimento dell’attività amministrativa avvenga ad opera di un impersonale algoritmo.

In particolare, la sentenza n. 10693 pubblicata il 13 settembre ultimo scorso stabilisce che “gli istituti di partecipazione, di trasparenza e di accesso, in sintesi, di relazione del privato con i pubblici poteri non possono essere legittimamente mortificate e compresse soppiantando l’attività umana con quella impersonale, che poi non è attività, ossia prodotto delle azioni dell’uomo, che può essere svolta in applicazione di regole o procedure informatiche o matematiche. Ad essere inoltre vulnerato non è solo il canone di trasparenza e di partecipazione procedimentale, ma anche l’obbligo di motivazione delle decisioni amministrative, con il risultato di una frustrazione anche delle correlate garanzie processuali che declinano sul versante del diritto di accesso e difesa in giudizio di cui all’art. 24 Cost., diritto che risulta compromesso tutte le volte in cui l’assenza della motivazione non permette inizialmente all’interessato e successivamente, su impulso di questi, al Giudice di percepire l’iter logico – giuridico seguito dall’amministrazione per giungere ad un determinato approdo provvedimentale. Invero il Collegio è del parere che le procedure informatiche, finanche ove pervengano al maggior grado di precisione e addirittura alla perfezione, non possano mai soppiantare, sostituendola davvero appieno, l’attività cognitiva, acquisitiva e di giudizio che solo un’istruttoria affidata ad un funzionario persona fisica è in grado di svolgere e che pertanto, al fine di assicurare l’osservanza degli istituti di partecipazione, di interlocuzione procedimentale, acquisizione degli apporti collaborativi del privato e degli interessi coinvolti nel procedimento, deve seguitare ad essere il dominus del procedimento stesso, all’uopo dominando le stesse procedure informatiche predisposte in funzione servente e alle quali va dunque riservato tutt’oggi un ruolo strumentale e meramente ausiliario in seno al procedimento amministrativo e giammai dominante o surrogatorio dell’attività dell’uomo”.

Il Consiglio di Stato su algoritmi e processo decisionale automatizzato

Nell’aprile scorso la VI sezione del Consiglio di Stato si è già trovata a dover esaminare una questione simile che il TAR del Lazio aveva già rigettato. Si trattava di un pugno di docenti di scuola secondaria destinatari di una proposta di assunzione a tempo indeterminato della cosiddetta fase B che, a seguito della procedura automatizzata, si sono ritrovati destinatari di nomina:

  • su classi di concorso ed ordine di scuola in cui non avevano mai lavorato;
  • nella scuola superiore di primo grado a fronte di preferenza espressa per la scuola superiore di secondo grado;
  • in province lontane rispetto a quelle di preferenza;
  • in un posto di sostegno piuttosto che in un posto comune.

Tali risultati sarebbero stati ottenuti senza tener conto delle preferenze indicate nelle rispettive domande, senza motivazione e senza trasparenza e sulla base delle risultanze di un algoritmo di cui non si conoscevano le concrete modalità di funzionamento.

A dimostrazione della “irrazionalità” (rectius: ingiustizia) degli esiti della procedura, gli appellanti segnalavano che ai docenti della fase B meglio posizionati in graduatoria erano stati assegnati posti non richiesti e sedi di servizio più lontane rispetto a quelle che – dopo qualche settimana – erano state assegnate ai docenti della fase C che li seguivano in graduatoria con un punteggio inferiore.

Si sono verificate situazioni talmente paradossali, a cui dobbiamo il valore di aver evidenziato le imprecisioni dell’algoritmo.

Algoritmi e processo decisionale automatizzato: cosa sono

Con il primo termine si tende a esprimere in termini matematicamente precisi il concetto di procedura generale, di metodo sistematico valido per la soluzione di una certa classe di problemi, o ancora come più semplicemente è stato definito in sentenza: “una sequenza ordinata di operazioni di calcolo”.

Con processo decisionale automatizzato invece si intende la capacità di prendere decisioni impiegando mezzi tecnologici senza coinvolgimento umano.

Contro la sentenza sfavorevole di primo grado, i docenti si sono rivolti al Consiglio di Stato che ha accolto le loro doglianze. In effetti anche le sentenze del Tar Lazio sopracitate hanno accolto le richieste dei docenti, ma le motivazioni della sentenza n. 2279/2019 del Consiglio di Stato evidenziano un approccio di convivenza con le nuove tecnologie che meritano di essere esaminate.

Il merito della sentenza n. 2279/2019 del Consiglio di Stato

I giudici amministrativi di Palazzo Spada hanno innanzitutto evidenziato che “in generale, non può essere messo in discussione che un più elevato livello di digitalizzazione dell’amministrazione pubblica sia fondamentale per migliorare la qualità dei servizi resi ai cittadini e agli utenti”.

In questo senso, in sentenza è fatto un felice richiamo al Codice dell’Amministrazione Digitale, agli impulsi che provengono dal legislatore europeo e dalla dottrina che, in estrema sintesi, sarebbero tutti diretti ad incentivare l’informatizzazione della pubblica amministrazione.

È evidente, infatti, che l’utilizzo di una procedura digitalizzata e di un algoritmo informatico in grado di valutare ingenti quantità di dati e prendere in automatico decisioni è di grande utilità per un’azione amministrativa che deve essere conforme al principio costituzionale del buon andamento (art. 97 Cost.) e ai canoni di efficienza ed economicità (art. 1 L. 241/1990).

Il Consiglio di Stato, pertanto, incoraggia l’uso di procedure informatiche che conducano direttamente alle decisioni finali in quanto comportano numerosi vantaggi:

  • il minor dispendio di mezzi e risorse;
  • lo snellimento dell’iter procedimentale;
  • la rilevante riduzione dei tempi procedimentali per operazioni ripetitive e prive di discrezionalità;
  • l’esclusione di interferenze umane dovute a negligenza o a dolo (con maggior garanzia di imparzialità della decisione automatizzata).

Tuttavia, rileva il Collegio, l’utilizzo di procedure automatizzate non può essere motivo di elusione dei principi che configurano il nostro ordinamento e che regolano lo svolgersi dell’attività amministrativa.

Infatti, ciascun algoritmo applicato dalle macchine è governato da una regola tecnica a cui corrisponde pur sempre una regola amministrativa creata dall’uomo.

WHITEPAPER
Cybersecurity: come superare le vulnerabilità delle tecniche di Intelligenza Artificiale
Sicurezza
Sicurezza

Pertanto, seppur tradotta in forma matematica, la regola algoritmica utilizzata nell’ambito dell’amministrazione pubblica conserva una valenza giuridica e come tale deve conformarsi ai principi generali dell’attività amministrativa quali pubblicità e trasparenza, ragionevolezza e proporzionalità.

Dunque, l’algoritmo, ossia il software – stabilisce il Consiglio di Stato – deve essere considerato a tutti gli effetti come un “atto amministrativo informatico”.

Di conseguenza la decisione amministrativa automatizzata, assunta mediante l’utilizzo di un algoritmo, impone che:

  1. l’algoritmo sia “conoscibile”, secondo una declinazione rafforzata del principio di trasparenza, che implica anche quello della piena conoscibilità di una regola espressa in un linguaggio differente da quello giuridico. È di particolare rilevanza che i giudici di Palazzo Spada affermino che la “conoscibilità dell’algoritmo deve essere garantita in tutti gli aspetti: dai suoi autori al procedimento usato per la sua elaborazione, al meccanismo di decisione, comprensivo delle priorità assegnate nella procedura valutativa e decisionale dei dati selezionati come rilevanti”. Tanto, afferma il Collegio, “al fine di poter verificare che gli esiti del procedimento robotizzato siano conformi alle prescrizioni e alle finalità stabilite dalla legge o dalla stessa amministrazione a monte di tale procedimento e affinché siano chiare – e conseguentemente sindacabili – le modalità e le regole in base alle quali esso è stato impostato.”
    In sostanza, la “caratterizzazione multidisciplinare” dell’algoritmo che per la sua costruzione richiede oltre alle competenze giuridiche anche quelle tecniche, informatiche, statistiche e amministrative, non è esente dalla necessità che la “formula tecnica” sia corredata da spiegazioni che la traducano nella regola giuridica ad essa sottesa al fine di renderla leggibile e comprensibile ai cittadini e al giudice;
  2. la regola algoritmica sia non solo conoscibile in sé, ma anche soggetta alla piena cognizione del giudice amministrativo che deve poter arrivare a sindacare la stessa “regola” che governa l’algoritmo, la sua logicità e la sua ragionevolezza. Perché anche se di fronte vi è una scelta assunta attraverso una procedura informatica, la valutazione del giudice non può che essere effettiva e di portata analoga a quella esercitata sull’esercizio del potere con modalità tradizionali.

In definitiva, il Consiglio di Stato ha stabilito che “l’appello deve trovare accoglimento, sussistendo nel caso di specie la violazione dei principi di imparzialità, pubblicità e trasparenza, poiché non è dato comprendere per quale ragione le legittime aspettative di soggetti collocati in una determinata posizione in graduatoria siano andate deluse. Infatti, l’impossibilità di comprendere le modalità con le quali, attraverso il citato algoritmo, siano stati assegnati i posti disponibili, costituisce di per sé un vizio tale da inficiare la procedura”.

L’influenza e la fallibilità dell’intelligenza artificiale

Il 27 dicembre 1982 la rivista “Time” dedicava al computer la propria copertina in quanto per la prima volta veniva assegnato a una “macchina” anziché a una persona la qualifica di soggetto dell’anno in ragione della sua “grande influenza nella nostra vita quotidiana”.

Oggi l’assunzione di lavoratori, la determinazione dell’affidabilità per un prestito, la valutazione della capacità di un insegnante, il rating di legalità per l’aggiudicazione degli appalti sono sempre meno il frutto di una scelta umana e sempre più l’esito di selezioni algoritmiche.

Applicazioni di intelligenza artificiale approvano o respingono richieste di mutuo, stabiliscono i premi assicurativi, scoprono le frodi fatte con le carte di credito.

Ci sono algoritmi che funzionano meglio degli esseri umani nel marketing online, nella consulenza finanziaria, addirittura nella previsione di sentenze in base a casi analoghi. Altri sono irrinunciabili: la medicina di precisione, con tutti i dati sulla storia clinica di un paziente, sul suo codice genetico e su quello dei genitori comparati con quelli di altri milioni di casi, può curare una persona in modo mirato come mai prima d’ora.

Pertanto, è realtà diffusa che il compito di decidere aspetti determinanti della vita delle persone sia affidato ad un algoritmo.

I casi più estremi, tuttavia, ci fanno intendere come i processi automatizzati evidenzino errori o distorsioni che possono comportare classificazioni errate e valutazioni basate su proiezioni imprecise, che incidono negativamente sulle persone fisiche.

Un esempio è l’algoritmo utilizzato negli USA per il calcolo del rischio di recidiva penale che, in assenza di ragioni criminologiche, si è dimostrato incline ad assegnare un tasso maggiore agli individui neri rispetto ai bianchi, solo sulla base delle correlazioni desunte da una determinata serie storica assunta a riferimento. È lecito allora chiedersi se questa giustizia performante (e disumana) possa davvero garantite la giustizia e l’equità.

Se non governata, infatti, la discriminazione algoritmica rischia di approfondire le iniquità alle quali vorrebbe ovviare. Il pericolo risiede nell’affidamento cieco che si fa ai risultati statistici e all’insindacabilità della decisione algoritmica derivante dalla non conoscibilità nelle sue modalità operative.

Numerosi studi hanno dimostrato che gli algoritmi non sono infallibili e neutri ma piuttosto opinioni umane strutturate in forma matematica che spesso riflettono, in misura più o meno rilevante, le precomprensioni di chi li progetta o le serie storiche assunte a riferimento.

Il rischio, dunque, è non soltanto di cristallizzare il futuro nel passato, leggendo sempre il primo con gli schemi del secondo, ma anche di assumere le (contingenti) correlazioni delle serie storiche considerate, come punti di riferimento necessariamente causali.

Di conseguenza, certamente le applicazioni IA possono rappresentare uno strumento utile nei processi decisionali ma, come per altre innovazioni tecnologiche, non deve sottacersi che queste applicazioni sono fallibili e conseguentemente possono avere ripercussioni negative sugli individui e la società.

Il GDPR e il processo decisionale automatizzato

La realtà digitale è divenuta la dimensione entro cui si svolge ogni attività dell’uomo e i dati rappresentano la proiezione digitale della vita stessa dell’individuo.

L’Internet delle cose (IoT, Internet of Things), i progressi tecnologici e le capacità in materia di analisi dei Big Data, l’intelligenza artificiale (IA) e l’apprendimento automatico hanno reso più facile la creazione di profili (cosiddetta profilazione) e l’adozione di decisioni automatizzate, con potenziali ripercussioni significative sui diritti e sulle libertà delle persone fisiche.

L’art. 4, n. 4, GDPR definisce la «profilazione» come “qualsiasi forma di trattamento automatizzato di dati personali consistente nell’utilizzo di tali dati personali per valutare determinati aspetti personali relativi a una persona fisica, in particolare per analizzare o prevedere aspetti riguardanti il rendimento professionale, la situazione economica, la salute, le preferenze personali, gli interessi, l’affidabilità, il comportamento, l’ubicazione o gli spostamenti di detta persona fisica”.

Il tutto rientra nel tema più ampio dei Big Data: enormi banche dati contenenti le vite delle persone che si contraddistinguono rispetto ad un archivio statico per il fatto che le informazioni al loro interno vengono automaticamente interconnesse e rielaborate (deep learning), in base a imperscrutabili e inflessibili algoritmi, per dare vita a informazioni di secondo grado (data mining), riutilizzabili per altri fini.

Di qui l’importanza del Regolamento sulla protezione dei dati personali (GDPR) e delle sue norme sulla trasparenza e sulla contestabilità del processo decisionale automatizzato, dei suoi criteri e delle sue conseguenze, grazie alle cui norme si impone la possibilità di un intervento umano e si contrasta la delega assoluta al cieco determinismo dell’algoritmo.

Il GDPR, per correggere questo dislivello informativo tra titolare e interessato ed evitare pregiudizi alla sfera giuridica di quest’ultimo, individua una serie di requisiti su cui i titolari debbono responsabilmente concentrarsi per rendere i loro trattamenti automatizzati conformi alla normativa europea:

  • specifiche prescrizioni in tema di trasparenza e correttezza;
  • maggiori obblighi di accountability;
  • basi giuridiche specifiche per la legittimazione del trattamento;
  • garanzie per gli individui in tema di diritto di opposizione alla profilazione (per finalità di marketing);
  • esecuzione di una valutazione d’impatto sulla protezione dei dati laddove non siano soddisfatte certe condizioni.

Algoritmi e processo decisionale automatizzato: il diritto ad opporsi

Il legislatore europeo ha prestato particolare attenzione al processo decisionale automatizzato relativo alle persone fisiche e all’articolo 22, par. 1, GDPR ha prescritto che “l’interessato ha il diritto di non essere sottoposto a una decisione basata unicamente sul trattamento automatizzato, compresa la profilazione, che produca effetti giuridici che lo riguardano o che incida in modo analogo significativamente sulla sua persona”, salvo i casi di cui al paragrafo 2.

Per “decisione basata unicamente sul trattamento automatizzato” si deve intendere una decisione presa senza il coinvolgimento di un essere umano che possa influenzare ed eventualmente cambiare il risultato attraverso la sua autorità o competenza.

Pertanto, il par. 1 dell’art. 22 più che un diritto istituisce in generale un divieto per il processo decisionale individuale completamente automatizzato (compresa la profilazione) che abbia un effetto legale o analogo sull’interessato.

Sul punto, si fa rilevare che il par. 2 dell’art. 22 prevede delle eccezioni che legittimano il titolare a prendere una decisione basata unicamente sul trattamento automatizzato se:

  1. è necessaria per la conclusione o l’esecuzione di un contratto;
  2. è autorizzata dal diritto dell’Unione o dello Stato membro cui è soggetto il titolare del trattamento, che precisa altresì misure adeguate a tutela dei diritti, delle libertà e dei legittimi interessi dell’interessato;
  3. si basa sul consenso esplicito dell’interessato.

Laddove il processo decisionale coinvolga categorie particolari di dati definite all’articolo 9, par. 1, GDPR il titolare del trattamento deve altresì garantire di poter soddisfare i requisiti di cui all’articolo 22, par. 4.

Per quanto qui di interesse nel raffronto con la sentenza del Consiglio di Stato, nel caso dei concorsi pubblici il processo decisionale automatizzato è evidentemente autorizzato ex articolo 22, par. 2, lett. b), che impone altresì al titolare del trattamento (l’ente che indice il concorso) di attuare misure adeguate a tutela dei diritti, delle libertà e dei legittimi interessi degli interessati.

Tali misure dovrebbero includere quanto meno la possibilità per l’interessato di ottenere l’intervento umano, esprimere il proprio punto di vista e contestare la decisione.

Sul tema il Gruppo art. 29 puntualizza che “l’intervento umano è un aspetto fondamentale. Qualsiasi riesame dovrebbe essere effettuato da una persona che dispone dell’autorità e della competenza adeguate a modificare la decisione. Il responsabile di tale riesame dovrebbe effettuare una valutazione approfondita di tutti i dati pertinenti, comprese eventuali informazioni aggiuntive fornite dall’interessato”.

Il considerando 71 sottolinea che: “In ogni caso, tale trattamento dovrebbe essere subordinato a garanzie adeguate, che dovrebbero comprendere la specifica informazione all’interessato e il diritto di ottenere l’intervento umano, di esprimere la propria opinione, di ottenere una spiegazione della decisione conseguita dopo tale valutazione e di contestare la decisione”.

Diventa pertanto indispensabile la trasparenza del trattamento in quanto l’interessato sarà in grado di contestare una decisione o esprimere il proprio parere soltanto se comprende pienamente come è stata presa la decisione.

Il principio di trasparenza e il diritto ad essere informati

Volendo fare un primo confronto con le conclusioni raggiunte dalla sentenza n. 2270 del Consiglio di Stato, anche il GDPR impone la trasparenza e la conoscibilità di esistenza-logica-importanza-conseguenze del processo decisionale automatizzato.

Più in particolare, la trasparenza è un requisito fondamentale imposto dal GDPR (artt. 5, 12 e ss.) e conseguentemente il titolare deve fornire agli interessati in modo conciso, trasparente e comprensibile tutte le informazioni in merito al trattamento dei loro dati.

Se prende decisioni automatizzate, ai sensi degli artt. 13 e 14, sempre al par. 2, rispettivamente alle lett. f) e g), GDPR, il titolare del trattamento deve fornire all’interessato informazioni relative a “l’esistenza di un processo decisionale automatizzato, compresa la profilazione di cui all’articolo 22, paragrafi 1 e 4, e, almeno in tali casi, informazioni significative sulla logica utilizzata, nonché l’importanza e le conseguenze previste di tale trattamento per l’interessato”.

In pratica, il titolare del trattamento dovrebbe trovare modi semplici per comunicare all’interessato la logica o i criteri sui quali si basa l’adozione della decisione automatizzata, nonché sulle possibili conseguenze future.

Le informazioni dovrebbero essere sufficientemente complete affinché l’interessato possa comprendere i motivi alla base della decisione, ma non deve essere fornita necessariamente la spiegazione complessa degli algoritmi utilizzati o la divulgazione dell’algoritmo completo.

Per rendere queste informazioni significative e comprensibili, dovrebbero essere forniti esempi reali e concreti del tipo di possibili effetti.

Inoltre, in linea con gli obblighi di cui agli articoli 13 e 14 – quando gli interessati dovrebbero essere già stati informati che interagiscono con un’applicazione IA – l’articolo 15, par. 1, lett. h), afferma che il titolare del trattamento deve fornire all’interessato che le richiede, informazioni sull’esistenza di un processo decisionale automatizzato e sulla relativa logica, sulle conseguenze previste del trattamento, ovvero la spiegazione di una particolare decisione.

Dovrebbe altresì essere garantito il diritto di opporsi al trattamento basato su tecnologie che influenzano le opinioni e lo sviluppo personale degli individui, nonché il diritto di ottenere l’intervento umano e il diritto di contestare la decisione (art. 22, par. 3, GDPR).

In definitiva, tenuto conto dei rischi rilevanti su diritti e libertà dell’interessato, il Regolamento da un lato obbliga il titolare ad attuare misure adeguate e “rafforzate” di tutela (“effettuare valutazioni frequenti degli insiemi di dati che tratta, in maniera da rilevare eventuali distorsioni, e sviluppare metodi per affrontare eventuali elementi pregiudizievoli, compreso un eccessivo affidamento sulle correlazioni. I sistemi che verificano gli algoritmi e i riesami periodici dell’esattezza e della pertinenza del processo decisionale automatizzato, compresa la profilazione, sono ulteriori misure utili”, così WP251).

Dall’altro lato, riconosce il potere all’interessato di ottenere l’intervento umano da parte del titolare, di esprimere la propria opinione e di contestare la decisione, nei casi in cui tale decisione sia prevista per contratto o consentita dall’interessato (art. 22, par. 3).

Conclusioni

Prima di addivenire alle considerazioni conclusive, è opportuno premettere che:

  • la questione della giurisprudenza sull’algoritmo della scuola è sorta quando il GDPR non era ancora stato adottato (27 aprile 2016; piena applicazione il 25 maggio 2018);
  • il GDPR non distingue tra titolari pubblici e titolari privati e non contiene norme specifiche dedicate al settore privato e pubblico in quanto il regolamento si sofferma piuttosto sulla tipologia del trattamento che scaturisce dall’attività svolta dal titolare.

Tali premesse permettono innanzitutto di affermare che oggi, anche il trattamento dei dati personali effettuato da un Ministero per finalità concorsuali è in generale soggetto ai principi del Regolamento sulla protezione dei dati personali.

Poi, con particolare riferimento al processo decisionale automatizzato nella PA, quest’ultimo può avere luogo se ai sensi dell’articolo 22, par. 2, lett. b), il diritto dell’Unione o dello Stato membro cui è soggetto il titolare ne autorizza l’uso, altresì prevedendo misure adeguate a tutela dei diritti, delle libertà e dei legittimi interessi dell’interessato.

Pertanto, un prima conclusione è che evidentemente i Ministeri potranno essere autorizzati (per legge) all’uso dell’algoritmo per i concorsi.

Dalla lettura degli articoli 13, par. 2, lett. f) – 14, par. 2, lett. g) – 15, par. 1, lett. h) si evidenzia che il titolare deve fornire all’interessato informazioni relative all’esistenza di un processo decisionale automatizzato, compresa la profilazione di cui all’articolo 22, par. 1 e 4, e, “almeno in tali casi, informazioni significative sulla logica utilizzata, nonché l’importanza e le conseguenze previste di tale trattamento per l’interessato”.

In verità, per quanto qui di interesse, una interpretazione letterale/restrittiva della norma sembra “escludere” per il titolare l’obbligo di fornire informazioni – relative al caso di cui all’art. 22, par. 2, lett. b, ovvero – significative sulla logica utilizzata nel caso in cui la decisione automatizzata sia autorizzata dal diritto dell’Unione o dello Stato membro.

Ebbene, la straordinarietà della sentenza del Consiglio di Stato in commento, a scongiurare possibili arroccamenti, risiede nel fatto che impone la “conoscibilità della logica” utilizzata dall’algoritmo della P.A. lì dove lo stesso Regolamento europeo sulla protezione dei dati personali sembra prevedere una deroga.

webinar, 21 aprile
Smartworking e Security: come fronteggiare gli attacchi che sfruttano l’emergenza da Coronavirus?
Sicurezza

Concludendo, nel dare per scontato l’utilizzo ineluttabile dell’algoritmo (anche) nella PA, si affermano una volta di più il principio della trasparenza e della conoscibilità come strumento e baluardo della protezione della dignità umana e della non discriminazione dell’individuo.

@RIPRODUZIONE RISERVATA

Articolo 1 di 4