l'analisi

La privacy di ChatGpt interessa tutta l’Europa, interviene l’EDPB: ecco perché

L’ultimo provvedimento del Garante su ChatGpt, di ieri, conferma che l’obiettivo è sempre stato garantire il rispetto dei principi fondamentali del trattamento previsti dalla normativa Europea. Ecco perché ora anche EDPB si muove con una task force dedicata

Pubblicato il 13 Apr 2023

Anna Cataleta

Senior Partner P4I – Partners4Innovation

Alessandra Nisticò

Data Privacy Consultant, P4I - Partners4Innovation

chatgpt furto credenziali

Il contenuto del provvedimento del Garante privacy su Chatgpt, di ieri, è molto concreto e puntuale nell’individuare i nodi che erano stati sollevati dal provvedimento d’urgenza e, come si può rilevare dalle misure richieste dall’Autorità, non è finalizzato a bloccare tout-court l’uso di una soluzione tecnologica altamente innovativa, ma a garantire che essa rispetti i principi fondamentali del trattamento previsti dalla normativa Europea.

Il provvedimento del Garante privacy è tutt’uno con la normativa europea 

Principi per altro che non sono sconosciuti in altri ordinamenti come quello statunitense in cui il principio di correttezza del trattamento, il diritto all’opt-out, l’accesso dei minori ai servizi sono punti di attenzione di varie normative, non da ultima quella californiana, stato in cui ha sede OpenAI. Si ricordi anche recente intervento del presidente Biden in merito.

ChatGpt, la privacy ha vinto. Pizzetti: “Grande occasione di confronto sul valore dei nostri dati”

Edpb scende in campo

Non è un caso quindi che il provvedimento dell’Autorità italiana è stato ben accolto anche da altre Autorità europee, come l’Agencia Española Proteccìon Datos (AEPD), l’omologo spagnolo del nostro Garante, che ha chiesto all’European Data Protection Board (EDPB) di affrontare la questione a livello europeo per avere un’uniformità di approccio e di interpretazione tra le varie autorità.

L’EDPB ha inizialmente diramato una nota di risposta all’AEPD dichiarando di non poter intervenire in sostituzione delle Autorità nazionali e che la questione deve essere presente davanti le Autorità di controllo degli stati membri. Infatti, l’articolo 70 GDPR che disciplina i compiti del Comitato non prevede un potere di intervento in sostituzione delle Autorità nazionali.

I compiti dell’EDPB possono infatti essere sintetizzati come segue:

  • Sorveglianza della corretta applicazione del regolamento, fatti salvi i compiti delle autorità di controllo degli Stati membri.
  • Consulenza nei confronti della Commissione su qualsiasi questione relativa alla protezione dei dati personali, inclusi i progetti di modifica del regolamento, le procedure sullo scambio di informazioni nell’ambito delle norme vincolanti di impresa;
  • Elaborazione e pubblicazione di linee guida, raccomandazioni e best practice al fine di promuovere l’applicazione coerente del Regolamento su tutta una serie di materie che vanno dalla proposizione dei servizi di comunicazione elettronica al pubblico, alla profilazione, i trasferimenti di dati, gli elementi per la valutazione del data breach o meccanismi di armonizzazione delle sanzioni e dei provvedimenti correttivi;
  • Svolge un ruolo nell’incoraggiare l’elaborazione di codici di condotta e l’istituzione di meccanismi di certificazione della protezione dei dati nonché di sigilli e marchi di protezione dei dati, nonché l’accreditamento degli organismi di certificazioni;
  • Tiene i registri pubblici degli organismi accreditati e dei titolari o responsabili del trattamento accreditati, nonché delle decisioni adottate dalle autorità di controllo e dalle autorità giurisdizionali su questioni nell’ambito del meccanismo di coerenza;
  • Promuove programmi di cooperazione tra le Autorità, di scambio di personale, di cooperazione con le autorità di controllo di tutto il mondo;

La pubblicazione del provvedimento del Garante italiano il 12 aprile, il giorno prima della seduta plenaria dell’EDPB, ha consentito che la richiesta dell’AEDP fosse concretamente esaminata nel corso della riunione del 13 aprile, dando modo ai rappresentanti delle autorità europee di confrontarsi sulle misure richieste dall’Autorità italiana ad Open AI.

Ciò anche sulla base della dichiarazione di cooperazione sull’enforcement del 28 aprile 2022[1] in base alla quale le autorità di controllo individuano congiuntamente casi di rilevanza strategica sul piano sovranazionale per le quali la cooperazione sia prioritaria e coordinata dall’EDPB.

I criteri per l’individuazione di tali casi strategici, secondo lo statement dell’EDPB sono sia quantitativi che qualitativi e vengono individuati i seguenti esempi:

  • casi che coinvolgono un ampio numero di interessati all’interno dello Spazio Economico Europeo,
  • che concernono problemi srutturali o ricorrenti in diversi stati membri o
  • che derivino dall’intersezione della normativa data protection con altri settori dell’ordinamento.

Se pensiamo agli studi in corso sull’Intelligenza Artificiale generativa da parte delle autorità di controllo e i centri di ricerca di tutto il mondo, basti pensare alla lunga ricognizione di studi pubblicata dal Think Tank del Parlamento Europeo il 23 marzo 2023[2], è evidente come il tema e le preoccupazioni per i possibili impatti sulla società europea siano ben presenti a tutti gli studiosi che si occupano di Intelligenza Artificiale e che cercano di evitare ogni possibile uso distorto della tecnologia, senza vietarla o volerne impedire lo sviluppo e la sua diffusione.

Nel corso della riunione del 13 aprile, l’EDPB ha deciso di lanciare una task force dedicata[3] per agevolare la cooperazione e lo scambio di informazioni sulle possibili azioni di enforcement portate avanti dalle varie autorità di controllo su Chat-GPT.

Si conferma, anche a livello europeo, che le criticità evidenziate dal provvedimento dell’Autorità Garante sono concrete e vi è una necessità condivisa tra le varie autorità di individuare dei presidi e delle misure che, lungi dal frenare l’innovazione, possano assicurare la piena conformità al Regolamento dello strumento e, soprattutto, la tutela dei diritti e delle libertà degli interessati e dei soggetti più vulnerabili.

In conclusione

Il provvedimento dell’Autorità italiana si pone in continuità con una serie di provvedimenti già emanati in cui l’intelligenza artificiale, rientrante nel novero dei trattamenti automatizzati di cui all’art. 22 GDPR, ha sempre richiesto al Titolare del trattamento di spiegare all’interessato le logiche degli algoritmi. La complessità dell’analisi di chat GPT è dato dall’incontro di due mondi che finora hanno corso su binari paralleli: quello dei big data, sul cui tema da anni vi sono delle riflessioni sulla base giuridica idonea allo scraping[4], ovvero alla raccolta massiva di dati sul web, e quello della trasparenza dell’algoritmo che è possibile rinvenire in provvedimenti come quello nei confronti dell’Università Bocconi o sulle app di food delivery.

La creazione di una task force europea che, per una volta, consenta di affrontare il tema in modo congiunto, ci si augura che consenta di evitare quella continua rincorsa all’ultima pronuncia che nell’ultimo anno abbiamo vissuto sul tema di Google Analytics e di individuare delle modalità di risposta concreta che possano consentire agli operatori economici europei di avvelersi di uno strumento altamente innovativo senza dover pregiudicare i diritti e gli interessi delle persone fisiche.

Note

[1] EDPB Statement on enforcement cooperation – Adopted on 28 April 2022- https://edpb.europa.eu/system/files/2022-04/edpb_statement_20220428_on_enforcement_cooperation_en.pdf

[2] European Parliament Think Tank – Artificial Intelligence [What Think Tanks are Thinking], 23 march 2023:  https://www.europarl.europa.eu/thinktank/en/document/EPRS_BRI(2023)745695

[3] EDPB: https://edpb.europa.eu/news/news/2023/edpb-resolves-dispute-transfers-meta-and-creates-task-force-chat-gpt_en

[4] Si veda, G. D’Acquisto e M. Naldi, Big Data e Privacy by Desisgn, Giappichelli Editore, 2017

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Articoli correlati