Il 28 ottobre 2025, il Garante europeo della protezione dei dati (Edps) ha pubblicato la seconda versione delle “Orientations on Generative AI and the EUDPR”, un testo di quaranta pagine che aggiorna le prime indicazioni diffuse nel 2024.
Il documento fornisce consigli pratici e istruzioni operative a tutte le istituzioni,
organi e agenzie dell’UE (EUIs) sull’uso dei sistemi di AI generativa che trattano dati personali, per garantire la conformità con il Regolamento (UE) 2018/1725, l’equivalente del Gdpr per il settore pubblico europeo.
Come specificato dallo stesso Edps, queste linee guida vengono emanate “nel suo ruolo di autorità di controllo per la protezione dei dati” e non in quello di autorità di sorveglianza del mercato previsto dall’AI Act. Sono quindi un testo di orientamento, non un atto vincolante, ma destinato a incidere fortemente sulle pratiche amministrative dell’Ue.
Indice degli argomenti
Che cosa coprono le linee guida
Gli Orientamenti coprono l’intero ciclo di vita della generative AI, dalla definizione del caso d’uso alla fase di addestramento, validazione, implementazione e monitoraggio.
Vengono affrontate sedici aree tematiche, fra cui:
- liceità del trattamento e basi giuridiche;
- ruoli e responsabilità (titolari, responsabili, contitolari);
- DPIA (Data Protection Impact Assessment, processo aziendale che richiede rigore e metodo per garantire e dimostrare la compliance al Gdpr, il Regolamento generale sulla protezione dei dati, e sostenere la competitività sul mercato) e principio di privacy by design;
- limitazione della finalità e minimizzazione dei dati;
- accuratezza e gestione dei bias;
- diritti degli interessati e decisioni automatizzate;
- obblighi di trasparenza e sicurezza dei dati.
Il documento sottolinea che la neutralità tecnologica del Regolamento fa sì che tutti i principi del diritto alla protezione dei dati si applichino pienamente anche all’AI generativa, indipendentemente dalla complessità tecnica dei modelli impiegati.
AI generativa (Gen AI): definizione e ciclo di vita
Il Garante definisce la Generative AI come una categoria di sistemi basati su “modelli di deep learning capaci di generare contenuti testuali, visivi o sonori a partire dai dati di addestramento”.
Si traccia una gerarchia concettuale chiara e progressiva: l’AI rappresenta il campo generale dell’intelligenza artificiale; machine learning ne è una sotto-
area che consente ai sistemi di apprendere dai dati; deep learning è una tipologia di machine learning basata su reti neurali profonde; all’interno di questa, la generative AI indica i modelli capaci di creare nuovi contenuti; e infine i large language model (LLM) costituiscono una forma specifica di generative AI focalizzata sull’elaborazione del linguaggio naturale.
Le sei fasi del ciclo di vita della Gen AI
Il ciclo di vita include sei fasi principali:
- definizione dello scopo e del caso d’uso;
- selezione o sviluppo del modello;
- addestramento (training) con dataset rilevanti;
- fine-tuning con dati specifici;
- validazione e testing;
- implementazione e monitoraggio continuo.
Il testo evidenzia che ogni fase può implicare trattamenti di dati personali, anche non immediatamente evidenti, e che le EUI devono valutarli singolarmente in termini di liceità e sicurezza.
Liceità del trattamento e basi giuridiche
La sezione 7 chiarisce che il trattamento dei dati personali è lecito solo se fondato su una delle basi giuridiche previste dall’art. 5 del Regolamento (UE) 2018/1725.
Per le istituzioni europee, la base più comune sarà l’articolo 5(1)(a), il trattamento necessario “per l’esecuzione di un compito di interesse pubblico o l’esercizio di pubblici poteri”.
L’uso del consenso è considerato “difficile da applicare e spesso impraticabile” nei contesti di AI generativa, perché è quasi impossibile ottenere un consenso valido da tutti gli individui i cui dati possono essere confluiti nei dataset di addestramento.
Il Garante sottolinea inoltre che le EUI devono accertarsi che eventuali modelli
preaddestrati acquistati sul mercato non siano stati sviluppati mediante trattamenti illeciti di dati personali, assumendosi una precisa responsabilità di verifica e documentazione.
Web scraping e raccolta di dati pubblici
Un capitolo è dedicato alla raccolta di dati tramite web scraping (che consiste nell’automazione del processo di estrazione di dati specifici da siti web), che l’Edps descrive come “una pratica ad alto rischio”.
Anche i dati disponibili pubblicamente, si legge, restano soggetti alla normativa
europea. La loro raccolta e riutilizzo per l’addestramento di modelli richiedono una base giuridica chiara, l’informativa agli interessati e l’adozione di misure di mitigazione (limitazione della fonte, controllo dell’accuratezza, esclusione di dati sensibili).
Il Garante raccomanda di preferire “dati manifestamente resi pubblici dall’individuo” e di adottare controlli costanti per verificare che i dataset non contengano informazioni identificabili o inaffidabili.
Ruoli e responsabilità: controller, processor, joint controller
Le linee guida dedicano grande attenzione alla corretta qualificazione dei soggetti coinvolti.
L’Edps distingue i ruoli previsti dal diritto europeo, titolare, responsabile,
contitolare, dai termini tecnici dell’AI Act (provider, developer, deployer), precisando che non sono equivalenti.
Si raccomanda una valutazione caso per caso per stabilire chi determina le finalità e i mezzi del trattamento, e la formalizzazione degli accordi tra le parti. Esempio: se un’agenzia UE sviluppa un sistema di AI per uso interno, è titolare; un fornitore che fornisce l’infrastruttura è responsabile; se più agenzie cooperano allo sviluppo di un modello comune, diventano contitolari e devono stipulare un accordo conforme all’art. 28 del Regolamento.
Dpia e principio di privacy by design
Il principio di protezione dei dati fin dalla progettazione e per impostazione predefinita (art. 27) è centrale.
Il documento stabilisce che la Data Protection Impact Assessment (Dpia) va condotta prima di qualsiasi trattamento “probabilmente a rischio elevato per i diritti e le libertà delle persone”, come nel caso di nuovi sistemi di AI generativa.
Devono essere coinvolti il Dpo, i servizi IT e legali e il Local Informatics Security
Officer.
Se, dopo la Dpia, i rischi non possono essere mitigati “con mezzi ragionevoli”, l’istituzione deve procedere a consultazione preventiva dell’Edps.
Si raccomanda un monitoraggio periodico dei rischi, poiché il comportamento dei modelli può evolvere nel tempo.
Limitazione della finalità, minimizzazione e accuratezza
Tre principi fondamentali vengono reinterpretati per l’AI generativa:
- limitazione della finalità: ogni fase del ciclo di vita deve avere uno scopo esplicito e distinto (addestramento, fine-tuning, uso operativo). Il riutilizzo dei dati per fini diversi richiede una valutazione di compatibilità;
- minimizzazione: i dati devono essere “adeguati, pertinenti e limitati a quanto necessario”. Il Garante incoraggia l’uso di dati sintetici o anonimizzati e di dataset curati e documentati;
- accuratezza: i titolari devono verificare la qualità dei dati e monitorare gli output per evitare errori e “hallucinations”. Devono inoltre richiedere ai fornitori documentazione e metriche di accuratezza sui dataset usati (labelling, cleaning, enrichment).
L’Edps sottolinea che la quantità di dati non è un indice di qualità, e che dataset ridotti, ma ben strutturati producono risultati più affidabili e sicuri.
Bias, equità e decisioni automatizzate
Un sistema di AI generativa non implica necessariamente una decisione automatizzata, ma quando produce effetti giuridici o significativi per l’individuo, devono essere garantiti il diritto all’intervento umano, alla spiegazione e al ricorso.
L’EDPS richiama la Risoluzione della Global Privacy Assembly (2023), sottolineando la necessità di meccanismi di auditing e tracciabilità dei dati, e di test regolari per verificare la presenza di bias nei dataset o negli algoritmi.
Il principio è chiaro: nessuna decisione pubblica può essere delegata interamente a un modello di AI, per quanto evoluto.
Il ruolo del Dpo e la governance dell’AI pubblica
Nel Regolamento si assegna al Data protection officer (Dpo), il Responsabile della protezione dei dati, un ruolo di consulenza e monitoraggio.
Nelle nuove linee guida, l’Edps invita le EUI a coinvolgere il Dpo fin dalle
fasi di progettazione, a creare AI task force interdisciplinari (Dpo, legale, IT,
sicurezza) e a predisporre piani di formazione interna sull’uso responsabile dell’AI.
La governance efficace, osserva il Garante, “non è mai un compito individuale”, ma un processo collettivo e trasversale che deve permeare tutta l’organizzazione.
Continuità con l’AI Act e prospettive future
Le Orientations non anticipano né sostituiscono l’AI Act, ma lo completano.
L’Edps dichiara esplicitamente che queste linee guida “non pregiudicano l’applicazione dell’AI Act”, ma ne costruiscono il terreno operativo, in particolare per le istituzioni europee che saranno anche soggetti vigilati.
È prevista una revisione periodica del documento per adattarlo all’evoluzione tecnologica e normativa e per integrare i futuri orientamenti del Comitato europeo per la protezione dei dati (Edpb).
Edps: linee guida verso una governance pubblica dell’AI fondata su tre pilastri
Il messaggio del Garante è inequivocabile: “L’uso dell’intelligenza artificiale generativa da parte delle istituzioni pubbliche europee è ammissibile, ma deve avvenire nel pieno rispetto del diritto alla protezione dei dati e sotto il controllo umano”.
Le nuove linee guida segnano un passo importante verso una governance pubblica dell’AI fondata su tre pilastri: trasparenza, responsabilità e controllo umano.
Sono, in definitiva, un manuale di riferimento per l’intera amministrazione europea e un modello utile anche per gli Stati membri che intendono applicare la stessa logica di “AI compliance by design”.












