Il cantiere normativo europeo sull’intelligenza artificiale non si è mai davvero fermato. Mentre le imprese si interrogano ancora sulle scadenze del Regolamento (UE) 2024/1689 (l’AI Act) e gli addetti ai lavori studiano le prime linee guida della Commissione sui sistemi a rischio inaccettabile, il Parlamento europeo è già al lavoro per modificare ciò che aveva appena approvato.
Il 18 marzo 2026, le commissioni IMCO (Mercato interno e protezione dei consumatori) e LIBE (Libertà civili, giustizia e affari interni) hanno adottato il mandato negoziale sulla proposta di Regolamento Omnibus (documento di riferimento A10-0073/2026), che interviene sull’AI Act con l’obiettivo dichiarato di semplificarne l’attuazione con un voto significativamente ampio: 101 favorevoli, 9 contrari, 8 astenuti.
Il testo non è ancora legge. Il mandato, infatti, deve essere validato dalla plenaria del Parlamento europeo, convocata il 26 marzo 2026, poi dovrà avviare le negoziazioni in trilogo con il Consiglio UE per un’adozione finale prevista non prima di giugno 2026, con l’obiettivo di rendere operative le nuove disposizioni entro il primo agosto 2026.
Fino a quel momento, il 2 agosto 2026 rimane la data legalmente vincolante per l’applicazione dell’AI Act nella sua versione vigente. Chi sta costruendo piani di adeguamento non può ancora fare leva su queste proroghe.
Il mandato si allinea in larga misura alla posizione già espressa dal Consiglio UE, il che rafforza le probabilità di una rapida convergenza in trilogo. Ma il voto non è stato privo di tensioni: alcuni gruppi (S&D, Verdi e Sinistra) hanno messo esplicitamente in discussione la necessità di queste modifiche, sollevando il dubbio che la proposta riflettesse più pressioni geopolitiche esterne, in particolare da parte degli Stati Uniti, impegnati in una propria riscrittura del quadro regolatorio sull’IA, che esigenze tecniche interne.
La “semplificazione”, insomma, è anche un posizionamento competitivo in un momento in cui la divergenza regolatoria tra le due sponde dell’Atlantico è un fattore di mercato reale. Alcune delle modifiche introdotte riguardano direttamente il trattamento dei dati personali, il rapporto con il GDPR e la tutela dei diritti fondamentali.
Vale la pena esaminarle con attenzione.
Indice degli argomenti
Nuove date di applicazione per i sistemi ad alto rischio
La proposta della Commissione europea aveva già previsto una proroga fino a sedici mesi per l’entrata in vigore degli obblighi relativi ai sistemi di IA ad alto rischio, condizionandola però alla disponibilità degli standard tecnici armonizzati. Il mandato di IMCO e LIBE introduce invece date fisse: 2 dicembre 2027 per i sistemi ad alto rischio autonomi; 2 agosto 2028 per quelli integrati in prodotti.
La scelta di date certe, anziché di termini flessibili legati alla pubblicazione degli standard, ha una valenza pratica non trascurabile per i professionisti della compliance. Fissa orizzonte temporali stabili su cui costruire piani di adeguamento, evitando così l’incertezza legata al meccanismo condizionale proposto dalla Commissione.
L’altro effetto, meno visibile ma rilevante, riguarda le norme transitorie. Nell’AI Act vigente, i sistemi ad alto rischio già operativi prima del 2 agosto 2026 beneficiano della clausola transitoria.
Con l’emendamento di compromesso, tale clausola si estende ai sistemi esistenti prima delle nuove date di applicazione (2027 o 2028, secondo la categoria). In pratica, si allarga significativamente la platea dei sistemi che rientrano nel regime transitorio, con un alleggerimento degli oneri di conformità immediata ma anche – è bene dirlo – con un posticipo delle garanzie per gli interessati.
Dal punto di vista del DPO e del responsabile della compliance, questo significa che i sistemi ad alto rischio già in uso – si pensi ai sistemi di screening del personale, a quelli di valutazione del merito creditizio, ai software decisionali in ambito sanitario – potranno continuare a operare con i requisiti del diritto previgente per un periodo ulteriormente esteso.
Il che non elimina le responsabilità in materia di protezione dei dati, che rimangono interamente in capo ai titolari del trattamento ai sensi del GDPR.
Un segnale in controtendenza: il watermarking viene anticipato
Non tutto il mandato va nella direzione del rinvio. Per i sistemi di IA generativa, il termine per il machine-readable marking dei contenuti artificialmente generati viene fissato al 2 novembre 2026, tre mesi prima della scadenza che la Commissione aveva proposto (febbraio 2027).
Le restanti obbligazioni di trasparenza ex art. 50 rimangono operative da agosto 2026. Per chi gestisce chatbot, content generator o sistemi multimodali, questa accelerazione è un elemento da non sottovalutare nella pianificazione. La direzione qui è opposta alla semplificazione.
Agevolazioni estese alle “small mid-cap”
Il mandato conferma inoltre l’estensione dei regimi semplificati non solo alle PMI classiche – meno di 250 dipendenti, fatturato inferiore a 50 milioni di euro – ma anche a una nuova categoria introdotta dalla Raccomandazione (UE) 2025/1099: le cosiddette small mid-cap, imprese con 250-749 dipendenti e fatturato annuo non superiore a 150 milioni di euro (o totale di bilancio non superiore a 129 milioni di euro).
Per questi soggetti, la documentazione tecnica richiesta per i sistemi ad alto rischio segue requisiti alleggeriti. Una misura che interessa una fascia significativa del tessuto industriale italiano, spesso dimenticata nel dibattito normativo che tende a polarizzarsi tra grandi player tecnologici e microimprese.
Il divieto delle app di “nudificazione”: finalmente un presidio esplicito
Tra le novità più significative sul piano della tutela della dignità personale, il mandato introduce il divieto esplicito delle cosiddette app di nudificazione, sistemi di IA in grado di generare o manipolare immagini per rappresentare una persona identificabile in modo sessualmente esplicito, senza il suo consenso.
La norma colma una lacuna che era già evidente al momento dell’approvazione dell’AI Act originario. Il fenomeno del deepfake non consensuale di natura sessuale è statisticamente documentato come strumento di violenza di genere e di stalking; la sua inclusione tra le pratiche vietate dall’art. 5 del Regolamento – quello che elenca i rischi inaccettabili – rappresenta un allineamento atteso con la Direttiva (UE) 2024/1385 sulla violenza contro le donne.
La misura non nasce in astratto. Il contesto immediato è la vicenda del chatbot Grok di X, che a fine 2025 ha permesso agli utenti di generare e condividere immagini sessualmente esplicite di persone reali, adulti e minori, con facilità allarmante, scatenando un’ondata di reazioni istituzionali a livello globale.
In gennaio la Commissione europea ha aperto una formale istruttoria nei confronti di X e della funzione Grok Baker McKenzie. Il divieto inserito nel mandato è, almeno in parte, una risposta normativa diretta a quella crisi.
Il relatore McNamara ha dichiarato: “L’IA non deve mai essere usata per umiliare, sfruttare o mettere in pericolo le persone. La posizione del Parlamento, per la prima volta, chiede un divieto esplicito delle applicazioni di nudificazione”.
La formulazione normativa, tuttavia, merita attenzione. Il divieto non si applica a quei fornitori o utilizzatori che abbiano adottato misure di sicurezza efficaci per prevenire la generazione di tali rappresentazioni e per evitare usi impropri su base continuativa, anche dopo l’immissione sul mercato. Il testo precisa, inoltre, che il divieto non impedisce ai fornitori di sviluppare le capacità tecniche sottostanti.
Qui il punto critico è evidente: si traccia una linea di demarcazione tra il sistema di IA come strumento e il suo uso abusivo. La questione è se questa distinzione regga sotto la pressione applicativa reale. Il confine tra “sistema che consente la nudificazione” e “sistema che la facilita ma non la vieta efficacemente” rischia di diventare terreno di contestazione nelle future istruttorie delle autorità nazionali competenti. Per chi gestisce piattaforme o distribuisce modelli fondazionali, l’onere dimostrativo sulle “misure efficaci” è un elemento da non sottovalutare.
L’onere dimostrativo ricade sul fornitore. Chi distribuisce modelli fondazionali, piattaforme multimodali o strumenti di image generation dovrà essere in grado di documentare l’adozione e l’efficacia continuativa delle misure di sicurezza implementate — non solo al momento dell’immissione sul mercato, ma su base permanente.
È un profilo di responsabilità che si sovrappone parzialmente agli obblighi di sicurezza del trattamento ai sensi dell’art. 32 GDPR, ma che opera su un piano autonomo e con una logica di accountability specifica rispetto all’AI Act.
Correzione dei bias: la finestra si allarga, ma le condizioni sono stringenti
Il tema è uno dei più delicati all’intersezione tra AI Act e GDPR. L’emendamento approvato consente ai fornitori di sistemi ad alto rischio di trattare categorie particolari di dati ai sensi dell’art. 9 GDPR in via eccezionale, qualora tale trattamento sia necessario per rilevare e correggere bias algoritmici, ma solo quando non siano disponibili alternative tecniche adeguate (dati sintetici, dati anonimizzati).
La modifica che merita attenzione specifica riguarda la soglia di attivazione. L’AI Act vigente richiede che tale trattamento sia “strettamente necessario”; l’Omnibus propone di abbassarla a “necessario”.
La differenza non è stilistica. “Strettamente necessario” implica l’assenza di qualsiasi alternativa praticabile; “necessario” introduce un margine di proporzionalità più ampio che, in sede applicativa, si traduce in una valutazione discrezionale del titolare del trattamento.
Per chi redige DPIA e valutazioni di impatto, questo cambio di soglia sposta materialmente il peso argomentativo.
Le garanzie previste sono articolate: pseudonimizzazione e misure di sicurezza avanzate; accesso limitato al personale autorizzato; registro degli accessi e obblighi di riservatezza; divieto di trasferimento o comunicazione a terzi; cancellazione obbligatoria al termine delle operazioni di debiasing o allo scadere del periodo di conservazione. E, per converso, obbligo di documentare nel registro dei trattamenti ex art. 30 GDPR le ragioni specifiche che hanno reso necessario il ricorso a tali dati.
È un ampliamento significativo, e non a caso è qui che si concentra il fuoco critico delle istituzioni di controllo.
L’EDPB e l’EDPS hanno entrambi criticato la formulazione di questa disposizione e il Consiglio UE, nel proprio mandato adottato il 13 marzo 2026, ha già ripristinato lo standard della “strict necessity” posizione che era stata anticipata dalla Presidenza cipriota nel testo di compromesso del 23 gennaio. Con Parlamento e Consiglio allineati su questo punto, la soglia più restrittiva ha buone probabilità di sopravvivere al trilogo.
Il punto di attenzione per i DPO è duplice.
Primo: questa facoltà non è circoscritta ai soli sistemi ad alto rischio. Il testo prevede che, in via eccezionale, essa possa estendersi ad altri sistemi di IA, purché sussistano le condizioni di necessità e proporzionalità e siano rispettate tutte le garanzie. Secondo: il raccordo con il GDPR non è automatico. La base giuridica per il deve essere identificata autonomamente ai sensi dell’art. 9, par. 2 del Regolamento, e l’eccezione AI Act non sostituisce il consenso esplicito né le altre condizioni previste dalla norma europea sulla protezione dei dati.
In pratica, il titolare del trattamento che intenda avvalersi di questa facoltà dovrà condurre una valutazione d’impatto (DPIA) specifica, aggiornare il Registro, e documentare con precisione l’impossibilità di ricorrere a dati alternativi. Un onere non banale, ma proporzionato alla delicatezza dei dati trattati.
Mantenuto l’obbligo di registrazione per i sistemi non ad alto rischio
La proposta della Commissione europea aveva eliminato l’obbligo di registrazione nel database europeo per i sistemi classificati al di sotto della soglia di alto rischio, sostituendolo con una mera autovalutazione documentata del fornitore, accessibile alle autorità su richiesta. Su questo punto, sia il Parlamento che il Consiglio si sono discostati dalla Commissione, ma con un perimetro di intervento diverso, e la differenza è sostanziale.
Il mandato del Consiglio del 13 marzo ripristina la registrazione in modo selettivo: la reintroduce specificamente per i sistemi che ricadono nell’art. 6(3) dell’AI Act, vale a dire quei sistemi che in astratto potrebbero essere classificati come ad alto rischio ma che il fornitore ritiene esenti da tale classificazione. È la zona grigia delle auto-esenzioni, esattamente quella dove il rischio di classificazioni opportunistiche è più alto e dove la supervisione pubblica è più necessaria. Su questo punto il Consiglio chiude una porta che la Commissione aveva lasciato aperta.
Il mandato IMCO-LIBE va oltre. Mantiene la registrazione come obbligo di portata più generale, anche per i sistemi genuinamente a rischio limitato, ammettendo però procedure semplificate. Non è la stessa cosa: il Consiglio agisce sulla zona grigia, il Parlamento presidia l’intero perimetro dei sistemi non ad alto rischio. Il trilogo dovrà trovare un punto di sintesi tra i due approcci, e non è scontato che prevalga la posizione più ampia del Parlamento.
Il contesto industriale non è silenzioso. Quarantotto associazioni europee di categoria hanno scritto congiuntamente a MEP e Consiglio chiedendo un alleggerimento più incisivo dell’intero impianto, denunciando in particolare la sovrapposizione regolatoria per le imprese già disciplinate da framework settoriali specifici in ambito sanitario, manifatturiero ed energetico. La pressione è reale e potrebbe influenzare le negoziazioni.
Dal punto di vista della trasparenza sistemica, il mantenimento dell’obbligo, in qualunque forma emerga dal trilogo, ha una logica coerente. Un’autovalutazione documentata tenuta in casa dal fornitore e accessibile solo su richiesta è un presidio ben più debole rispetto a un registro pubblico consultabile. Le autorità nazionali competenti, e indirettamente le autorità di protezione dei dati nell’ottica del coordinamento tra AI Act e GDPR, hanno interesse a un database affidabile.
Il punto di equilibrio tra accountability e onere amministrativo dovrà essere trovato in sede negoziale, tenendo conto in particolare delle imprese di medie dimensioni che non dispongono di strutture compliance dedicate.
AI Omnibus: semplificazione sì, ma con quale bussola?
Il mandato adottato da IMCO e LIBE fotografa una fase in cui l’Europa prova a rimediare alla complessità di un testo normativo che, nella sua versione originaria, aveva già accumulato critiche per eccesso di dettaglio tecnico e scarsa leggibilità applicativa. L’AI Omnibus è un’operazione di manutenzione straordinaria, non una revisione strutturale.
Dal punto di vista della protezione dei dati, il quadro che emerge è composito: si introducono nuovi divieti espliciti (le app di nudificazione), si allargano cautamente le possibilità di trattamento di categorie particolari di dati (la finestra del debiasing), si spostano in avanti le scadenze per i sistemi ad alto rischio, si mantiene la registrazione pubblica come presidio di accountability diffusa.
Il filo conduttore che attraversa tutto il mandato è la tensione irrisolta tra due esigenze legittime: la competitività del mercato europeo dell’IA, che richiede certezza normativa e oneri proporzionati, e la tutela dei diritti fondamentali, che richiede presidi stabili e non negoziabili.
Il primo obiettivo tende a prevalere nelle disposizioni sulle scadenze e sulle agevolazioni per le imprese; il secondo resiste nelle disposizioni su dati sensibili, registrazione e pratiche vietate. Non è una contraddizione è una composizione politica, e come tale va letta.
La domanda che chi lavora in questo campo dovrebbe tenere a mente non è solo “quando?” le date ci sono ma “come?”: come si raccordano queste modifiche con i programmi di conformità già avviati, con le DPIA in corso, con le istruttorie del Garante, con i contratti con i fornitori di sistemi IA.
La risposta non è nel mandato. È nel lavoro che viene dopo.














