L’analisi

La nuova normativa italiana sull’IA: principi, applicazioni e governance della Legge 132/2025



Indirizzo copiato

La nuova normativa quadro italiana sull’intelligenza artificiale (IA) è stata promulgata con l’obiettivo di governare lo sviluppo tecnologico in modo etico e competitivo. Articolo per articolo, ecco la Legge 132/2025, la prima sull’intelligenza artificiale in Italia che integra l’AI Act europeo con disposizioni nazionali

Pubblicato il 16 ott 2025

Vincenzo Calabrò

Information Security & Digital Forensics Analyst and Trainer



Legge italiana intelligenza artificiale: La nuova normativa italiana sull'intelligenza artificiale: principi, applicazioni e governance della Legge 132/2025 - IA in tribunale

La Legge 132/2025 in sintesi

  • La Legge 132/2025 integra il AI Act, creando un quadro nazionale che promuove l’innovazione, tutela i diritti fondamentali e previene la frammentazione normativa.
  • Principi centrali: antropocentrico, trasparenza, sicurezza, proporzionalità e non discriminazione, applicati in sanità, pubblica amministrazione e settori strategici; vigilanza affidata a Agid e Acn.
  • Governance ed enforcement con nuove fattispecie penali (es. deep fake) e assenza di fondi specifici per la ricerca, lasciando il finanziamento alle risorse esistenti.
Riassunto generato con AI

Il 10 ottobre 2025 è entrata in vigore la Legge 132/2025, la prima legge italiana sull’intelligenza artificiale che integra l’AI Act europeo con disposizioni nazionali.

Ecco, articolo per articolo, la nuova normativa quadro italiana sull’intelligenza artificiale (IA), promulgata con l’obiettivo di governare lo sviluppo tecnologico in modo etico e competitivo.

La Legge 132/2025

La legge 132/2025 si inserisce in linea con le iniziative legislative dell’Unione europea, in particolare con il Regolamento Ue 2024/1689, noto come AI Act (che, dal 2 febbraio 2025, vieta le applicazioni di IA ad “alto rischio inaccettabile”, per i sistemi di intelligenza artificiale che minacciano diritti e libertà fondamentali), con l’obiettivo strategico di creare un ecosistema di fiducia e prevenire la frammentazione normativa all’interno del mercato unico digitale.

Contesto e finalità della legge 132/2025

Con la promulgazione della nuova legge quadro sull’intelligenza artificiale, l’Italia si dota di uno strumento strategico per governare lo sviluppo tecnologico in modo etico e competitivo, inserendosi coerentemente nel solco delle iniziative legislative dell’Unione europea.

Questo intervento normativo non si pone come un freno, ma come un binario per guidare lo sviluppo tecnologico lungo un percorso responsabile e sostenibile.

Posizionandosi in modo coerente all’interno del quadro delle iniziative europee, come il Regolamento europeo sull’IA, la legge mira a creare un ecosistema di fiducia e a valorizzare le opportunità offerte dall’intelligenza artificiale, mitigandone al contempo i rischi.

L’articolo 1 della Legge 132/2025

Gli obiettivi primari della normativa, delineati nell’articolo 1, riflettono un duplice scopo attentamente bilanciato.

Da un lato, si intende promuovere la ricerca, la sperimentazione e l’adozione di sistemi di intelligenza artificiale come volano per l’innovazione e la competitività del Paese. Dall’altro lato, la legge stabilisce un rigoroso quadro di vigilanza sui rischi economici, sociali e, soprattutto, sull’impatto che queste tecnologie possono avere sui diritti fondamentali delle persone.

La norma adotta un approccio dichiaratamente “antropocentrico”, ponendo l’essere umano al centro di ogni fase del ciclo di vita della tecnologia, dalla progettazione all’utilizzo finale.

Per dare concreta attuazione a questa visione, la normativa definisce innanzitutto con chiarezza il proprio ambito di applicazione e i termini tecnici fondamentali: questo aspetto è essenziale per garantire la certezza del diritto e l’applicazione coerente dei principi su cui si basa.

Definizioni chiave e ambito di applicazione

In ogni disciplina giuridica, e in particolare in quelle che regolano le nuove tecnologie, la precisione terminologica è un prerequisito indispensabile per garantire la certezza del diritto.

Definire in modo univoco concetti complessi come “sistema di intelligenza artificiale” consente di stabilire confini chiari, attribuire responsabilità e garantire che gli obblighi e le tutele previsti dalla legge siano applicati in modo coerente ed efficace da tutti gli attori coinvolti.

L’articolo 2 assolve a questa funzione fondamentale ancorando la normativa italiana al quadro europeo. Il “sistema di intelligenza artificiale” e i “modelli di intelligenza artificiale” sono definiti facendo diretto riferimento alle definizioni contenute nel Regolamento Ueu 2024/1689.

Accanto a queste, viene adottata una definizione ampia di “dato”, che include qualsiasi rappresentazione digitale di atti, fatti o informazioni, comprese le registrazioni sonore, visive o audiovisive.

Questa scelta terminologica non è casuale, ma riflette la chiara intenzione del legislatore di garantire la massima coerenza con l’impianto normativo dell’Unione europea.

Ciò è fondamentale per evitare la frammentazione normativa all’interno del Mercato unico digitale europeo e garantire l’interoperabilità giuridica, offrendo un quadro stabile e prevedibile alle imprese e agli innovatori che operano negli Stati membri.

Queste definizioni tecniche, pur essendo essenziali, rappresentano solo il punto di partenza. Il loro vero significato emerge quando vengono lette alla luce dei principi etici e giuridici che ne regolano l’uso.

L’architettura etico-giuridica: i principi generali

L’articolo 3 costituisce il nucleo etico-giuridico dell’intera normativa. I principi qui enunciati non sono mere dichiarazioni di intenti, ma veri e propri criteri guida che devono informare l’interpretazione e l’applicazione di ogni disposizione della legge.

Questi principi costituiscono le fondamenta su cui deve svilupparsi un’intelligenza artificiale affidabile, sicura e rispettosa dei valori democratici e dei diritti della persona.

Il fulcro della Legge 132/2025

La sintesi dei principi cardine:

  • principio antropocentrico e supervisione umana: i sistemi e i modelli di IA devono essere sviluppati e applicati nel pieno rispetto dell’autonomia e del potere decisionale dell’essere umano. La loro operatività non deve mai compromettere la capacità di controllo e l’autonomia dell’uomo, che rimane l’unico soggetto in grado di prendere decisioni;
  • trasparenza e spiegabilità: questi principi sono fondamentali per instaurare un rapporto di fiducia tra la tecnologia, le istituzioni e i cittadini. Gli algoritmi non devono essere delle “scatole nere”, ma il loro funzionamento deve essere comprensibile, in modo da poter verificare le decisioni automatizzate, attribuirne le responsabilità e contestarle;
  • sicurezza e cibersicurezza: la legge pone l’accento sulla necessità di garantire la sicurezza, l’affidabilità e la resilienza dei sistemi di IA per tutto il loro ciclo di vita. Questo approccio, basato sulla proporzionalità del rischio, mira a prevenire malfunzionamenti, attacchi malevoli e utilizzi impropri;
  • proporzionalità e non discriminazione: l’uso dell’intelligenza artificiale deve sempre essere proporzionato agli scopi perseguiti e non deve mai generare o amplificare pregiudizi o discriminazioni. La normativa mira a prevenire la creazione di bias algoritmici che possano ledere i principi di equità e parità di trattamento;
  • sostenibilità e Inclusione: la legge promuove un’intelligenza artificiale sostenibile dal punto di vista ambientale e sociale. Si presta particolare attenzione all’inclusione, garantendo l’accesso completo ai sistemi di IA alle persone con disabilità, in conformità con i principi di uguaglianza;
  • tutela dei principi democratici: viene sancito il principio secondo cui l’impiego dell’intelligenza artificiale non deve in alcun modo pregiudicare il corretto svolgimento del dibattito democratico, né interferire con i processi elettorali o con il funzionamento delle istituzioni, prevenendo l’uso della tecnologia a fini di disinformazione o manipolazione.

Questi principi forniscono una solida cornice valoriale che viene successivamente declinata e applicata in specifici settori strategici della società e dell’economia, in cui l’impatto dell’IA si manifesta in modo più intenso.

La declinazione settoriale: analisi delle aree di applicazione strategica

L’efficacia di una legge quadro sull’innovazione si misura nella sua capacità di
regolamentare ambiti specifici, traducendo i principi generali in norme concrete.

La normativa italiana sull’intelligenza artificiale (IA) interviene su diversi settori chiave, cercando di conciliare la spinta verso l’efficienza e il progresso con la necessità di garantire tutele mirate.

Sviluppo economico e competitività

L’articolo 5 delinea una strategia che prevede l’utilizzo dell’intelligenza artificiale come leva per l’innovazione, la produttività e la competitività del sistema economico nazionale, con un’attenzione particolare alle micro, piccole e medie imprese.
Tra le misure specifiche previste figurano:

  • la promozione di un mercato dell’IA competitivo, equo e aperto, la facilitazione dell’accesso ai dati di alta qualità per le imprese e la comunità scientifica, al fine di sviluppare e addestrare nuovi sistemi;
  • l’obiettivo di favorire lo sviluppo e l’adozione di soluzioni basate sull’intelligenza artificiale prodotte sul territorio nazionale.

Sicurezza nazionale e difesa nella Legge 132/2025

L’articolo 6 affronta il delicato tema dell’uso dell’intelligenza artificiale (IA) nei contesti di sicurezza e difesa nazionale, inclusi i compiti delle Forze armate e delle Forze dell’ordine.

La legge riconosce la specificità e la sensibilità di questo settore e stabilisce che le attività in esso svolte, in quanto regolate da normative speciali, sono escluse dall’ambito di applicazione generale della presente normativa.

Questa esclusione è una prassi consolidata nella regolamentazione tecnologica, in quanto le materie di sicurezza nazionale costituiscono una funzione sovrana fondamentale, governata da quadri giuridici distinti e spesso classificati che operano al di fuori dell’ambito del diritto civile e commerciale generale.

Per implementare e supervisionare un’architettura normativa così complessa e articolata, è indispensabile una solida struttura di governance.

Settore sanitario e tutela della disabilità

L’articolo 7 riconosce il potenziale trasformativo dell’intelligenza artificiale nel settore della salute.

La legge mira a impiegare queste tecnologie per migliorare il sistema sanitario nazionale, in particolare nei settori della prevenzione, della diagnosi e della cura delle malattie.

Parallelamente, la legge promuove lo sviluppo di soluzioni basate sull’intelligenza artificiale per migliorare le condizioni di vita delle persone con disabilità, favorendo l’accessibilità, la mobilità e l’inclusione sociale.

Tuttavia, vengono posti limiti invalicabili a tutela dei pazienti e dei soggetti più vulnerabili.
Si stabilisce un divieto chiaro e inequivocabile di discriminazione nell’accesso alle prestazioni sanitarie basato sull’uso di sistemi di IA.

Inoltre, viene riaffermato un principio fondamentale: l’intelligenza artificiale può agire solo come strumento di supporto, ma la decisione finale in ambito terapeutico spetta sempre e unicamente al medico, garantendo il ruolo centrale della relazione umana e della competenza professionale.

Pubblica amministrazione e settore giudiziario

L’impiego dell’intelligenza artificiale nel settore pubblico è regolamentato con grande cautela, distinguendo nettamente l’ambito amministrativo da quello giurisdizionale.

Pubblica amministrazione
Ambito giudiziario
L’intelligenza artificiale deve essere impiegata per migliorare l’efficienza, la trasparenza e la qualità dei servizi pubblici.L’AI può essere utilizzata
esclusivamente come strumento di supporto
per il giudice nelle sue attività.
L’utilizzo deve avvenire nel pieno rispetto dei diritti dei cittadini e dei processi democratici, garantendo la non discriminazione e la spiegabilità delle decisioni.È categoricamente escluso che un sistema di IA possa sostituire la funzione decisionale del magistrato, che rimane l’unico depositario della funzione giurisdizionale.
L’obiettivo è ottimizzare l’azione amministrativa e semplificare il rapporto tra cittadino e Stato.L’obiettivo è supportare l’organizzazione e l’analisi dei dati, garantendo sempre la centralità dell’elemento umano nel processo decisionale.

Governance, strategia e autorità nazionali

Un impianto legislativo ambizioso come quello sull’intelligenza artificiale richiede un solido quadro di governance per poter tradurre i principi in azioni concrete.

È fondamentale dotarsi di organi e strumenti in grado di coordinare le politiche, monitorare l’evoluzione tecnologica e vigilare sul rispetto delle regole.

La legge prevede una struttura di governance chiara, basata sulla sinergia tra indirizzo strategico e vigilanza operativa.

La struttura di governance

I ruoli e le responsabilità sono così distribuiti:

  • La strategia nazionale per l’intelligenza artificiale rappresenta il documento di indirizzo programmatico per lo sviluppo del settore. Viene adottata e aggiornata con una frequenza almeno biennale, al fine di garantire che le politiche nazionali rimangano allineate al rapido progresso tecnologico e alle priorità del Paese.
  • Il comitato di coordinamento delle attività di indirizzo su enti, organismi e fondazioni che operano nel campo dell’innovazione digitale e dell’intelligenza artificiale svolge un ruolo centrale di coordinamento, in quanto è l’organo deputato all’adozione della strategia nazionale. Ciò garantisce un approccio integrato e intersettoriale alle politiche sull’intelligenza artificiale;
  • autorità nazionali per l’intelligenza artificiale (Agid e Acn,l’Agenzia per la Cybersicurezza Nazional ): l’articolo 22 designa l’Agenzia per l’Italia digitale (Agid) e l’Agenzia per la cybersicurezza nazionale (Acn) come autorità nazionali competenti in materia di intelligenza artificiale. Queste due agenzie hanno il compito di notificare e vigilare sul mercato, assicurando che i sistemi di IA immessi e utilizzati sul territorio nazionale siano conformi alla legge.

Nuove fattispecie di reato nella Legge 132/2025

La combinazione di principi chiari, regole settoriali specifiche e una governance ben definita crea un sistema normativo completo, volto a governare l’intelligenza artificiale in modo equilibrato e lungimirante.

In tale ambito sono comprese le nuove fattispecie di reato per tutelare il diritto d’autore delle opere generate con l’ausilio dell’intelligenza artificiale e per sanzionare le attività criminali che sfruttano le potenzialità dirompenti di questa tecnologia, come nel caso dei deep fake (video – e non solo – falsi generati dall’intelligenza artificiale che stanno diventando sempre più diffusi e convincenti).

Tre messaggi chiave dall’architettura normativa

La nuova normativa italiana sull’intelligenza artificiale si presenta come un intervento organico e ponderato che cerca di delineare un percorso nazionale per la regolamentazione di una tecnologia all’avanguardia.

L’analisi del testo mette in luce alcuni tratti distintivi che ne definiscono la filosofia e l’approccio.

Da questa architettura normativa si possono distillare tre messaggi chiave:

  • L’approccio antropocentrico. La centralità della persona umana e il principio della supervisione umana non sono semplici clausole di stile, ma costituiscono il fondamento irrinunciabile dell’intera legge. Ogni norma, dalla definizione dei principi generali alle applicazioni settoriali, è concepita per garantire che la tecnologia rimanga uno strumento al servizio dell’uomo e non viceversa;
  • Integrazione nel contesto europeo. La legge compie una scelta strategica di forte allineamento con l’impianto normativo e la terminologia dell’Unione europea. Questa coerenza assicura l’interoperabilità giuridica, previene la frammentazione del mercato unico digitale e posiziona l’Italia come partner affidabile nella costruzione di un quadro normativo europeo per un’intelligenza artificiale etica e affidabile;
  • Il duplice binario. In ultima analisi, la legge si muove costantemente su un duplice binario: da un lato, la decisa spinta verso la promozione dell’innovazione, della ricerca e della competitività economica; dall’altro, la ferma e inderogabile tutela dei diritti fondamentali, dei processi democratici e della sicurezza dei cittadini. Questo equilibrio tra sviluppo e protezione rappresenta il tentativo di definire un modello di regolamentazione “centrato sull’uomo”, in grado di cogliere le immense opportunità offerte dall’intelligenza artificiale senza mai sacrificare i valori fondanti della nostra società.

Prospettive future

Ci si aspetta ora un forte impulso alla ricerca e allo sviluppo di tecnologie e soluzioni basate sull’intelligenza artificiale.

Ma la norma è carente da questo punto di vista, in quanto non sono previsti fondi di finanziamento specifici.

Pertanto, spetta agli enti e agli organismi competenti rimodulare i propri bilanci e individuare, all’interno delle risorse disponibili, delle fonti di finanziamento da destinare agli investimenti nell’intelligenza artificiale.

FAQ: Legge 132/2025

La Legge 132/2025 è la prima legge italiana sull’intelligenza artificiale, entrata in vigore il 10 ottobre 2025. Questa normativa quadro integra l’AI Act europeo con disposizioni nazionali specifiche, con l’obiettivo di governare lo sviluppo tecnologico dell’IA in modo etico e competitivo. La legge definisce principi e regole per lo sviluppo e l’utilizzo dell’intelligenza artificiale in tutti i settori strategici del Paese, dalla sanità alla giustizia, dalla pubblica amministrazione al lavoro.

La Legge 132/2025 è stata pubblicata in Gazzetta Ufficiale il 25 settembre 2025 ed è entrata ufficialmente in vigore il 10 ottobre 2025. Questa normativa rappresenta il primo quadro legislativo italiano specificamente dedicato all’intelligenza artificiale, integrando le disposizioni dell’AI Act europeo con regolamentazioni nazionali.

La Legge 132/2025 definisce principi e regole per lo sviluppo e l’utilizzo dell’intelligenza artificiale in tutti i settori strategici del Paese. In particolare, la normativa si applica a settori chiave come la sanità, la giustizia, la pubblica amministrazione e il mondo del lavoro. L’obiettivo è garantire un utilizzo etico e sostenibile dell’IA in ambiti cruciali per la società, bilanciando innovazione tecnologica e tutela dei diritti fondamentali.

La Legge 132/2025, in armonia con l’AI Act europeo, stabilisce due regole fondamentali per l’uso dell’IA nelle professioni intellettuali: il professionista deve rimanere al centro della prestazione e il cliente deve essere informato sull’utilizzo dell’IA. L’articolo 13, comma II della legge prevede che l’utilizzo di sistemi tecnologici avanzati debba limitarsi ad attività strumentali e di supporto alla prestazione professionale, mentre il lavoro intellettuale del professionista rimane prevalente. Inoltre, introduce l’obbligo di comunicare al cliente tutte le informazioni relative ai sistemi utilizzati, con linguaggio chiaro, semplice ed esaustivo, per garantire il rapporto fiduciario tra professionista e cliente.

Secondo l’articolo 13, comma II della Legge 132/2025, i professionisti hanno l’obbligo di comunicare al cliente tutte le informazioni relative ai sistemi di IA utilizzati, con linguaggio chiaro, semplice ed esaustivo. L’obiettivo dichiarato è garantire trasparenza e rafforzare la fiducia tra professionista e cliente, permettendo a chi riceve una prestazione di essere consapevole del ricorso a strumenti avanzati di supporto. Tuttavia, l’effettiva applicazione di questa disposizione può risultare complessa: definire cosa comunicare, in quali termini e con quale livello di dettaglio può generare incertezze operative, senza che sia immediatamente chiaro se questo adempimento migliori concretamente la tutela del cliente.

La Legge 132/2025 introduce il nuovo reato di diffusione illecita di contenuti manipolati o generati artificialmente, collocato nel Codice penale come articolo 612-quater, sotto il titolo dei delitti contro la libertà morale. Questa disposizione disciplina giuridicamente il fenomeno dei deepfake e delle manipolazioni audiovisive create con tecniche di intelligenza artificiale, prevedendo la reclusione da uno a cinque anni per chi diffonda tali contenuti arrecando un danno ingiusto a terzi. L’articolo punisce “chiunque diffonde, pubblica, trasmette o cede immagini, video o contenuti di persone reali, manipolati o generati artificialmente in modo da apparire autentici, qualora ciò provochi un danno ingiusto”.

L’obbligo di informativa previsto dalla Legge 132/2025 presenta diverse criticità che ne riducono l’efficacia pratica. La norma non distingue tra strumenti, metodi o contesti, costringendo il professionista a spiegare concetti complessi in un linguaggio definito “semplice”, che rischia inevitabilmente di diventare astratto e poco utile. La trasparenza promessa dalla legge si traduce così spesso in lunghe informative standardizzate, piene di formalismi e prive di sostanza reale, che rallentano il lavoro quotidiano e distolgono tempo prezioso dalle attività che realmente tutelano il cliente. A livello professionale, il Movimento Forense ha evidenziato come l’obbligo rischi di trasformare la trasparenza in un mero adempimento burocratico che ignora la natura etica, culturale e deontologica dell’Avvocatura, chiedendo addirittura l’abrogazione della norma.

Il fenomeno delle “sentenze fantasma” è direttamente collegato all’applicazione della Legge 132/2025. Secondo una sentenza del Tribunale di Torino (n. 2120 del 16 settembre 2025), l’utilizzo incontrollato dell’intelligenza artificiale è da condannare, anche a livello processuale. Il caso ha visto il rigetto di un ricorso redatto “col supporto dell’intelligenza artificiale” e la sanzione del ricorrente per malafede o colpa grave ai sensi dell’art. 96, comma 3, c.p.c. Il giudice ha rilevato come il ricorso fosse costituito da un insieme di citazioni normative e giurisprudenziali astratte, prive di ordine logico e spesso inconferenti, senza collegamento concreto alla situazione di causa. Questo caso rappresenta un monito sull’importanza di un uso professionale, rigoroso e consapevole degli strumenti di supporto tecnologico, in linea con i principi della Legge 132/2025 che stabilisce che il lavoro intellettuale del professionista deve rimanere prevalente.

La Legge 132/2025 si inserisce in un contesto internazionale di crescente regolamentazione dell’IA, dialogando in particolare con l’AI Act europeo e con normative come la SB 53 californiana. Mentre l’AI Act adotta un’architettura orizzontale fondata su livelli di rischio e una trama di diritti e garanzie che mette al centro la persona (con divieti per usi inaccettabili, requisiti stringenti per sistemi ad alto rischio e obblighi di trasparenza), la legge italiana, come quella californiana, tende a concentrarsi su aspetti specifici. Questo potrebbe portare a un “dialogo regolatorio” di fatto: molte multinazionali, esposte a diversi regimi normativi, tenderanno a unificare procedure interne, definizioni operative, metriche di test e formati di reporting, generando standard de facto che i diversi ordinamenti finirebbero per riconoscere.

Articoli correlati