LE LINEE GUIDA

Studi legali e AI generativa: Singapore apre la strada e fissa le prime regole



Indirizzo copiato

Il Ministero della Giustizia di Singapore apre una consultazione pubblica sulla prima guida ufficiale per l’uso responsabile della GenAI negli studi legali. Focus su etica, riservatezza e trasparenza. Un modello che l’Italia dovrebbe osservare con attenzione

Pubblicato il 24 set 2025

Rosario Palumbo

Giurista d'impresa, Data protection specialist



Studi legali e AI generativa

L’intelligenza artificiale generativa entra negli studi legali e Singapore vuole stabilire regole chiare.

Il Ministero della Giustizia (MinLaw) ha pubblicato una bozza di guida per l’uso responsabile della GenAI nel settore legale, aprendo una consultazione pubblica che resterà attiva fino al 30 settembre 2025.

L’obiettivo è duplice: da un lato, accelerare la digitalizzazione e favorire l’adozione di soluzioni innovative; dall’altro, garantire standard elevati di etica professionale, protezione dei dati e trasparenza nei confronti dei clienti.

Un documento inserito in un ecosistema normativo avanzato

Questa guida non nasce nel vuoto, ma si colloca all’interno di una strategia nazionale più ampia.

È coerente con la National AI Strategy 2.0, si integra con il Model AI Governance Framework sviluppato dall’Infocomm Media Development Authority e dall’AI Verify Foundation, e si allinea con le linee guida già pubblicate dai tribunali di Singapore per l’uso della GenAI da parte degli utenti della giustizia.

Pur non essendo vincolante, il documento ha il potenziale per diventare uno standard di fatto per l’intero settore legale.

Etica, riservatezza e trasparenza: i tre pilastri della guida

Il documento si articola intorno a tre principi chiave che definiscono l’approccio di Singapore alla GenAI.

L’etica professionale

Il primo riguarda l’etica professionale: anche quando si utilizzano strumenti generativi, la responsabilità finale del contenuto prodotto resta in capo al professionista.

Per questo motivo, la guida introduce il concetto di “lawyer-in-the-loop”, che impone una revisione umana obbligatoria di ogni documento o parere generato dall’IA. Non è un dettaglio marginale: i modelli generativi possono produrre testi apparentemente credibili ma completamente falsi, le cosiddette “hallucinations”.

La guida sottolinea che questo rischio è particolarmente critico nel settore legale, dove un riferimento giurisprudenziale inventato o una norma inesistente possono compromettere l’affidabilità di un’intera strategia difensiva.

Non si tratta di un problema teorico: in Italia, ad esempio, hanno fatto scalpore i casi di ricorsi e memorie difensive depositati presso i tribunali che contenevano citazioni di sentenze mai esistite, generate da sistemi di IA non supervisionati.

Per mitigare il problema, il documento raccomanda non solo il controllo umano obbligatorio, ma anche l’adozione di tecniche più avanzate come la retrieval-augmented generation (RAG), che consente di collegare i modelli a basi di dati verificate e fonti giuridiche autorevoli, riducendo drasticamente il rischio di errori.

Il principio della riservatezza

Il secondo principio è la riservatezza, forse il più delicato per gli studi legali. L’uso di GenAI comporta il trattamento di dati che, se non gestiti correttamente, possono essere esposti a fornitori esterni o archiviati su server al di fuori della giurisdizione locale.

La guida sottolinea l’importanza di valutare con attenzione la data residency, ossia dove vengono conservati input e output, poiché alcuni clienti possono richiedere che le informazioni restino all’interno dei confini di Singapore.

Per ridurre il rischio di fuga di dati, il documento consiglia di privilegiare soluzioni enterprise-grade che offrano garanzie contrattuali esplicite sul divieto di utilizzare gli input per l’addestramento dei modelli e di implementare politiche di data minimisation.

Diversi studi legali hanno già adottato questa linea: Rajah & Tann Singapore LLP, ad esempio, utilizza versioni enterprise di Microsoft Copilot e Harvey AI, mentre Allen & Gledhill LLP ha sviluppato un LLM on-premises, ospitato su infrastrutture interne, per mantenere il pieno controllo sui dati.

L’importanza della trasparenza

Il terzo pilastro è la trasparenza. La guida incoraggia gli avvocati a informare i clienti quando si fa uso della GenAI, soprattutto nei casi in cui ciò possa influenzare la strategia legale, i costi o le modalità di trattamento delle informazioni.

Alcuni studi stanno già adottando un approccio proattivo: KEL LLC ha introdotto nei contratti di incarico una clausola che autorizza esplicitamente l’uso dell’intelligenza artificiale per migliorare l’efficienza, mentre R&T Singapore pubblica online la propria policy sull’adozione della GenAI e offre ai clienti canali dedicati per porre domande o chiedere che la tecnologia non venga impiegata nei loro casi.

Dalla teoria alla pratica: framework e casi reali

Uno dei punti di forza della guida è la sua natura operativa. Non si limita a fissare principi, ma fornisce un percorso chiaro per adottare la GenAI in modo sicuro.

Il documento invita gli studi legali a mappare i processi interni per individuare le aree in cui l’automazione può portare benefici, a selezionare fornitori sulla base di criteri di sicurezza e compliance.

Grande enfasi viene data alla formazione del personale e all’avvio di progetti pilota, con un approccio iterativo che prevede monitoraggi costanti, audit interni e aggiornamenti periodici delle policy.

Non mancano esempi concreti: Clifford Chance utilizza Microsoft Copilot per ottimizzare la redazione dei documenti, mentre WongPartnership ha adottato un framework di AI safety che definisce protocolli rigorosi per la classificazione delle informazioni e stabilisce regole precise per il caricamento dei dati nei sistemi generativi.

Italia e Singapore: due strade diverse per governare la GenAI

In Italia, il disegno di legge n. 1146/2025 rappresenta un primo passo verso una regolamentazione dell’uso dell’intelligenza artificiale nelle professioni, comprese quelle legali.

Approvato dal Senato lo scorso marzo e ora all’esame della Camera, il testo stabilisce che l’IA può essere utilizzata solo come supporto strumentale e non può in alcun modo sostituire il contributo umano.

Impone inoltre ai professionisti l’obbligo di informare chiaramente i clienti sull’uso di strumenti di IA, tutelando così il rapporto fiduciario e garantendo che la decisione finale resti sempre in mano al professionista.

Il DDL interviene anche sul fronte della formazione digitale attraverso gli ordini professionali e collega l’uso dell’IA al principio dell’equo compenso, modulando tariffe e responsabilità in funzione della complessità del lavoro svolto.

Si tratta di un provvedimento che si inserisce in continuità con i principi fissati dall’AI Act europeo, ma la sua finalità è diversa: stabilire regole vincolanti e definire i rapporti tra professionista e cliente.

La guida di Singapore, invece, ha un’altra finalità e, essendo uno strumento di natura giuridica diversa in quanto linee guida e non fonte primaria ancora in itinere, non impone obblighi ma propone buone pratiche operative per adottare la GenAI negli studi legali in modo sicuro e responsabile.

Non è quindi corretto parlare di contrapposizione: si tratta di approcci complementari, pensati per obiettivi diversi.

Mentre il DDL italiano indica cosa si può fare e cosa non si può fare, il documento di Singapore spiega come farlo in sicurezza, affrontando temi come la protezione dei dati, le misure di cyber security, la gestione dei fornitori e l’adozione di policy interne.

In altre parole, il modello italiano si concentra sul quadro normativo e sulla tutela del cliente, mentre quello di Singapore si propone come strumento operativo per guidare studi legali e avvocati in un percorso strutturato di adozione della GenAI.

Per chi lavora nel settore legale italiano, osservare entrambi gli approcci può offrire una prospettiva preziosa: il primo definisce i limiti giuridici, il secondo suggerisce strategie concrete per sfruttare l’IA in modo sicuro e trasparente.

Consultazione aperta fino al 30 settembre

La consultazione pubblica resterà aperta fino al 30 settembre 2025. Le osservazioni di avvocati, aziende, associazioni e stakeholder tecnologici contribuiranno alla redazione della versione finale della guida, che potrebbe affermarsi come benchmark internazionale per la governance dell’IA generativa nel settore legale.

Singapore si conferma un laboratorio globale nella definizione di politiche avanzate per l’uso responsabile della GenAI.

Per l’Italia, il disegno di legge rappresenta un passo importante, ma il modello di Singapore dimostra che per sfruttare appieno il potenziale dell’intelligenza artificiale serve andare oltre i principi astratti, costruendo policy solide, controlli di cyber security e regole operative chiare.

Articoli correlati