applicazioni AI

LLM nella PA: strategie, strumenti e scenari di attuazione



Indirizzo copiato

I Large Language Model (LLM) forniscono soluzioni per rispondere alle domande più frequenti, esaminare documenti e semplificare i processi decisionali, aiutando così la Pubblica amministrazione ad affrontare la gestione di pratiche burocratiche e i compiti ripetitivi. Ecco due interessanti casi d’uso, in Comune e in tribunale

Pubblicato il 10 gen 2025

Giovanni Racioppi

Project Manager – Senior Engineer – Ethical Hacker



Il Social media e digital manager nella Pubblica Amministrazione: una figura qualificante per la governance digitale

L’impiego dell’intelligenza artificiale, in particolare dei modelli linguistici di grandi dimensioni (LLM), ha acquisito un’importanza crescente all’interno del settore pubblico.

Questi modelli sono capaci nell’interpretazione e nella composizione di testi, facilitando così l’automazione di numerosi compiti amministrativi.

Le PA possono utilizzare le nuove tecnologie per rendere i servizi più semplici ed aumentare l’efficienza nell’erogazione dei propri servizi, garantendo un’esperienza più fluida per i cittadini.

Il ruolo degli LLM e le sfide della Pubblica Amministrazione

La pubblica amministrazione si trova ad affrontare una serie di ostacoli riguardanti la gestione di pratiche burocratiche e al dispendio di risorse umane per compiti ripetitivi.

I modelli linguistici di grandi dimensioni (LLM) forniscono soluzioni per rispondere alle domande più frequenti, esaminare documenti e semplificare i processi decisionali. Per esempio, il modello Bert di Google può essere utilizzato per facilitare l’analisi dei documenti.

Gli LLM trovano diverse applicazioni nella PA, per esempio strumenti come spaCy e NLTK possono estrarre contenuti cruciali dai documenti, semplificandone l’archiviazione ed la ricerca basata su contenuti.

Per il supporto ai cittadini, invece, l’applicazione di LLM come per i chatbot implementati nei sistemi Rasa consentono di rispondere senza sforzo alle domande più frequenti.

Implementazione dei LLM nella PA: modelli Open Source

Questi modelli possono essere personalizzati per rispondere a specifiche esigenze amministrative, con un controllo completo sui dati di input e output. Alcuni modelli linguistici Open Source:

  • GPT-Neo e GPT-J: questi modelli, sviluppati da EleutherAI, offrono capacità simili al GPT-3 di OpenAI e sono ideali per compiti di generazione e comprensione del linguaggio naturale.
  • Bert e varianti: utilizzabili per compiti di comprensione contestuale, BERT e le sue varianti sono efficienti per l’analisi semantica di documenti.
  • T5 (Text-to-Text Transfer Transformer): Un modello versatile che trasforma vari compiti di elaborazione del linguaggio in un problema di traduzione da testo a testo, utile per la traduzione automatica e il riassunto di documenti.

Questi modelli possono essere personalizzati per rispondere a specifiche esigenze amministrative, con un controllo completo sui dati di input e output.

Architetture hardware e software

L’implementazione degli LLM richiede risorse hardware significative. Le soluzioni cloud rappresentano una valida alternativa, specialmente per gestire risorse scalabili.

Tuttavia, per i dati sensibili, i sistemi interni risultano più sicuri, integrando GPU o TPU per processare grandi quantità di dati. Piattaforme software come PyTorch e TensorFlow sono fondamentali per la gestione dei modelli, mentre Kubernetes, Prometheus e Grafana facilitano il monitoraggio e la distribuzione
delle applicazioni AI.

Esempio di architettura di un sistema integrato:

  • infrastruttura di calcolo: per supportare il deployment degli LLM, è essenziale un’infrastruttura scalabile in grado di gestire carichi di lavoro pesanti. Soluzioni come Kubernetes per l’orchestrazione dei container e Docker per la containerizzazione offrono flessibilità e scalabilità. Le GPU e le TPU sono altresì cruciali per l’addestramento e l’esecuzione efficiente dei modelli.
  • Pipeline di dati: dati testuali e visivi devono essere raccolti, processati e analizzati in tempo reale. Tecnologie come Apache Kafka offrono pipeline robuste per il processamento dei dati, mentre strumenti come TensorFlow Extended (TFX) possono gestire il flusso di dati e dei modelli.
  • Interfacce API e micro-servizi: La creazione di API ben definite consente diversi componenti del sistema di interagire fluidamente. Architetture basate su micro-servizi facilitano l’aggiornamento e la gestione modulare delle applicazioni.

Perfezionamento dei modelli per la PA

Un aspetto fondamentale nell’applicazione degli LLM è la personalizzazione dei modelli in base alle esigenze locali. Per esempio, un modello destinato a un Comune può essere addestrato su documenti interni e FAQ per rispondere efficacemente a domande dei cittadini riguardo a tributi, servizi sociali e regolamenti locali.

Vantaggi dei LLM Open Source rispetto ai sistemi proprietari

I framework open source consentono una maggiore libertà nell’utilizzo e nella gestione dei dati, senza costi di licenza e offrendo una sostanziale adattabilità.

Strutture come BLOOM e LLaMA consentono alle PA di adattare i modelli alle proprie esigenze, migliorando trasparenza e controllo nei processi decisionali.

Prospettive future

L’integrazione dei Large Language Models (LLM) nel settore della Pubblica Amministrazione offre una notevole opportunità per ottimizzare e rendere più efficienti i servizi offerti ai Cittadini.

Framework come BLOOM, LLaMA e GPT-Neo offrono soluzioni scalabili e personalizzabili, promuovendo l’innovazione con budget sostenibili.

Casi pratici d’implementazione dei sistemi LLM nella Pubblica amministrazione

Sono due i casi d’uso di cui ci occupiamo: l’ottimizzazione dei processi nell’ufficio anagrafe di un Comune e il supporto ai tribunali nella ricerca di precedenti giuridici e documentazione.

Primo caso d’uso: l’ufficio anagrafe di un Comune

L’ufficio anagrafe dei Comuni gestisce una mole considerevole di richieste quotidiane: certificati di nascita, di residenza, cambi di domicilio, carte d’identità, permessi di soggiorno e tanto altro.

La maggior parte di queste attività richiede un’interazione diretta con il cittadino, il che porta a tempi di attesa prolungati e a un carico di lavoro elevato per i dipendenti.

Un sistema LLM verticale, addestrato su dataset specifici di interazioni e documentazione dell’anagrafe, può essere implementato per automatizzare diverse attività.

Utilizzando un modello open source come Bert o GPT-NeoX, riaddestrato su dati interni e norme locali, il Comune può sviluppare un assistente virtuale capace di rispondere autonomamente alle richieste più comuni dei cittadini.

Il sistema potrebbe operare sia attraverso un’interfaccia chatbot (accessibile da PC o smartphone) sia tramite sportelli automatici nei locali dell’anagrafe.

Presenta le seguenti funzionalità principali:

  • risposte automatiche: rispondere alle domande frequenti, come “quali documenti servono per il cambio di residenza?” o “quanto tempo ci vuole per il rilascio della carta d’identità?”, riducendo l’interazione diretta.
  • generazione automatica di documenti: l’LLM potrebbe compilare automaticamente i campi dei moduli standard basandosi sui dati forniti dal cittadino, che deve solo verificare e firmare.
  • semplificazione degli appuntamenti: il sistema potrebbe gestire le prenotazioni, indicando gli orari disponibili e riducendo i tempi d’attesa, coordinandosi con i carichi di lavoro dell’ufficio in tempo reale.

Ecco i benefici offerti:

  • riduzione del carico di lavoro: i dipendenti possono dedicarsi a compiti complessi e meno ripetitivi, mentre l’LLM gestisce in modo automatico le richieste frequenti.
  • riduzione dei tempi di attesa: le risposte immediate fornite dall’LLM snelliscono le code e migliorano la soddisfazione del cittadino.
  • miglioramento della qualità del servizio: l’accuratezza delle risposte e la rapidità nell’erogazione dei documenti migliorano l’efficienza generale del servizio.

Caso d’uso 2: supporto ai tribunali nella ricerca di precedenti giuridici e documentazione

Nei tribunali, la ricerca di precedenti giurisprudenziali o la revisione di normative e regolamenti è una delle attività più critiche. Il personale dei tribunali (giudici, avvocati, e assistenti) spesso passa ore a consultare archivi cartacei o banche dati digitali, rallentando il processo decisionale.

Un sistema LLM verticale addestrato su testi giuridici (come il Codice civile, il Codice penale, precedenti sentenze e interpretazioni giurisprudenziali) può supportare gli operatori nella ricerca di casi rilevanti e nelle interpretazioni normative.

Utilizzando modelli come RoBERTa o Bert, che si prestano particolarmente bene all’elaborazione e all’interpretazione di testi complessi, si potrebbe sviluppare un assistente giuridico digitale in grado di estrarre informazioni, rispondere a domande specifiche e suggerire riferimenti.

Ecco le funzionalità principali:

  • ricerca rapida di precedenti: l’LLM può rispondere a richieste specifiche come “Trova sentenze simili su casi di truffa” o “Precedenti giudiziari sui contratti di lavoro a progetto”.
  • riassunto e sintesi di sentenze: il sistema è in grado di fornire riassunti dettagliati di sentenze e documenti legali lunghi, facilitando l’analisi per gli avvocati o i giudici.
  • risposte a domande su normative specifiche: basandosi su regolamenti o interpretazioni, l’LLM può rispondere a domande normative o giuridiche di base, come “Cosa prevede l’articolo X del Codice civile?”.

Offre i seguenti benefici:

  • risparmio di tempo: la velocità con cui l’LLM può trovare e riassumere informazioni riduce notevolmente il tempo dedicato alla ricerca di precedenti.
  • supporto nella decisione: l’accesso rapido a informazioni rilevanti aiuta a prendere decisioni basate su dati e precedenti, migliorando la qualità delle sentenze.
  • riduzione dei costi operativi: gli assistenti digitali possono svolgere alcune delle attività di ricerca giuridica, riducendo i costi di personale.

Articoli correlati