L’impiego dell’intelligenza artificiale, in particolare dei modelli linguistici di grandi dimensioni (LLM), ha acquisito un’importanza crescente all’interno del settore pubblico.
Questi modelli sono capaci nell’interpretazione e nella composizione di testi, facilitando così l’automazione di numerosi compiti amministrativi.
Le PA possono utilizzare le nuove tecnologie per rendere i servizi più semplici ed aumentare l’efficienza nell’erogazione dei propri servizi, garantendo un’esperienza più fluida per i cittadini.
Indice degli argomenti
Il ruolo degli LLM e le sfide della Pubblica Amministrazione
La pubblica amministrazione si trova ad affrontare una serie di ostacoli riguardanti la gestione di pratiche burocratiche e al dispendio di risorse umane per compiti ripetitivi.
I modelli linguistici di grandi dimensioni (LLM) forniscono soluzioni per rispondere alle domande più frequenti, esaminare documenti e semplificare i processi decisionali. Per esempio, il modello Bert di Google può essere utilizzato per facilitare l’analisi dei documenti.
Gli LLM trovano diverse applicazioni nella PA, per esempio strumenti come spaCy e NLTK possono estrarre contenuti cruciali dai documenti, semplificandone l’archiviazione ed la ricerca basata su contenuti.
Per il supporto ai cittadini, invece, l’applicazione di LLM come per i chatbot implementati nei sistemi Rasa consentono di rispondere senza sforzo alle domande più frequenti.
Implementazione dei LLM nella PA: modelli Open Source
Questi modelli possono essere personalizzati per rispondere a specifiche esigenze amministrative, con un controllo completo sui dati di input e output. Alcuni modelli linguistici Open Source:
- GPT-Neo e GPT-J: questi modelli, sviluppati da EleutherAI, offrono capacità simili al GPT-3 di OpenAI e sono ideali per compiti di generazione e comprensione del linguaggio naturale.
- Bert e varianti: utilizzabili per compiti di comprensione contestuale, BERT e le sue varianti sono efficienti per l’analisi semantica di documenti.
- T5 (Text-to-Text Transfer Transformer): Un modello versatile che trasforma vari compiti di elaborazione del linguaggio in un problema di traduzione da testo a testo, utile per la traduzione automatica e il riassunto di documenti.
Questi modelli possono essere personalizzati per rispondere a specifiche esigenze amministrative, con un controllo completo sui dati di input e output.
Architetture hardware e software
L’implementazione degli LLM richiede risorse hardware significative. Le soluzioni cloud rappresentano una valida alternativa, specialmente per gestire risorse scalabili.
Tuttavia, per i dati sensibili, i sistemi interni risultano più sicuri, integrando GPU o TPU per processare grandi quantità di dati. Piattaforme software come PyTorch e TensorFlow sono fondamentali per la gestione dei modelli, mentre Kubernetes, Prometheus e Grafana facilitano il monitoraggio e la distribuzione
delle applicazioni AI.
Esempio di architettura di un sistema integrato:
- infrastruttura di calcolo: per supportare il deployment degli LLM, è essenziale un’infrastruttura scalabile in grado di gestire carichi di lavoro pesanti. Soluzioni come Kubernetes per l’orchestrazione dei container e Docker per la containerizzazione offrono flessibilità e scalabilità. Le GPU e le TPU sono altresì cruciali per l’addestramento e l’esecuzione efficiente dei modelli.
- Pipeline di dati: dati testuali e visivi devono essere raccolti, processati e analizzati in tempo reale. Tecnologie come Apache Kafka offrono pipeline robuste per il processamento dei dati, mentre strumenti come TensorFlow Extended (TFX) possono gestire il flusso di dati e dei modelli.
- Interfacce API e micro-servizi: La creazione di API ben definite consente diversi componenti del sistema di interagire fluidamente. Architetture basate su micro-servizi facilitano l’aggiornamento e la gestione modulare delle applicazioni.
Perfezionamento dei modelli per la PA
Un aspetto fondamentale nell’applicazione degli LLM è la personalizzazione dei modelli in base alle esigenze locali. Per esempio, un modello destinato a un Comune può essere addestrato su documenti interni e FAQ per rispondere efficacemente a domande dei cittadini riguardo a tributi, servizi sociali e regolamenti locali.
Vantaggi dei LLM Open Source rispetto ai sistemi proprietari
I framework open source consentono una maggiore libertà nell’utilizzo e nella gestione dei dati, senza costi di licenza e offrendo una sostanziale adattabilità.
Strutture come BLOOM e LLaMA consentono alle PA di adattare i modelli alle proprie esigenze, migliorando trasparenza e controllo nei processi decisionali.
Prospettive future
L’integrazione dei Large Language Models (LLM) nel settore della Pubblica Amministrazione offre una notevole opportunità per ottimizzare e rendere più efficienti i servizi offerti ai Cittadini.
Framework come BLOOM, LLaMA e GPT-Neo offrono soluzioni scalabili e personalizzabili, promuovendo l’innovazione con budget sostenibili.
Casi pratici d’implementazione dei sistemi LLM nella Pubblica amministrazione
Sono due i casi d’uso di cui ci occupiamo: l’ottimizzazione dei processi nell’ufficio anagrafe di un Comune e il supporto ai tribunali nella ricerca di precedenti giuridici e documentazione.
Primo caso d’uso: l’ufficio anagrafe di un Comune
L’ufficio anagrafe dei Comuni gestisce una mole considerevole di richieste quotidiane: certificati di nascita, di residenza, cambi di domicilio, carte d’identità, permessi di soggiorno e tanto altro.
La maggior parte di queste attività richiede un’interazione diretta con il cittadino, il che porta a tempi di attesa prolungati e a un carico di lavoro elevato per i dipendenti.
Un sistema LLM verticale, addestrato su dataset specifici di interazioni e documentazione dell’anagrafe, può essere implementato per automatizzare diverse attività.
Utilizzando un modello open source come Bert o GPT-NeoX, riaddestrato su dati interni e norme locali, il Comune può sviluppare un assistente virtuale capace di rispondere autonomamente alle richieste più comuni dei cittadini.
Il sistema potrebbe operare sia attraverso un’interfaccia chatbot (accessibile da PC o smartphone) sia tramite sportelli automatici nei locali dell’anagrafe.
Presenta le seguenti funzionalità principali:
- risposte automatiche: rispondere alle domande frequenti, come “quali documenti servono per il cambio di residenza?” o “quanto tempo ci vuole per il rilascio della carta d’identità?”, riducendo l’interazione diretta.
- generazione automatica di documenti: l’LLM potrebbe compilare automaticamente i campi dei moduli standard basandosi sui dati forniti dal cittadino, che deve solo verificare e firmare.
- semplificazione degli appuntamenti: il sistema potrebbe gestire le prenotazioni, indicando gli orari disponibili e riducendo i tempi d’attesa, coordinandosi con i carichi di lavoro dell’ufficio in tempo reale.
Ecco i benefici offerti:
- riduzione del carico di lavoro: i dipendenti possono dedicarsi a compiti complessi e meno ripetitivi, mentre l’LLM gestisce in modo automatico le richieste frequenti.
- riduzione dei tempi di attesa: le risposte immediate fornite dall’LLM snelliscono le code e migliorano la soddisfazione del cittadino.
- miglioramento della qualità del servizio: l’accuratezza delle risposte e la rapidità nell’erogazione dei documenti migliorano l’efficienza generale del servizio.
Caso d’uso 2: supporto ai tribunali nella ricerca di precedenti giuridici e documentazione
Nei tribunali, la ricerca di precedenti giurisprudenziali o la revisione di normative e regolamenti è una delle attività più critiche. Il personale dei tribunali (giudici, avvocati, e assistenti) spesso passa ore a consultare archivi cartacei o banche dati digitali, rallentando il processo decisionale.
Un sistema LLM verticale addestrato su testi giuridici (come il Codice civile, il Codice penale, precedenti sentenze e interpretazioni giurisprudenziali) può supportare gli operatori nella ricerca di casi rilevanti e nelle interpretazioni normative.
Utilizzando modelli come RoBERTa o Bert, che si prestano particolarmente bene all’elaborazione e all’interpretazione di testi complessi, si potrebbe sviluppare un assistente giuridico digitale in grado di estrarre informazioni, rispondere a domande specifiche e suggerire riferimenti.
Ecco le funzionalità principali:
- ricerca rapida di precedenti: l’LLM può rispondere a richieste specifiche come “Trova sentenze simili su casi di truffa” o “Precedenti giudiziari sui contratti di lavoro a progetto”.
- riassunto e sintesi di sentenze: il sistema è in grado di fornire riassunti dettagliati di sentenze e documenti legali lunghi, facilitando l’analisi per gli avvocati o i giudici.
- risposte a domande su normative specifiche: basandosi su regolamenti o interpretazioni, l’LLM può rispondere a domande normative o giuridiche di base, come “Cosa prevede l’articolo X del Codice civile?”.
Offre i seguenti benefici:
- risparmio di tempo: la velocità con cui l’LLM può trovare e riassumere informazioni riduce notevolmente il tempo dedicato alla ricerca di precedenti.
- supporto nella decisione: l’accesso rapido a informazioni rilevanti aiuta a prendere decisioni basate su dati e precedenti, migliorando la qualità delle sentenze.
- riduzione dei costi operativi: gli assistenti digitali possono svolgere alcune delle attività di ricerca giuridica, riducendo i costi di personale.