La ricerca

Dall’entusiasmo all’adozione strategica: un framework per la maturità dei sistemi IA



Indirizzo copiato

La valutazione della maturità organizzativa nell’IA richiede l’utilizzo di framework strutturati. Ecco i modelli di maturità per l’IA, stato dell’arte e limitazioni

Pubblicato il 19 gen 2026

Vincenzo Calabrò

Information Security & Digital Forensics Analyst and Trainer



Out of distribution (Ood): come riconoscere quando l'AI non sa; Dall'entusiasmo all'adozione strategica: un framework

L’adozione dell’intelligenza artificiale (IA), nelle sue varianti generative e agentiche, rappresenta una delle sfide più significative per le organizzazioni contemporanee.

Nonostante gli investimenti stimati tra i 30 e i 40 miliardi di dollari nell’intelligenza artificiale generativa, recenti studi del MIT indicano che il 95% delle organizzazioni non ottiene ritorni significativi sull’investimento, collocando l’intelligenza artificiale generativa nella fase del “trough of disillusionment” secondo il modello Hype Cycle di Gartner per il 2025.

Tuttavia, ricerche più recenti dimostrano che il 74% delle organizzazioni che misurano il ROI dell’IA generativa sta già ottenendo ritorni positivi, evidenziando una significativa disparità tra le organizzazioni all’avanguardia e quelle in ritardo.

Ecco le dinamiche di adozione dell’IA, attraverso una revisione sistematica della letteratura e una valutazione critica dei modelli di maturità esistenti, proponendo un framework integrato che collega le capacità organizzative, le competenze ingegneristiche e la responsabilità nella governance.

I risultati suggeriscono che il successo nell’implementazione dell’IA non dipende dalla tecnologia in sé, ma dalla capacità di allineare aspettative, applicazioni e pratiche di implementazione attraverso un approccio strutturato alla maturità organizzativa.

L’indagine

L’integrazione dell’intelligenza artificiale nei processi organizzativi ha superato la fase di semplice sperimentazione tecnologica, diventando una questione strategica di primo piano.

Si stima che entro il 2025 il 71% delle organizzazioni utilizzerà regolarmente l’IA
generativa in almeno una funzione aziendale, con un aumento rispetto al 65% registrato all’inizio del 2024.

Tuttavia, questa rapida diffusione non si è tradotta in un valore tangibile per tutte le organizzazioni.

La letteratura scientifica recente evidenzia un paradosso critico. Se da un lato, quasi tre quarti delle organizzazioni hanno dichiarato che le loro iniziative IA più avanzate hanno soddisfatto o superato le aspettative di ROI nel 2024, dall’altro, circa il 97% delle imprese fatica ancora a dimostrare il valore aziendale derivante dagli sforzi iniziali nell’IA generativa.

Questo divario suggerisce che il successo nell’adozione dell’IA non dipende semplicemente dalla disponibilità tecnologica, ma richiede un’orchestrazione complessa di fattori organizzativi, tecnici e umani.

Una recente indagine di Gartner, condotta nel quarto trimestre del 2024, ha rilevato che il 45% dei dirigenti delle aziende con un’elevata maturità nell’ambito dell’intelligenza artificiale (IA) mantiene le proprie iniziative di IA in produzione per almeno tre anni, a differenza del 20% delle aziende con una bassa maturità.

Questa disparità evidenzia l’importanza di comprendere i fattori che distinguono le organizzazioni ad alte prestazioni da quelle in difficoltà.

Occorre dunque:

  • analizzare criticamente le cause del divario tra le promesse e le prestazioni dell’IA;
  • esaminare i modelli di maturità esistenti e le loro limitazioni;
  • identificare le competenze organizzative e ingegneristiche necessarie per
    un’adozione efficace;
  • proporre un framework integrato per guidare le organizzazioni nel loro percorso di maturità IA.

Revisione della letteratura: il divario tra aspettative e risultati

La discrepanza tra gli investimenti nell’intelligenza artificiale e i risultati effettivi rappresenta un tema centrale nella letteratura recente.

Una ricerca di BCG del 2024 ha rilevato che solo il 26% delle aziende ha sviluppato le capacità necessarie per superare i proof of concept e generare valore tangibile.

Il rapporto evidenzia che circa il 70% delle sfide nell’implementazione dell’IA deriva da problematiche legate alle risorse umane e ai processi, il 20% da problemi tecnologici e solo il 10% dagli algoritmi di IA, nonostante questi ultimi assorbano spesso una quota sproporzionata di tempo e risorse organizzative.

McKinsey (2025) osserva che la maggior parte delle organizzazioni si trova ancora nella fase di transizione dalla sperimentazione all’implementazione su larga scala e, sebbene riescano a ottenere valore in alcune parti dell’organizzazione, non hanno ancora raggiunto un impatto finanziario a livello aziendale.

Questo stadio potrebbe essere definito “intermedio di maturità”, in cui i cambiamenti sono visibili, ma non ancora su larga scala.

Fattori di successo nelle organizzazioni ad alta performance

L’esperienza delle organizzazioni ad alta performance suggerisce un percorso da seguire. Queste organizzazioni si distinguono per il loro approccio che va oltre i guadagni incrementali di efficienza e considerano l’intelligenza artificiale (IA) come un catalizzatore per trasformare le organizzazioni, ridisegnare i flussi di lavoro e accelerare l’innovazione.

In media, le organizzazioni leader perseguono solo la metà delle opportunità rispetto ai loro pari meno avanzati, concentrando gli sforzi sulle iniziative più promettenti e prevedendo un ROI doppio per il 2024.

Inoltre, riescono a scalare con successo più del doppio dei prodotti e dei servizi di IA all’interno delle loro organizzazioni.

Questo approccio selettivo e strategico contrasta con la tendenza delle organizzazioni meno mature a disperdere le risorse su troppi progetti pilota, senza dare la giusta priorità a nessuno di loro.

La regola del 10-20-70

Un elemento distintivo fondamentale è l’allocazione delle risorse: i leader seguono la regola del 10-20-70, destinando il 10% delle risorse agli algoritmi, il 20% alla tecnologia e ai dati e il 70% alle persone e ai processi.

Questa distribuzione riflette il riconoscimento che l’intelligenza artificiale non è principalmente una sfida tecnologica, ma piuttosto una sfida di natura organizzativa e umana.

L’ingegneria del software nell’era dell’intelligenza artificiale

L’integrazione dell’intelligenza artificiale (IA) nei processi di sviluppo del software sta trasformando radicalmente i paradigmi dell’ingegneria del software. Secondo una ricerca di Bain & Company, entro il 2025 i team che utilizzano assistenti IA registreranno incrementi di produttività compresi tra il 10% e il 15%.

Tuttavia, spesso il tempo risparmiato non viene impiegato per attività di maggior valore. Questo fenomeno evidenzia che l’adozione di strumenti IA da sola non è sufficiente, ma è necessario ripensare i flussi di lavoro.

Uno studio pubblicato a gennaio 2025 ha confermato che l’integrazione dell’intelligenza artificiale (IA) migliora la produttività, la qualità del codice e accelera i cicli di sviluppo.

Le principali aree di impatto sono la generazione automatica del codice, il debug intelligente, la manutenzione predittiva e i processi decisionali potenziati.

Tuttavia, la scrittura e il test del codice rappresentano solo il 25-35% del tempo necessario per passare dall’idea iniziale al lancio del prodotto, il che evidenzia come un focus esclusivo sulla generazione del codice trascuri componenti critiche del ciclo di vita del software.

Le organizzazioni più efficaci stanno adottando un approccio AI-native, reingegnerizzando l’intero ciclo di sviluppo del software attorno all’intelligenza artificiale, invece di considerarla come uno strumento aggiuntivo.

Governance e IA responsabile

La governance responsabile dell’IA è emersa come un imperativo strategico. La ricerca di Gartner ha rivelato che, nelle organizzazioni ad alta maturità, il 57% delle unità aziendali si fida e si dice pronto a utilizzare nuove soluzioni di IA, a differenza del solo 14% delle organizzazioni a bassa maturità.

La fiducia, dunque, rappresenta un fattore fondamentale per il successo o il fallimento delle iniziative di IA.

I risultati di McKinsey mostrano che la maggior parte delle organizzazioni non sta adottando misure per mitigare i rischi associati all’uso dell’intelligenza artificiale.

Tuttavia, la percentuale di rispondenti che dichiara di aver intrapreso azioni di mitigazione per rischi quali la privacy personale e individuale, la spiegabilità, la reputazione organizzativa e la conformità normativa è aumentata.

Nel 2022 le organizzazioni gestivano in media due rischi correlati all’IA, mentre oggi ne gestiscono quattro.

I framework di governance dell’IA pongono l’accento su principi fondamentali quali equità, responsabilità, trasparenza, sicurezza e non discriminazione, rimanendo al contempo adattabili alle diverse norme etiche in base ai domini e alle regioni.

Attualmente, solo il 35% delle aziende dispone di un framework di governance dell’IA, ma l’87% dei dirigenti aziendali prevede di implementare politiche etiche sull’IA entro il 2025.

Modelli di maturità per l’IA: stato dell’arte e limitazioni

La valutazione della maturità organizzativa nell’IA richiede l’utilizzo di framework strutturati.

Il modello di maturità dell’IA di Gartner suddivide le organizzazioni in cinque livelli: “Awareness” (consapevolezza), “Active” (attivo), “Operational” (operativo), “Systemic” (sistemico) e “Transformational” (trasformativo).

Le organizzazioni ad alta maturità ottengono un punteggio medio compreso tra 4,2 e 4,5, mentre quelle a bassa maturità ottengono un punteggio compreso tra 1,6 e 2,2.

Una revisione sistematica condotta dal Software Engineering Institute (SEI) ha individuato 115 fonti informative, pubblicate tra il 2018 e il maggio 2025, che trattano i modelli di maturità dell’intelligenza artificiale in fase di sviluppo.

Di queste, 58 contenevano esplicitamente un modello di maturità: 40 si concentravano sull’intelligenza artificiale in generale, 7 sull’intelligenza artificiale generativa, 5 sull’intelligenza artificiale responsabile e le restanti trattavano argomenti molto specifici.

I risultati della revisione indicano che, nonostante gli sforzi profusi per sviluppare modelli di maturità dell’IA, questi presentano svantaggi comuni:

  • mancanza di un approccio di misurazione chiaro per valutare la maturità;
  • assenza di prove del loro uso efficace nella pratica;
  • carenza di prove su come affrontino esigenze e pratiche emergenti, mentre la
    tecnologia evolve rapidamente.

Tutti i modelli di maturità dell’IA presi in esame si concentravano principalmente su aree di capacità comuni quali etica, IA responsabile, strategia, innovazione, risorse umane, competenze, governance, organizzazione, tecnologia e dati.

Framework proposto per la maturità organizzativa nell’IA

Per adottare efficacemente l’IA, è necessario sviluppare in modo sistematico competenze organizzative multidimensionali.

Le organizzazioni devono innanzitutto allineare i propri valori, la propria strategia, la propria cultura e la propria struttura ai cambiamenti introdotti dall’IA.

Questo allineamento strategico deve tradursi in programmi concreti di formazione e sviluppo che preparino i dipendenti non solo all’uso tecnico dell’IA, ma anche alla comprensione delle sue implicazioni etiche e operative.

Le ricerche recenti mostrano che il 90% delle organizzazioni include l’intelligenza artificiale nella propria strategia aziendale e che, in media, il 30% degli utenti target ha modificato significativamente il proprio modo di lavorare grazie all’IA.

Tuttavia, l’adozione rimane concentrata: la maggior parte delle organizzazioni limita l’uso dell’IA al 30-40% della propria forza lavoro e solo il 7% riesce a coinvolgere più della metà dei propri dipendenti.

Competenze ingegneristiche per sistemi IA-abilitati

Un sistema abilitato dall’IA rimane fondamentalmente un sistema software-intensive che richiede l’applicazione rigorosa di principi consolidati di ingegneria del software e dei sistemi.

Le pratiche ingegneristiche, maturate nel corso di decenni, devono essere adattate e applicate allo sviluppo e all’implementazione di sistemi IA, in modo da renderli affidabili, degni di fiducia e scalabili per usi mission-critical.

Le criticità specifiche includono:

  • gestione dell’incertezza: i team di ingegneria devono progettare sistemi di IA in grado di gestire l’incertezza intrinseca nei componenti, nei dati, nei modelli e negli output, soprattutto quando si integra l’IA generativa, dinamicità dell’esperienza utente: le interfacce devono comunicare chiaramente cosa sta facendo il sistema, come genera gli output e quando non si comporta come previsto;
  • ritmi di cambiamento differenziati: i team devono gestire cambiamenti nei dati, nei modelli, nei sistemi e nel contesto aziendale, ognuno con le proprie dinamiche temporali, verifica e validazione adattativa: la validazione dei sistemi IA deve tenere conto dell’ambiguità intrinseca e dell’aumento della superficie di attacco dovuti ai dati che cambiano frequentemente e alla natura dei modelli.

Indipendentemente dal livello di maturità dell’IA, la disponibilità e la qualità dei dati rimangono le principali sfide nell’implementazione, come confermato dal 34% dei leader delle organizzazioni a bassa maturità e dal 29% di quelli delle organizzazioni ad alta maturità.

Governance, rischio e conformità

La governance dell’IA è una considerazione critica in tutte le fasi del processo di adozione.

Negli ultimi sei anni, la maggior parte delle organizzazioni ha affrontato solo pochi rischi legati all’uso dell’intelligenza artificiale, ma la crescente consapevolezza ha portato a un aumento degli sforzi per la loro mitigazione.

Quasi tutte le organizzazioni riconoscono rischi sostanziali nell’IA, con la sicurezza, la conformità e la fiducia che dominano l’agenda.

La percezione del rischio evolve con il grado di maturità: i principianti si preoccupano della resistenza e della reputazione, mentre i player avanzati si concentrano sulla governance e sull’allineamento normativo.

Per le organizzazioni che operano in settori ad alto rischio, come la difesa, la sicurezza nazionale e la sanità, la gestione del rischio diventa ancora più critica. Un errore in un chatbot commerciale può causare confusione, ma un errore in un’analisi di intelligence o in una diagnosi medica può avere conseguenze fatali o far fallire una missione.

Archetipi organizzativi e percorsi di adozione differenziati

Le organizzazioni che adottano l’IA possono essere classificate in base a diversi archetipi, in funzione del focus aziendale, delle competenze principali nel campo dei software, delle competenze nell’ambito dell’IA e della sicurezza informatica, delle politiche di governance e dell’applicazione dell’IA.

Due archetipi rappresentativi illustrano questa diversità.

Archetipo 1: Organizzazioni Domain-Centric

Organizzazioni di prodotto che non hanno il software come competenza principale, ma che trarrebbero beneficio dall’IA, tipicamente:

  • richiedono investimenti significativi nello sviluppo di competenze software di base;
  • necessitano di partnership strategiche con fornitori specializzati;
  • devono bilanciare l’expertise di dominio con nuove competenze tecnologiche;
  • affrontano sfide maggiori nell’identificare casi d’uso appropriati.

Archetipo 2: 2: Organizzazioni Software-First

Aziende tecnologiche per cui il software è al centro del proprio business:

  • possiedono già infrastrutture e competenze tecnologiche robuste;
  • possono concentrarsi sull’integrazione e ottimizzazione dell’IA;
  • affrontano sfide relative alla governance e alla gestione del rischio;
  • devono garantire che l’innovazione tecnologica si traduca in valore aziendale.

Nonostante i loro profili siano molto diversi, entrambi gli archetipi devono raggiungere obiettivi comuni:

  • identificare l’allineamento tra le iniziative IA e gli obiettivi aziendali;
  • comunicare chiaramente i rischi e le misure di tolleranza al rischio;
  • identificare i dati pertinenti e le lacune nella fornitura di soluzioni;
  • assicurare il supporto della leadership;
  • determinare le competenze e le risorse aggiuntive necessarie;
  • identificare le tecnologie più appropriate per le soluzioni.

Roadmap per la maturità progressiva

Per creare una roadmap efficace per l’adozione dell’intelligenza artificiale (IA), è
necessario innanzitutto valutare le esigenze, le capacità e gli obiettivi dell’organizzazione.

Un approccio efficace alla valutazione della maturità considera:

  • valutazione delle capacità correnti: analisi sistematica delle risorse, delle competenze, dei processi, dei flussi di lavoro e delle risorse computazionali attualmente disponibili;
  • identificazione dei gap: confronto tra lo stato attuale e quello desiderato, con
    particolare attenzione alle debolezze critiche, definizione delle metriche di successo: stabilire indicatori chiari e misurabili allineati agli obiettivi aziendali;
  • pianificazione incrementale: sviluppo di un percorso graduale che bilanci i quick win con le trasformazioni a lungo termine;
  • monitoraggio e adattamento: implementazione di meccanismi di feedback per tracciare i progressi e adattare le strategie.

Le imprese che si collocano nel quartile superiore per maturità IA hanno registrato miglioramenti compresi tra il 15% e il 30% in termini di produttività, fidelizzazione e soddisfazione della clientela, grazie a flussi di lavoro abilitati dall’intelligenza artificiale.

Implicazioni pratiche: superare il divario dell’IA generativa

Il rapporto MIT Nanda (2025) introduce il concetto di GenAI Divide per descrivere il divario tra le organizzazioni che hanno superato con successo la fase pilota e quelle che rimangono bloccate nella fase di sperimentazione.

La ricerca ha rivelato importanti modelli: sebbene solo il 40% delle aziende dichiari di aver acquistato una sottoscrizione ufficiale LLM, oltre il 90% dei lavoratori delle aziende intervistate ha riferito di utilizzare regolarmente strumenti IA personali per i compiti lavorativi.

Questo fenomeno di shadow AI spesso fornisce un ROI migliore rispetto alle iniziative formali e rivela cosa funziona effettivamente.

Le organizzazioni lungimiranti stanno cominciando a colmare questo divario, imparando dall’uso informale e analizzando quali strumenti personali forniscono valore, prima di procedere con le acquisizioni aziendali.

Il ruolo critico della leadership e della cultura

I risultati mostrano che l’uso dell’IA nelle organizzazioni ad alte prestazioni è più spesso promosso dai loro leader.

Gli high performer hanno tre volte più probabilità rispetto ai loro pari di concordare fortemente sul fatto che i leader senior delle loro organizzazioni dimostrino proprietà e impegno verso le iniziative di IA.

Questi rispondenti sono anche più propensi ad affermare che i leader senior sono attivamente impegnati a promuovere l’adozione dell’IA, ricoprendo il ruolo di modello nell’uso della stessa.

Anche la cultura organizzativa gioca un ruolo critico. Tre organizzazioni su quattro affermano che la parte più difficile è convincere le persone a modificare il proprio modo di lavorare. Superare questa resistenza richiede una forte gestione del cambiamento.

Misurazione e dimostrazione del valore

Gli high performer hanno maggiori probabilità di altri di affermare che le loro
organizzazioni hanno definito dei processi per stabilire quando e come gli output dei modelli necessitano di una validazione umana al fine di garantire l’accuratezza.

Questo rappresenta uno dei fattori principali che distinguono gli high performer.
La misurazione del ROI rimane una sfida persistente. Senza indicatori di prestazione chiave chiari o piani per utilizzare il tempo risparmiato, i reali guadagni di produttività non si tradurranno in termini aziendali.

Le organizzazioni di successo utilizzano dashboard per il monitoraggio in tempo reale, report regolari per valutare l’impatto aziendale nel tempo e audit periodici per garantire che i sistemi di IA rimangano precisi e pertinenti.

L’evoluzione verso sistemi agentici

Le organizzazioni stanno iniziando a esplorare le opportunità offerte dagli agenti di IA, sistemi basati su foundation model in grado di agire nel mondo reale pianificando ed eseguendo più fasi di un flusso di lavoro.

Il 23% dei rispondenti dichiara che la propria organizzazione sta implementando un sistema di IA agentica in una parte della propria attività, mentre un ulteriore 39% ha iniziato a sperimentare con gli agenti di IA.

Tuttavia, l’uso degli agenti non è ancora diffuso: la maggior parte di chi li sta adottando lo fa solo per una o due funzioni.

Guardando alle singole funzioni aziendali, solo il 10% circa dei rispondenti dichiara che la propria organizzazione sta adottando l’intelligenza artificiale su larga scala; l’uso più diffuso è stato segnalato nei settori IT e gestione della conoscenza.

Cogliere il valore trasformativo dell’IA

La transizione dall’entusiasmo iniziale all’adozione strategica dell’intelligenza artificiale richiede un approccio sistematico che integri competenze tecnologiche, organizzative e di governance.

Le evidenze empiriche dimostrano che il successo non deriva dall’adozione
indiscriminata della tecnologia, ma dalla capacità di sviluppare un’architettura di capacità complementari che includa:

  • allineamento strategico: connessione esplicita tra le iniziative IA e gli obiettivi aziendali misurabili;
  • competenze ingegneristiche robuste: applicazione di consolidate pratiche di ingegneria del software adattate alle specificità dei sistemi IA;
  • cultura organizzativa abilitante: leadership impegnata, gestione efficace del
    cambiamento e alfabetizzazione IA diffusa;
  • governance responsabile: framework strutturati per gestire rischi, garantire
    conformità e costruire la fiducia;
  • misurazione rigorosa: metriche chiare e meccanismi di feedback per valutare e ottimizzare l’impatto.

La revisione della letteratura ha evidenziato che i modelli di maturità esistenti, sebbene numerosi, presentano limitazioni comuni: mancanza di approcci di misurazione chiari, scarsa evidenza di efficacia pratica e difficoltà a rimanere rilevanti in un panorama tecnologico in rapida evoluzione.

Ciò suggerisce la necessità di framework più dinamici e basati sull’evidenza, che possano adattarsi all’evoluzione della tecnologia, pur mantenendo principi fondamentali stabili:

  • lo sviluppo di metriche standardizzate e convalidate per la valutazione della maturità dell’IA;
  • studi longitudinali che tracino i percorsi di trasformazione organizzativa nel tempo;
  • un’analisi comparativa approfondita di diversi archetipi organizzativi;
  • l’indagine sulle dinamiche di interazione tra tecnologia, processi e persone;
  • la valutazione dell’efficacia di diversi approcci di governance in contesti variabili.

La vera sfida per le aziende

Mentre l’IA continua a evolversi rapidamente, il successo organizzativo dipenderà meno dalle capacità tecniche dei modelli e più dalla saggezza strategica con cui le organizzazioni sapranno orchestrare persone, processi e tecnologia in un ecosistema coerente e sostenibile.

La sfida non è se adottare l’IA, ma come gettare le basi organizzative che permettano di coglierne il valore trasformativo in modo responsabile e duraturo.

guest

0 Commenti
Più recenti
Più votati
Inline Feedback
Vedi tutti i commenti

Articoli correlati

0
Lascia un commento, la tua opinione conta.x