Per mesi molte organizzazioni hanno affrontato l’intelligenza artificiale con un misto di entusiasmo, curiosità e fretta.
È comprensibile: pochi cicli tecnologici recenti hanno mostrato una capacità così immediata di entrare nei processi quotidiani. Un assistente generativo che scrive testi, un tool che sintetizza documenti, un supporto automatico allo sviluppo software, una funzione che accelera analisi e classificazione di eventi di sicurezza. Tutto sembra utile, veloce, accessibile.
Ed è proprio questo il problema.
Indice degli argomenti
Il ruolo dell’AI in azienda: un moltiplicatore, anche del rischio
Il punto non è più capire se l’AI sia utile. In moltissimi casi lo è già. Il punto, oggi, è un altro: le organizzazioni stanno davvero governando questa adozione oppure stanno semplicemente convivendo con essa sperando che non produca effetti collaterali troppo costosi? Nel mondo della cyber security questa domanda pesa più che altrove.
L’intelligenza artificiale non è solo uno strumento in più a disposizione del business o dell’IT. È un moltiplicatore. Aumenta produttività e velocità, ma aumenta anche la superficie esposta, la difficoltà di controllo, la qualità delle frodi e la possibilità che decisioni errate vengano prese con una fiducia immeritata negli output generati.
In altre parole: l’AI non introduce solo nuove opportunità. Introduce nuove forme di dipendenza, nuove zone grigie di responsabilità e nuovi modi di sbagliare.
Il rischio più sottovalutato: usare l’AI senza ridefinire il perimetro del controllo
Uno degli errori più frequenti è pensare che il tema si esaurisca nella scelta dello strumento. Si discute di quale piattaforma approvare, di quale provider sia più affidabile, di quali funzionalità abilitare o bloccare.
Ma la vera frattura si apre altrove: nel momento in cui l’organizzazione adotta una tecnologia capace di influenzare contenuti, decisioni, priorità operative e perfino valutazioni tecniche senza ridefinire in parallelo il proprio modello di controllo.
È qui che nasce il rischio reale.
Un dipendente carica dati in un sistema esterno per ottenere una sintesi migliore. Un team usa un assistente AI per accelerare attività che prima richiedevano revisione esperta. Uno sviluppatore si affida a codice suggerito automaticamente. Un operatore di sicurezza usa un motore generativo per classificare eventi, interpretare log o costruire risposte.
Nessuno di questi comportamenti, preso singolarmente, appare necessariamente pericoloso. Ma, tutti insieme cambiano, il modo in cui l’organizzazione produce azioni, decisioni e fiducia.
E se cambia il modo in cui si produce fiducia, deve cambiare anche il modo in cui si governa il rischio.
Molte aziende, invece, stanno ancora trattando l’AI come se fosse un semplice acceleratore operativo. Non lo è. È un livello ulteriore di intermediazione tra persone, dati, sistemi e decisioni.
E ogni intermediazione aggiunge opacità, possibilità di errore, problemi di
accountability.
L’illusione più pericolosa: “c’è qualcuno che la sta già controllando”
Nelle organizzazioni mature esiste spesso una convinzione implicita: se una tecnologia entra in azienda, in qualche modo sarà già coperta da policy, processi o controlli esistenti.
È una convinzione rassicurante, ma nel caso dell’AI rischia di essere falsa.
Molte adozioni avvengono dal basso, in modo silenzioso, frammentato, perfino ben intenzionato. Non c’è una decisione formale, neanche un progetto strutturato, manca unprocurement evidente.
C’è invece un uso distribuito. Ed è proprio questo a renderlo difficile da governare.
La cosiddetta shadow AI non è un’anomalia marginale: è la forma più naturale con cui questa tecnologia si diffonde. Non nasce dalla volontà di aggirare i controlli, ma dalla facilità di accesso, dalla pressione sui risultati e dalla percezione che si tratti di strumenti “leggeri”, quasi personali, non abbastanza critici da richiedere una valutazione strutturata.
Ma basta poco per trasformare questa leggerezza in un problema serio. Un prompt può contenere informazioni sensibili. Un output apparentemente plausibile può orientare una decisione sbagliata.
Un’integrazione può introdurre dipendenze non comprese. Anche un uso sporadico può diventare un processo di fatto, senza che nessuno lo abbia mai approvato come tale.
Il rischio, insomma, non è solo tecnologico. È organizzativo. E spesso inizia dove nessuno sta guardando.
L’AI sta cambiando anche il lavoro dell’attaccante
C’è poi un secondo errore di prospettiva: pensare all’intelligenza artificiale solo come qualcosa che l’impresa usa, e non come qualcosa che il criminale usa meglio ogni giorno.
Per anni molte campagne malevole presentavano segnali riconoscibili: traduzioni approssimative, tono innaturale, incongruenze nei messaggi, scarsa capacità di adattarsi al contesto del bersaglio.
Questo vantaggio difensivo si sta assottigliando. Con l’AI, la produzione di contenuti credibili è diventata più semplice, economica e scalabile.
Email fraudolente scritte correttamente, messaggi più coerenti con il contesto aziendale, simulazioni persuasive di interlocutori legittimi, raccolta automatizzata di informazioni pubbliche sul target, personalizzazione delle esche, supporto alla creazione rapida di script o varianti di malware: tutto questo non appartiene più al solo attore altamente sofisticato.
La barriera di ingresso si abbassa, mentre la qualità media dell’offesa cresce.
Questo produce una conseguenza precisa: una parte delle difese basate sull’intuizione umana o sull’individuazione del contenuto “mal fatto” perde efficacia.
L’attacco non deve più sembrare perfetto per funzionare. Deve solo sembrare sufficientemente coerente da superare il primo filtro cognitivo della vittima o dell’operatore.
Ed è qui che molte organizzazioni scoprono di avere procedure ancora pensate per un mondo in cui il sospetto nasceva soprattutto dalla forma. Serve allora spostare la difesa sui processi: verifica dei canali, conferme indipendenti, separazione delle responsabilità, controlli contestuali, autenticazione robusta, revisione delle richieste anomale.
Non basta più riconoscere il falso. Bisogna progettare processi che restino sicuri anche quando il falso appare credibile.
Quando il bersaglio diventa il sistema AI stesso
C’è infine un terzo livello, ancora sottovalutato in molte discussioni aziendali: i sistemi di intelligenza artificiale non sono solo strumenti da usare o mezzi da cui difendersi indirettamente. Possono essere essi stessi l’obiettivo dell’attacco.
Questo cambia radicalmente il quadro. Perché quando il target è un sistema AI, non si difende solo un’applicazione o un’infrastruttura, ma una catena complessa fatta di dati, pipeline, modelli, integrazioni, endpoint, dipendenze esterne e logiche di supervisione.
L’attacco può cercare di alterare gli input, degradare l’output, inquinare il comportamento, estrarre informazioni, manipolare il contesto o sfruttare meccanismi di fiducia incorporati nel sistema.
Il problema, in questi casi, è che l’errore non sempre si manifesta in modo clamoroso.
Un sistema può continuare a funzionare, ma farlo peggio. Può restare apparentemente coerente, ma diventare meno affidabile in certe condizioni. Può produrre risposte formalmente plausibili, ma più vulnerabili a manipolazioni mirate.
In un contesto tradizionale siamo abituati a pensare alla sicurezza anche in termini di disponibilità, integrità e riservatezza.
Con l’AI bisogna aggiungere altre dimensioni: affidabilità, robustezza, controllabilità, tracciabilità del comportamento, qualità del dato, coerenza tra scopo dichiarato e uso reale.
Oltre il perimetro classico: le domande da porsi
Difendere un sistema AI significa quindi andare oltre il perimetro classico e chiedersi: di quali dati si fida? Da quali dipendenze dipende? Come degrada quando viene stressato? Chi si accorge che sta sbagliando? Chi è responsabile della validazione dei suoi output? Inoltre, chi decide quando il sistema non è più affidabile per lo scopo previsto?
Compliance e governance: diventare meno ingenui
L’emergere di standard, framework e obblighi regolatori viene spesso letto con fastidio da chi teme un irrigidimento dell’innovazione.
Ma nella realtà il tema è più pragmatico. Il valore di riferimenti come AI Act, ISO/IEC 42001 o NIST AI RMF non è solo prescrittivo. È prima di tutto culturale.
Costringono le organizzazioni a farsi domande che molte non si porrebbero spontaneamente. Quali sistemi AI stiamo davvero utilizzando? Con quali finalità? Su quali dati si basano? Chi ne risponde? Quali decisioni influenzano? Che impatto possono avere su clienti, dipendenti, processi e diritti? Quale rischio siamo disposti ad accettare? Dove serve supervisione umana? Come misuriamo affidabilità e limiti? Cosa facciamo quando un sistema continua a essere utile ma smette di essere sufficientemente controllabile?
La maturità, qui, non coincide con la quantità di strumenti adottati. Coincide con la capacità di trasformare queste domande in inventario, ruoli, soglie di accettazione, processi di validazione, riesame e miglioramento continuo.
La compliance, in altre parole, serve poco se resta solo documentale. Diventa utile invece, quando obbliga l’organizzazione a smettere di essere vaga.
Il vero banco di prova: fidarsi meno, verificare meglio
L’errore più insidioso che l’AI può introdurre non è sempre l’errore tecnico in sé. È l’errore relazionale che produce tra sistema e utilizzatore: l’eccesso di fiducia.
Un output ben scritto viene percepito facilmente come un output corretto. Una sintesi chiara appare affidabile. Un suggerimento di codice sembra competente.
Una classificazione automatica dà l’impressione di oggettività. In realtà la qualità formale della risposta non garantisce né correttezza né adeguatezza al contesto.
Dunque, una governance seria dell’AI deve avere il coraggio di essere, in parte, una governance della diffidenza. Non una diffidenza sterile o ostile all’innovazione, ma una diffidenza metodica: validare ciò che conta, definire quando serve supervisione, chiarire i limiti d’uso, evitare che la velocità sostituisca il giudizio, impedire che l’automazione venga scambiata per affidabilità.
Il rischio più grande, oggi, non è usare l’intelligenza artificiale. È usarla senza ridefinire i criteri con cui decidiamo quando fidarci.
AI in azienda: la domanda che i CISO dovrebbero porsi per mitigare il rischio
Forse il modo migliore per affrontare il tema non è chiedersi solamente se abbiamo introdotto l’AI in modo sicuro, ma si è già perso o si sta perdendo visibilità su quanto l’AI stia influenzando i nostri processi.
La questione non riguarda più l’innovazione, bensì il governo.
E in cyber security, perdere governo significa quasi sempre scoprire il rischio solo quando è già diventato incidente.












