CYBERSECURITY aziendale

Zero Trust e AI, i punti deboli di un connubio che sembra ineffabile



Indirizzo copiato

I sistemi Zero Trust supportati dalle AI sono una negazione in termini. Infatti, tendono a estendere il concetto di fiducia a quelle intelligenze artificiali alle quali, almeno per principio, occorrerebbe guardare con sospetto per la salvaguardia della sicurezza. Come uscire da questa impasse. Molto pericolosa

Pubblicato il 21 gen 2026

Giuditta Mosca

Giornalista, esperta di tecnologia



Le architetture Zero Trust con AI sono soluzioni efficaci solo se ponderate e orchestrate con cautela. L'AI non è sempre sinonimo di potenziamento a prescindere
DALL-E

La filosofia Zero Trust si sta guadagnando spazio tra gli assetti difensivi e, oltre a riscuotere successo, è al centro di una continua evoluzione che non è sempre da prendere in modo acritico.

Il nascente connubio tra Zero Trust e Intelligenze artificiali (AI) lascia più di un nervo scoperto soprattutto in prospettiva e, in un momento in cui le AI si stanno guadagnando gli onori della cronaca anche per la loro intrinseca fragilità, tale matrimonio non va celebrato senza porsi domande perché rappresenta una bella ipotesi che può essere annientata da fatti brutali.

In sintesi: l’approccio Zero Trust impone di non fidarsi mai in assenza delle opportune verifiche. Ma chi controlla l’operato delle AI chiamate a supportare il concetto stesso di affidabilità?

Zero Trust e AI, breve panoramica

Un sistema Zero Trust potenziato dalle AI è un’architettura di sicurezza che si fa carico di controllare in modo certosino ogni qualsiasi azione che coinvolge utenti, dispositivi, applicazioni o dati. I modelli AI supportano in modo continuo queste verifiche esaminando in tempo reale comportamenti e anomalie.

L’idea in sé racchiude alcuni capisaldi inalienabili che mettono le AI al servizio della cyber security:

  • La fiducia: ogni utente, ogni dispositivo, ogni interazione e ogni applicazione deve essere autenticata e autorizzata.
  • La decisione: non è l’AI a conferire fiducia all’interazione con il sistema, giacché il suo ruolo è quello di osservare e usare i dati per rilevare comportamenti anomali e attuare le risposte del caso.
  • L’adattabilità: le policy si aggiornano in base al rischio stimato e non sulla scorta di regole statiche.

Pure non decidendo, le AI ricoprono un ruolo determinante nel segnalare ciò che è degno di fiducia avviando le procedure utili all’esclusione di ciò che non lo è. Riuscire ad annichilirne gli effetti favorisce i criminal hacker e lascia alle organizzazioni la convinzione di godere di un livello di protezione che, in realtà, viene meno.

Come funzionano i sistemi Zero Trust AI

Procedendo per sommi capi, i sistemi Zero Trust con AI adottano una filosofia di totale assenza di fiducia anche all’interno della rete aziendale. Questo approccio può essere schematizzato e riassunto in sei punti:

  • Verificano ogni accesso: utenti e dispositivi devono autenticarsi continuamente anche se già attivi nella rete.
  • Controllano i privilegi: ogni entità gode solo dei permessi necessari.
  • Monitorano in tempo reale: l’AI esamina il comportamento degli utenti per identificare anomalie.
  • Bloccano attività sospette.
  • Segmentano la rete per limitare i danni e restringere il campo d’azione dei criminal hacker.
  • Adattano le policy: l’AI aggiorna in modo dinamico le regole di sicurezza a seconda del rischio e automatizza le risposte agli incidenti, riducendo il tempo di reazione dell’organizzazione sotto attacco.

Ma tutto ciò, per quanto incoraggiante, ha dei limiti. Infatti, edulcorando o avvelenando i dati dei modelli AI deputati alla sicurezza, l’efficacia dell’intero assetto difensivo può essere messa in forse.

I rischi e le vulnerabilità dei sistemi Zero Trust con AI

Molte aziende di cybersecurity propongono soluzioni Zero Trust basate su AI e questo è un bene, a patto che i clienti non fraintendano le reali capacità di tali strumenti e, parallelamente, va anche segnalato che l’implementazione sicura di sistemi AI è, come tema generale, al centro di campagne di sensibilizzazione di diversi enti ovunque nel mondo.

Vale quindi la pena approfondire l’argomento, considerando che l’uso di modelli AI comporta problemi di sicurezza e privacy e il loro inserimento in sistemi di cyber security può rivelarsi un’arma a doppio taglio.

La logica che dovrebbe prevalere è sempre la stessa: la cyber security ruota attorno al controllo umano e non alla delega a strumenti i quali, per quanto affidabili e intelligenti, devono continuare a rivestire ruoli di supporto.

In sintesi, la domanda è: chi verifica la fiducia del modello AI?

Occorre definire confini critici al di là dei quali le AI non possono essere più considerate ciecamente al pari di alleate e questi confini devono essere delimitati dalle intrinseche fragilità delle AI stesse.

Data poisoning

Inserimento di dati malevoli nei set di dati o nel flusso di dati che danno vita al modello AI. Anche quantità limitate di dati malevoli possono alterarne il comportamento manipolando falsi positivi, bias o sfruttando exploit.

La fiducia cieca nel modello AI si traduce in una falsa fiducia.

Model drift

L’efficacia del modello AI usato può venire meno a causa di modifiche del contesto operativo e quindi a causa di nuove minacce, dati contaminati o radicalmente cambiati o modifiche sostanziali nell’architettura IT.

Anche in questo caso, l’eccessiva fiducia nei confronti del modello AI può venire tradita.

Attacchi adversariali

Tecnica utile a ingannare i modelli AI cambiando i dati di input anche in modo sottile affinché generino risposte sbagliate. Nello specifico, le AI potrebbero accettare comportamenti indesiderabili o eludere i controlli.

Spiegabilità

Le politiche Zero Trust impongono decisioni verificabili e se un modello AI non rende spiegabili le scelte effettuate o caldeggiate, viene meno il concetto stesso di fiducia con ricadute sulla reale utilità delle AI.

Falsa sensazione di protezione

L’organizzazione è convinta di potere dormire sonni tranquilli ed è spinta ad abbassare la guardia ma nessuna Intelligenza artificiale compensa l’inefficienza e le politiche lasche degli operatori umani.

Questione di equilibri e di misure scaltre

Quando si parla di sicurezza Zero Trust, le AI vestono ruoli comprimari soprattutto perché consentono di migliorare il rilevamento di comportamenti anomali e di rendere più efficaci le misure di risposta.

Allo stesso modo, le AI permettono l’analisi di grandi moli di dati e offrono un livello potenziato di sicurezza, nella misura in cui si comprende che l’AI in sé non è garanzia assoluta e che va a sua volta considerata nella filosofia Zero Trust, come peraltro evidenziato da una ricerca pubblicata a maggio del 2025 e firmata

Non considerare l’AI trusted by default e sottoporla a validazione continua è la chiave.

Usare sandbox di validazione, effettuare simulazioni adversariali e stress test è di vitale importanza.

La separazione delle policy e delle decisioni è pure importante: l’AI suggerisce ma non sceglie in modo autonomo e devono avere un livello di explanaibility tale da consentire l’audit dei log.

I problemi aperti

Va da sé che un dominio in cui gli equilibri sottili hanno un peso specifico, esistono dei problemi che richiedono soluzioni altrettanto sottili.

Tra questi c’è la fragilità della gestione dei dati sensibili. L’AI richiede grandi quantità di dati per funzionare e queste informazioni – nel contesto Zero Trust – devono essere controllate in modo rigoroso. Vengono sottoposti a questi controlli anche file riservati e credenziali di accesso: ciò può creare attriti tra l’efficienza operativa e la privacy.

Non di meno, la compliance normativa e la governance possono essere rese più ampollose perché non tutte le decisioni automatizzate sono trasparenti e facili da interpretare.

Ci sono anche problemi più tecnici. Per esempio, le automazioni tipiche di un’architettura Zero Trust potenziata dalle AI può scontrarsi con collo di bottiglia che richiedono tuning accorti e periodici. Fa riferimento a quest’evenienza una ricerca curata dalla Deakin University di Melbourne (Australia).

Tutto ciò impone che il supporto delle AI vada implementato con logiche di privilegio minimo evitando automatismi non supervisionati.

La sicurezza e l’accessibilità devono essere bilanciati con policy granulari ma, ancora prima, le organizzazioni devono creare (e formare) gruppi di lavoro che si muovano tra la cyber security, la compliance e l’etica delle AI.

Articoli correlati