Un gioco di specchi, in cui l’AI rappresenta al tempo stesso un potenziale problema e la sua soluzione. A disegnare il nuovo scenario della cyber security è Scott Woodgate, General Manager Threat Protection Product Marketing di Microsoft.
“L’AI fornisce sicuramente valore, ma porta con sé anche rischi per la sicurezza e nuove superfici di attacco. Inoltre, può essere utilizzata per scopi positivi, ma anche per scopi dannosi. Per questo dobbiamo assicurarci di bilanciare, come addetti alla sicurezza, ciò che gli attaccanti stanno già utilizzando dall’altra parte” spiega a Cybersecurity360 nel corso di un’intervista a margine del Microsoft AI Tour.
Un quadro, quello delineato da Woodgate, a cui Microsoft risponde attraverso un arricchimento degli strumenti di difesa all’interno del suo ecosistema e una maggiore integrazione tra le funzionalità legate all’intelligenza artificiale.
Indice degli argomenti
Un fenomeno in espansione che richiede una forma di controllo
L’uso di agenti basati sull’AI è in costante crescita. Le aziende che puntano maggiormente sull’innovazione stanno già investendo nel settore e utilizzando intensivamente gli strumenti a loro disposizione. “Prevediamo che entro il 2028 ci siano più di 1,3 miliardi di agent attivi” spiega Woodgate. “L’80% delle aziende Fortune 500 negli Stati Uniti hanno realizzato già numerosi agenti attraverso tecniche di sviluppo no-code e low-code. La proliferazione di agenti AI comporta però anche dei rischi”.
Uno dei primi rischi che Scott Woodgate sottolinea è quello del cosiddetto oversharing delle informazioni. “Gli agenti AI sono estremamente efficaci nel raccogliere informazioni – spiega – ma ci sono situazioni in cui questi dati non dovrebbero essere condivisi in maniera indiscriminata”.
Un discorso simile riguarda il fenomeno dello shadow AI, cioè l’utilizzo di servizi di intelligenza artificiale generativa non autorizzati dalle policy aziendali. Con l’espansione dell’uso di agenti creati autonomamente dagli utenti, il concetto stesso di shadow AI si allarga e non comprende solo l’ipotesi in cui un impiegato utilizza servizi gratuiti attraverso il web, ma anche quella in cui viene implementato un agente di terze parti o un LLM non autorizzato.
La risposta di Microsoft
L’attività di controllo dell’AI agentica all’interno dell’ecosistema Microsoft è affidata ad Agent 365, una piattaforma che consente di gestire in maniera centralizzata gli agenti utilizzati all’interno dell’organizzazione. Oltre a fornire una visione d’insieme che consente di esercitare una forma di governance adeguata, il sistema permette di orchestrare gli strumenti di cyber security dell’azienda di Redmond. Tra questi i ben conosciuti Entra, Defender e Purview.
L’uso combinato degli strumenti di protezione consente, spiega Woodgate, di esercitare una forma di controllo estremamente granulare sull’attività degli agenti. Consente, per esempio, di etichettare i dati utilizzati per limitare l’accesso sulla base di policy predefinite, identificare univocamente gli agenti stessi e garantire trasparenza nelle interazioni con gli utenti.
Una strategia che ha declinazioni specifiche per le più comuni tecniche di attacco che prendono di mira l’AI generativa e che, nel quadro attuale, rappresenta il primo fronte di difesa nei confronti di quella che si può tranquillamente definire come la nuova superficie di attacco nel settore della cyber security.
L’AI per controllare l’AI (e non solo)
Uno degli apparenti cortocircuiti legati allo sviluppo degli strumenti basati su AI generativa è quello di rappresentare, contemporaneamente, sia il problema che la soluzione. Nel settore cyber security questo emerge con estrema chiarezza. Il contrasto a tecniche come prompt injection e data poisoning, per esempio, fanno leva esattamente su strumenti di automazione basati sull’AI.
“Ogni interazione di agenti o chatbot AI vengono monitorati – spiega Scott Woodgate – con l’obiettivo di individuare eventuali operazioni a rischio. Per migliorare il livello di detection vengono utilizzati sia i concetti di identity collegati alla logica Zero Trust, sia informazioni aggiuntive come i report di threat intelligence”.
Sotto questo profilo, sottolinea il manager di Microsoft, il sistema può contare su un database alimentato dalla rete dell’azienda di Redmond, che registra ogni giorno più di 100.000 miliardi di eventi di sicurezza ed è in grado, di conseguenza, di prevedere i pattern di attacco più usati per agire in maniera proattiva mitigando il rischio di attacchi.
Presente e futuro dell’AI per i team di sicurezza
Al di là del “rimbalzo” che porta a usare l’AI per controllare i rischi di sicurezza provocati dall’AI, l’utilizzo dell’intelligenza artificiale in ambito security continua a evolvere. Scott Woodgate, sotto questo profilo, traccia il percorso che la tecnologia sta attraversando.
“Al momento strumenti come Security Copilot sono pensati per affiancare gli esperti di cyber security nella loro attività” spiega il manager di Microsoft. “Abbiamo circa 40 agent sviluppati internamente o con partner che permettono di potenziare notevolmente le capacità dei Security Operation Center”.
Tra questi, Woodgate cita quelli dedicati all’analisi in ambito di Phishing Triage, in cui gli algoritmi permettono di filtrare con estrema efficacia gli alert per selezionare quelli che rappresentano effettive minacce per le organizzazioni.
L’aspetto più interessante, però, è quello che riguarda l’evoluzione delle modalità con cui gli agent si rapportano ai responsabili di security. Se la prima fase prevede che l’AI affianchi in qualche modo gli operatori, secondo Woodgate il futuro prevede qualcosa di diverso.
“Già adesso utilizziamo gli AI agent in una logica preventiva, utilizzando un “red team agent” per stressare i sistemi di sicurezza e un “blu team agent” per introdurre gli accorgimenti che ne migliorano la postura” spiega. “Il prossimo passaggio sarà quello di dare un maggior livello di autonomia agli agenti nel contrasto agli attacchi”.
Uno scenario, quello descritto, che secondo Woodgate può concretizzarsi in un arco temporale relativamente breve. “Credo che non ci vorranno più di cinque anni per assistere a questo cambiamento” commenta.












