L’uso spregiudicato dell’AI generativa, sfruttando le vulnerabilità non risolte dell’ecosistema digitale, comporta rilevanti vantaggi economici per i cyber criminali.
Nell’era dell’Agentic AI e del cyber crimine organizzato, gli attacchi informatici costano oggi 24 trilioni di dollari l’anno, secondo un recente report della Microsoft Digital Crimes Unit.
“L’intelligenza artificiale è uno strumento letteralmente in mano a tutti. Nel mondo della cyber security è già da diversi anni a disposizione di chi deve occuparsi di difesa. Ma certamente oggi la problematica principale è che l’intelligenza artificiale è diventata più disponibile per chiunque: non solo per chi deve difendersi, ma soprattutto per chi sferra attacchi”, commenta Riccardo Paglia, Go To Market Manager per Maticmind.
Ecco come l’IA può trasformarsi da minaccia ad alleata, regalando più efficacia ai sistemi di difesa.
Indice degli argomenti
Intelligenza artificiale, è sfida aperta tra chi attacca e chi si difende
Un recente esperimento di Anthropic, la startup statunitense proprietaria del modello Claude, dimostra come un modello di AI, il cui addestramento è avvenuto in ambienti vulnerabili al reward hacking, possa sviluppare comportamenti disallineati come sabotaggio e finta lealtà. Il test ha subito sollevato urgenti interrogativi sulla sicurezza dei moderni sistemi di intelligenza artificiale.
“Il report di Anthropic è la dimostrazione di ciò che stiamo vedendo anche nel nostro osservatorio della gestione degli incidenti: l’AI è un amplificatore di attacchi, perché l’intelligenza artificiale è in grado di mimare quello che farebbe un operatore, ma con maggiore efficienza, perché si distrae di meno, è meno stanco, è più concentrato”, spiega Riccardo Paglia.
Dall’indagine di Anthropic emerge che modelli di intelligenza artificiale, se sottoposti a specifici compiti di programmazione non solo imparano al tradimento delle aspettative dei loro creatori, ma possono anche sviluppare comportamenti ancora più pericolosi, compresi il sabotaggio della ricerca sulla sicurezza dell’AI e la “finta lealtà” verso i loro supervisori.
“Ma l’aspetto più preoccupante è che opera su volumi enormi in termini di attacchi contemporanei e tempi estremamente ristretti, con un investimento minimo dal punto di vista economico. Ciò pone una sfida per le aziende, non solo tecnologica, ma anche sotto il profilo dei tempi di risposta, oltre che di identificazione delle minacce.
Certamente l’AI rende sì i sistemi di difesa più efficaci, oggi, ma serve innalzare il livello della qualità della Ai della difesa e serve lo specialista SOC che possa intervenire o decidere o istruire adeguatamente la Ai per poter rispondere in modo efficace”, avverte il Go To Market Manager per Maticmind.
Le opportunità di difesa e i nuovi rischi cyber per la sicurezza digitale
Il caso HexStrike AI è emblematico: pensato per la difesa, usato dagli attaccanti. Uno strumento, pensato per il red teaming, è stato sfruttato anche per effettuare attività malevole. Il cyber crimine ha infatti scoperto il modo di utilizzare a proprio vantaggio un framework ideato per ostacolarlo.
Unendo Large Language Model (LLM) e strumenti di sicurezza concreti per consentire agli agenti AI di effettuare scansioni e analisi, HexStrike AI è fondato su un’architettura multi-agente ed integra decine di tool per la sicurezza il cui coordinamento privo di automatismi richiederebbe l’intervento di operatori umani.
La piattaforma, nata per ridurre la difficoltà intrinseca della sicurezza informatica, permette di effettuare test e operazioni mediante il linguaggio naturale, ma ha prestato il fianco al cyber crime, per sfruttare le vulnerabilità di un software e una piattaforma per l’accesso remoto ai sistemi, dimostrando come funzionalità di automazione possano trovare utilizzo per attacchi massicci e simultanei.
“Quello che abbiamo visto di HexStrike AI è che, ancora una volta, la tecnologia non è né buona né cattiva, ma dipende sempre da chi ne fa uso, come peraltro tutto ciò che inventa l’uomo, dal coltello che si può usare per nutrirsi, in mano al chirurgo diventa un bisturi per salvare vite, ma se finisce in mani criminali serve per compiere reati contro altri esseri umani. Dunque, è a disposizione di tutti, anche di chi non è dotato di skill particolari.
L’intelligenza artificiale che abbiamo oggi a disposizione sta abbassando sempre di più la soglia di accessibilità a questi strumenti.”, sottolinea Riccardo Paglia: “Non è più necessario trovarli o meglio comprarli in rete, ma è possibile crearli in casa con scarse competenze e conoscenze dell’argomento che comunque sta diventando sempre più diffuso”.
Le AI rafforzano dunque le capacità difensive delle organizzazioni, ma trovano anche impiego da parte del cyber crimine per sferrare attacchi più sofisticati e mirati.
Malware AI-driven e attacchi just-in-time: il ruolo del framework
L’era dei malware AI-driven è iniziata, come ha dimostrato Google svelando cinque famiglie di malware che sfruttano gli LLM in esecuzione. Adesso si tratta di capire se anche sul fronte dei ‘buoni’ siamo capaci di evolverci con analoga rapidità. L’AI è già nelle mani degli attaccanti e non per scrivere phishing più accattivanti, bensì per generare malware capace di adattarsi, offuscarsi ed imparare.
“Di fronte a queste minacce è necessario intraprendere un approccio più olistico e più strutturato per far fronte a queste minacce, perché non si tratta più di avere, anzi, non si tratta solo di avere un’intelligenza artificiale che supporti perché non sostituisce e non può sostituire oggi l’essere umano, ma piuttosto un approccio strutturato per le aziende attraverso un framework che sicuramente abbia le tecnologie al suo interno, ma anche competenze e processi”, evidenzia Riccardo Paglia, “perché di fronte a queste minacce sempre più complesse e sempre più difficili da identificare, non possiamo pensare che l’AI o qualsiasi altro strumento che attualmente abbiamo (o possiamo avere) a disposizione possa far fronte alle minacce e alla loro dinamicità, e dobbiamo necessariamente affrontare quindi ciò che sta succedendo con dei framework flessibili che permettano quindi di rispondere all’attuale contesto di rischio”.
Shadow AI e browser AI
L’ingresso in ambito aziendale di sistemi cognitivi come Atlas, il nuovo browser di OpenAI costruito nativamente intorno a ChatGPT, impone una revisione delle pratiche di sicurezza e governance.
Episodi recenti che hanno coinvolto strumenti come Microsoft Copilot, dove l’esecuzione di comandi nascosti da parte di Agenti AI, dentro file aziendali, dimostrano come i modelli linguistici possano trasformarsi in vettori operativi di rischio. Atlas di Open AI estende questo rischio a livello del browser, a causa della sua capacità di ricordare e agire in autonomia, amplificandone la superficie di rischio.
“Bisogna prestare attenzione a questo nuovo elemento. Non una minaccia, ma un nuovo elemento all’interno delle aziende che è passato forse più in sordina e con meno potenza, il browser di Perplexity. L’intelligenza artificiale in azienda, oltre alla Shadow AI, sta impattando le aziende: fa sì che le imprese debbano monitorare, verificare, ma soprattutto formare”, avverte Riccardo Paglia.
La Shadow AI, riguardante l’uso non regolamentato e non autorizzato degli strumenti di AI, rappresenta una minaccia importante per ogni organizzazione, introducendo vulnerabilità paragonabili a quelle di un moderno cavallo di Troia digitale.
“Il framework basato su tecnologie, competenze e processi, afferma che è necessario tenere informati e informare il personale nell’utilizzo di questi strumenti sicuramente molto efficaci, molto utili, che fanno risparmiare molto tempo, ma che richiedono un utilizzo cauto e attento. Da quando è arrivata l’AI in azienda, si moltiplicano i casi di data breach di importanti e anche meno note organizzazioni; quindi, è un tassello aggiuntivo a disposizione degli utenti dove le imprese dovranno monitorare l’utilizzo di questi browser AI, a livello di processo, controllando questi strumenti e monitorarli in modo efficace. Ma le aziende, anche in relazione all’AI Act, devono intraprendere percorsi di consapevolezza, perché, almeno nella mia visione, l’obiettivo non è seguire le normative per evitare le multe, ma occorre effettuare gli adempimenti perché sono percorsi virtuosi che aiutano le aziende e le guidano nei percorsi di resilienza: dunque è necessario intraprendere questi percorsi e valutarli attentamente”, avverte Riccardo Paglia.
In conclusione, “è sempre centrale il framework, perché nessuna tecnologia ci protegge al 100%, ma anche all’80-90%. Invece un framework di gestione della sicurezza ci permette di mettere in comune tecnologie, processi e competenze, tramite esercitazioni più che formazione fine a sé stessa. E, per esempio, i tabletop vanno proprio in questa direzione, dove ancora oggi, nonostante l’AI, l’essere umano è colui che fa la differenza e quindi è necessario intraprendere questi percorsi, adottando i framework di sicurezza che sono fondamentali”, conclude Riccardo Paglia.
Infatti, l’AI può diventare da minaccia ad alleata, trasformandosi in un moltiplicatore di forza per la sicurezza informatica, purché sia abbinata al pensiero critico, a misure di sicurezza etiche e a una supervisione umana informata.
Contributo redazionale realizzato in collaborazione con Maticmind.














