Intelligenza artificiale e machine learning nelle mani dei cyber criminali: rischi e contromisure - Cyber Security 360

TECNOLOGIA E SICUREZZA

Intelligenza artificiale e machine learning nelle mani dei cyber criminali: rischi e contromisure

Intelligenza artificiale e machine learning possono essere classificati come strumenti dual-use: migliorano e, al contempo, influenzano negativamente le misure di cyber security. Pertanto, è utile sia implementarli nei sistemi di sicurezza sia inserirli nel piano di risk assessment al pari degli altri componenti IT

17 Giu 2021
C
Vincenzo Calabrò

Information Security & Digital Forensics Analyst and Trainer, Adjunct Professor of Cyber Security

Come è noto, l’intelligenza artificiale (AI) e il machine learning (ML) rappresentano, allo stato dell’arte, i principali pilastri su cui usualmente le organizzazioni, pubbliche o private, fondano i propri sistemi di detection e response alle minacce cyber per ambire ad ottenere una cyber security adattiva, preventiva, proattiva e predittiva.

Le minacce sono divenute complesse e sofisticate e lo saranno sempre di più, pertanto i classici strumenti di cyber defence reattiva non riescono più a contrastarle né, tanto meno, a prevenirle. Per tale motivo, la maggior parte delle soluzioni a supporto della sicurezza dei dati e delle informazioni impiega queste tecnologie innovative.

Sfortunatamente, questi strumenti non sono solo appannaggio degli esperti di cyber security. Infatti, anche i criminali informatici li utilizzano per scoprire nuove minacce o lanciare attacchi più avanzati ed efficienti.

In genere, quando si parla di AI e ML, si considerano solo gli aspetti positivi, cioè di come possono aiutare le organizzazioni a contrastare le minacce informatiche, come ad esempio i malware e il phishing, e a identificare le nuove vulnerabilità.

È utile, invece, trattare il problema da un’altra prospettiva: in che modo i criminali utilizzano AI e ML per effettuare attacchi più efficaci e deleteri e come tutelarsi da queste minacce.

Intelligenza artificiale e machine learning per scovare nuove minacce: le soluzioni

Intelligenza artificiale e machine learning: il ruolo nei cyber attacchi

Partiamo dall’assunto che, grazie all’intelligenza artificiale e al machine learning si stanno simmetricamente evolvendo sia le soluzioni per la cyber security sia i cyber threat, come i malware, i ransomware, il phishing e tutte le altre minacce del mondo cyber.

In particolare, i threat agents evoluti sfruttano queste tecnologie per scoprire nuovi modi per ingannare, spiare, sabotare, falsificare, distruggere, raggirare le potenziali vittime. A tal riguardo, si sottolinea che il profilo dei criminali informatici non si identifica più nel ragazzo smanettone, un po’ naif, che sfrutta le proprie capacità di hacking e i software open source, ma si è evoluto in organizzazioni strutturate e munite di tecnologie avanzate che richiedono investimenti rilevanti.

Per comprendere quale apporto possano fornire l’intelligenza artificiale e il machine learning ai cyber threats, analizziamo alcuni esempi di minacce comuni:

  1. social engineering: è un metodo, una tecnica, utilizzata dai criminali informatici per ingannare le persone e convincerle a cedere informazioni riservate o a intraprendere azioni specifiche, come quelle di effettuare un file transfer, cedere le credenziali o fare clic su un link malevolo. I threat agents sfruttano il ML per raccogliere le informazioni sui target (aziende, dipendenti e partner) in modo più semplice e rapido. Quindi, l’apprendimento automatico è in grado di potenziare la base informativa degli attacchi che utilizzano l’ingegneria sociale;
  2. spamming, phishing e spear phishing: sono strumenti molti utilizzati dalla criminalità informatica. Il loro successo si basa su una debolezza umana, cioè sul concetto che il target prima o poi abboccherà al raggiro. In questi casi il ML è utilizzato per addestrare l’intelligenza artificiale con l’obiettivo di creare contesti simili a quelli reali e affinare le tecniche di inganno, poiché il livello di cognizione degli utenti a questa tipologia di minacce è notevolmente cresciuta negli anni. Per esempio: i criminali informatici possono utilizzare gli algoritmi di ML per comprendere il modello di e-mail automatizzate inviate dalle Piattaforme globali (Amazon, Netflix o Apple) per sviluppare falsi messaggi che somigliano a quelli reali;
  3. spoofing e impersonation: sono tecniche utilizzate dai criminali informatici per cercare di sostituirsi ad un’azienda, un marchio o una persona conosciuta. Gli hacker sfruttano gli algoritmi di AI per analizzare in dettaglio i diversi aspetti del target ed estrarre le informazioni fondamentali. Per esempio, se un hacker volesse impersonare il CEO di un’azienda per inviare e-mail a scopo di lucro, potrebbe utilizzare il ML sui post e articoli pubblicati sui Social Network e per capire il suo stile di scrittura e replicarlo per portare a segno l’attacco. Il ML e l’AI possono aiutare i criminali informatici anche nella realizzazione di fake di testi, immagini, foto, video e, persino, voci;
  4. ransomware, trojan, spyware e gli altri tipi di malware. È notorio che, nel ciclo di vita di un attacco cyber, i threat agents utilizzano una qualche forma di malware e che la maggior parte delle infezioni si verifica via e-mail e utilizza allegati e link malevoli. Gli hacker sfruttano l’AI e il ML per sviluppare malware sempre più intelligenti, ovvero in grado di adattarsi ai vari contesti e sistemi di protezione. Queste tecniche di evasione vengono sfruttate dai criminali per minimizzare la possibilità di essere scoperti e nascondere più a lungo possibile le loro attività malevole poste in essere dal malware;
  5. vulnerability discovery: sempre più spesso, l’AI e il ML, e i loro algoritmi, sono utilizzati dalle organizzazioni anche per scoprire le vulnerabilità nei software e nei sistemi IT. Le vulnerabilità sono quasi sempre la conseguenza di un errore o di un bug e permettono di hackerare le applicazioni. L’impiego di AI e ML aiuta gli sviluppatori a identificare questi errori e bug in modo più rapido e semplice. Il problema si verifica quando queste stesse peculiarità vengono adoperate dai threat agents per scopi malevoli;
  6. violazione dei codici captcha e delle password. Gli algoritmi di machine learning possono essere utilizzati dai criminali informatici per violare i codici captcha e le password. Per esempio, nel caso dei captcha, il ML consente ai criminali di addestrare il loro bot (o robot) a superare le policy di protezione. Allo stesso modo, il ML aiuta i threat agents a ottimizzare i brute-force attacks per la scoperta di password e credenziali;
  7. bot e automazione. Da quanto fin ora illustrato, è facile comprendere come possono essere automatizzate alcune fasi di un attacco con l’aiuto dell’apprendimento automatico e dell’intelligenza artificiale. Queste tecniche possono essere applicate anche agli attacchi di tipo DDoS, tramite le botnet o le macchine zombie, per coordinare le azioni e renderle non riconoscibili e, conseguentemente, più letali.

Analisi dei rischi e contromisure

Negli ultimi anni l’intelligenza artificiale è entrata a far parte del “mainstream” del settore IT, tuttavia ancora si rileva molta disinformazione e confusione su ciò di cui è capace per l’improvement della sicurezza delle informazioni e, parallelamente, sui potenziali rischi che possono celarsi dietro questa tecnologia. La storia dell’IT è ricca di visioni utopiche e distopiche.

Si rammenta che l’apprendimento automatico raggiunge ottime performance a fronte di enormi set di dati. Per esempio, in molte applicazioni, come le auto a guida autonoma, è necessario orchestrare un mix di sensori per la visione artificiale, di software complessi adibiti al processo decisionale in tempo reale e di componenti della robotica.

L’adozione dell’intelligenza artificiale in ambiti chiusi e controllati, come quelli di una realtà industriale, risulta relativamente semplice, ma concedere l’accesso alle informazioni all’intelligenza artificiale e consentirle qualsiasi azione autonoma comporta l’assunzione di gravi rischi che devono essere presi in considerazione prima di avviare il deployment. Cerchiamo di analizzarli.

In un sistema di AI, l’errore di un bias è un evento abbastanza comune e può dipendere dalla presenza di errori di programmazione o da set di specifici di dati.

Ciò implica pregiudizi, decisioni errate e, potenzialmente, anche discriminazioni che possono determinare conseguenze legali, danni economici, all’immagine e alla reputazione. Inoltre, un design impreciso può essere soggetto ai rischi di overfitting (sovra-adattamento) o di underfitting (sotto-adattamento) del modello sui dati di riferimento e, di conseguenza, far assumere decisioni troppo specifiche o troppo generiche.

Questi rischi possono essere mitigati con l’applicazione delle seguenti contromisure:

  • supervisione umana;
  • test rigorosi durante la fase di progettazione dei sistemi di intelligenza artificiale;
  • monitoraggio attento e continuo durante l’operatività dei sistemi.

Le capacità decisionali devono essere costantemente misurate e valutate per garantire che un eventuale pregiudizio emergente, o un processo decisionale anomalo, sia affrontato rapidamente e risolto.

Le suddette minacce si basano su errori accidentali o di design avvenuti durante le fasi di progettazione e implementazione. Ci sono, poi, una serie di rischi connessi alla possibilità che i threat agents cerchino deliberatamente di sabotare i sistemi di AI in esercizio e, finanche, di utilizzarli come strumenti di attacco.

In ambito AI, la minaccia che consente la manipolazione del sistema è comunemente associata al termine poisoning (avvelenamento). Ciò è connesso alla metodologia di attacco utilizzata.

Questa minaccia può concretizzarsi attraverso due vettori di attacco:

  • manipolando i set di dati utilizzati per addestrare l’AI, per esempio apportando modifiche ai parametri o realizzando scenari appositamente progettati per evitare di essere scoperti durante la gestione.
  • Impiegando tecniche di evasion, per esempio manomettendo i dati di input per forzare gli errori.

In entrambi i casi, il rischio che si appalesa con avvelenamento dei dati espone i sistemi di AI ad una loro manipolazione difficilmente identificabile.

Una soluzione, adoperabile per mitigare il rischio del poisoning, consiste nel controllare l’accuratezza dei dati e degli input. Questa opzione, che di primo acchito potrebbe apparire irrealizzabile, si consegue imponendo la raccolta dei dati solo da fonti affidabili. Inoltre, è fondamentale addestrare il sistema di AI all’identificazione delle anomalie, ad esempio fornendo dati contraddittori, per consentire il riconoscimento degli input malevoli e l’isolamento attraverso meccanismi di autoprotezione.

Un problema più difficile da risolvere è rappresentato dall’inferenza, ovvero dall’eventualità che gli attaccanti possano decodificare i sistemi di AI in modo da poter comprendere quali dati siano stati utilizzati per il loro addestramento. Questa minaccia può consentire loro di accedere ai dati sensibili, spianare la strada al poisoning o replicare il sistema di intelligenza artificiale.

Come già indicato, un’altra minaccia è rappresentata dalla possibilità che i criminali informatici possano sfruttare l’AI per rafforzare gli attacchi di ingegneria sociale. L’intelligenza artificiale è in grado di imparare ad individuare i modelli di comportamento, capire come convincere le persone della bontà di una mail e, quindi, persuaderli a compiere operazioni rischiose o, addirittura, a consegnare informazioni sensibili.

Una possibile contromisura da impiegare per mitigare questo rischio consta in un programma di improvement continuo per addestrare il personale a resistere agli attacchi di social engineering attraverso simulazioni e sessioni di brainstorming.

Si rammenta, infine, l’opportunità offerta dai sistemi AI agli attaccanti per migliorare l’identificazione delle nuove vulnerabilità. È scontato suggerire di utilizzare la stessa peculiarità per attivare un processo di auto-discovery delle vulnerabilità e un’attività di monitoraggio real-time degli accessi, delle attività di rete e dei comportamenti degli utenti.

Intelligenza artificiale: le nuove regole europee che disciplinano l’uso della tecnologia

Conclusioni

In sintesi, potremmo classificare l’intelligenza artificiale tra gli strumenti cosiddetti dual-use. Abbiamo visto come l’intelligenza artificiale può migliorare e, allo stesso tempo, influenzare negativamente le misure di cyber security. In particolare, abbiamo individuato due famiglie di minacce: quelle rivolte alla manipolazione delle informazioni su cui fonda l’AI e quelle riguardanti il controllo dei sistemi.

Nonostante tutto, oggi l’AI rappresenta una delle principali soluzioni per bloccare le minacce e gli attacchi. Ad esempio, gli algoritmi di AI svolgono un ruolo chiave per prevedere, identificare e bloccare le e-mail malevole, il che significa combattere malware, phishing, spam e altri tipi di attacco, oppure rilevare comportamenti rischiosi, in grado di abbassare le misure di difesa, ed, infine, scoprire nuove vulnerabilità.

Pertanto, è utile implementare l’AI nei propri sistemi di sicurezza, ma, al contempo, è necessario inserirli nel piano di risk assessment al pari degli altri componenti IT.

HWG - white paper - Cyber rischio: prevenire e rispondere agli incidenti
@RIPRODUZIONE RISERVATA

Articolo 1 di 5