Per ricostruire l’entità dell’apporto che le AI danno alla cyber security occorre partire dal contrario, ovvero dalle conclusioni. A fronte dell’aumento della quantità e del numero delle minacce, le Intelligenze artificiali (AI) deputate alla cyber security non sono sufficienti.
Tuttavia, come è inevitabile, chi produce AI insiste molto sulla sicurezza, tant’è che anche OpenAI ha avviato un Bug Bounty Program affinché le falle vengano rilevate.
Sembra quasi si viva una situazione a suo modo paradossale: le AI non bastano a garantire la cyber security ma chi ne produce, a prescindere dall’ambito in cui opera, cerca di distanziarsi da eventuali critiche che possano essergli addebitate.
Bug Bounty: cosa sono e a cosa servono i programmi che mettono una “taglia” sulle vulnerabilità
Indice degli argomenti
I vantaggi delle AI per la cyber security
Sono polivalenti perché sfruttati sia a scopi di difesa sia a scopi di offesa. Si gioca quindi su un campo neutro. È vero che le AI permettono di fare controlli costanti e ripetuti che l’uomo non potrebbe svolgere, è altrettanto vero che, sul fronte del cyber crimine, le AI contribuiscono a sferrare attacchi tanto mirati e tanto ripetuti da non potere rientrare nelle capacità dell’uomo in tempi ragionevoli.
Il monitoraggio continuo dei perimetri aziendali e l’attivazione di misure di emergenza in caso di bisogno sono indubbiamente utili, ancorché non siano panacee che consentono di allentare la soglia dell’attenzione.
Le AI consentono di monitorare il comportamento delle persone in rapporto ai sistemi di cui fanno uso, così come sono alla costante ricerca di minacce valutando anche le conseguenze che queste potrebbero avere a seconda dello stato attuale dell’infrastruttura IT, considerando oltre all’hardware e ai software usati anche la rete. Le AI sono alleate dell’uomo, non lo sostituiscono.
In questo caso rendono la vita più facile ai Soc (Security Operations Centre) aziendali, ma non consentono atteggiamenti laschi: le AI possono sganciare misure d’urgenza ma le politiche per consentire il rientro delle eventuali crisi scatenate da un attacco spettano all’uomo.
Ciò non toglie che le AI rilevano gli incidenti ancora prima che accadono e riescano a contenerne i danni potenziali. Sono molto utili per rilevare le anomalie e i picchi anomali nei flussi di dati ma non sono in grado di analizzare i problemi rilevati senza l’intervento dell’uomo.
Tuttavia, ciò su cui viene posta meno enfasi, sono gli svantaggi che una difesa improntata sulle AI porta con sé. Allo stesso modo, sul fronte opposto, va sottolineato che il momento in cui un sistema attaccante potrà sferrare delle offensive in modo automatico è ancora lontano. La corretta cultura della cyber security aiuta a non sovrastimare la portata delle capacità delle AI, a prescindere dal fronte che ne fa uso.
Gli svantaggi delle AI per la cyber security
Sono principalmente due, uno culturale e uno prettamente tecnologico. Il primo è semplice: nelle organizzazioni in cui vige una cyber security anche soltanto demandata alle AI si tende ad abbassare la guardia, come se tra gli addetti vi fosse una sorta di scarico di responsabilità, una tranquillità dettata dalla certezza infondata che “ci sia qualcun altro a occuparsi della questione sicurezza”.
Non da ultimo, i monitoraggi svolti dalle AI possono restituire falsi positivi e, come sempre avviene, le AI danno il meglio di loro stesse all’interno di perimetri noti e ampiamente esercitati. Laddove il perimetro cambiasse, per esempio con l’introduzione di nuovi software aziendali o di un’implementazione dell’architettura della rete nel suo insieme, le AI corrono il rischio di diventare anche solo temporaneamente meno efficaci.
Per tratteggiare i contorni delle situazioni che si possono creare in quelle organizzazioni che demandano anche solo in parte la cyber security alle AI, si corre il rischio di limitare il propagarsi della cultura alla cyber sicurezza, con la convinzione che sia del tutto inutile diffonderla perché una sorta di entità superiore vede e provvede.
Inoltre, un’AI, se ridotta all’essenziale, è un algoritmo che apprende dalle esperienze che fa, credere che sia sempre pronta e scattante è fuorviante. Ogni AI lavora molto bene, in fretta e senza errori ma si limita a fare ciò che sa fare. Non può essere lasciata a sé stessa, va affiancata in modo attivo, nel caso specifico, da chi si occupa di cyber security.
L’impatto delle AI sulla cultura della cyber security
È un discorso che comporta più riflessioni, poste ognuna su un piano differente. Gli analisti della sicurezza in forza alle aziende sono confrontati con un numero crescente di incidenti sui quali indagare e questi, per lo più evidenziati dalle AI laddove disponibili, esigono nel complesso competenze sempre più specifiche.
Per ottenere il meglio dalle AI per la cyber security occorre che tutti i dipendenti conoscano cosa sono in grado e cosa non sono in grado di fare.
L’obiettivo ultimo delle AI non è disabilitare l’infrastruttura in caso di attacco o di rischio: non mirano a disattivare l’infrastruttura di un ospedale, a spegnere una centrale nucleare o a lasciare a terra tutti gli aerei in partenza, tutti eventi che solo l’intervento, la conoscenza e le capacità umane possono scongiurare.
Tutti i dipendenti di un’organizzazione devono essere formati sull’igiene digitale e sulla cyber security, solo in questo modo ne giova tutta la sicurezza propriamente detta.
Non da ultimo, i prodotti che usano un’AI e che potenzialmente possono entrare in una qualsiasi organizzazione, puntano sempre di più alla cyber security.
In ordine cronologico anche OpenAI, la no profit che produce i modelli GPT e i suoi derivati, su tutti ChatGPT, ha lanciato un Bug Bounty Program che premia con somme fino a 20mila dollari chi trova una vulnerabilità critica.
Questo anche per mettere il più possibile in sicurezza le Chatbot, affinché entrino nelle imprese senza rappresentare un rischio.