cybertech europe 2025

Sistemi di AI a supporto delle capacità difensive di cyber security: quali soluzioni



Indirizzo copiato

I sistemi di AI possono essere un potenziamento effettivo ed efficace delle capacità di difesa nella sicurezza digitale a patto che siano protette esse stesse in modo specifico e siano regolamentate negli usi interni aziendali. Ecco cosa è emerso dalla prima giornata del Cybertech Europe 2025

Pubblicato il 22 ott 2025

Alessia Valentini

Giornalista, Cybersecurity Consultant e Advisor



Sistemi AI cyber security

In occasione della nuova edizione del Cybertech Europe 2025 di Roma l’argomento delle AI è stato fra quelli maggiormente discussi in relazione alle potenzialità legate al miglioramento delle azioni di difesa e per sottolineare ancora una volta come sia necessario proteggere le AI stesse da rischi di sicurezza.

Vero è, infatti, che da quando i sistemi di AI hanno fatto il loro ingresso nel panorama tecnologico non sembra esistere più alcuno strumento digitale che non ne faccia uso.

L’integrazione della AI generativa basata sui Large Language Model (LLM) nei sistemi digitali esistenti sembra dotarli di capacità ottimizzate: il beneficio linguistico di interazione e l’apparente capacità di saper rispondere su qualsiasi argomento; di fatto, il modello risponde con qualche conoscenza su quello per cui è stato addestrato, ma l’utente percepisce un’interazione ottimizzata anche perché ottiene sempre una risposta (anche se a volte del tutto errata come nel caso delle allucinazioni).

Accanto ai risultati degli LLM generici, cosiddetti general purpose e raccontati con enfasi rispetto agli effettivi risultati qualitativi, non mancano sia gli LLM specializzati e specificamente addestrati per compiti specifici, sia gli agenti di AI (Agentic -AI) che sono progettati per prendere decisioni, agire in modo autonomo e perseguire obiettivi complessi, anche con una supervisione limitata.

Anche se purtroppo gli LLM di tipo specializzato e circoscritto sono saliti agli onori della cronaca perché utilizzati per rendere sofisticati gli attacchi estendendo efficacia, velocità, impatti e numero di vittime, questi modelli sono parimenti utilizzabili per scopi difensivi.

Al Cybertech Europe 2025 si parla di sicurezza delle AI

L’onda di sistemi basati su AI che investe il mercato è definita “Big shift” sulle AI, per indicare i “molti CIO che sposteranno i loro budget su questi contesti”, come ha affermato Jonathan Fischbein, global CISO Check Point Technology (CPT), durante il suo intervento al Cybertech 2025 di Roma.

È proprio a questo punto che gli esperti suggeriscono di avviare una valutazione di rischio sulla sicurezza sulle AI sia per i rischi di vulnerabilità intrinseche di questi sistemi digitali, sia perché possono essere esse stesso oggetto di attacco mirato.

Ma nonostante questa esigenza, Jonathan Fischbein dichiara che “il 60% delle organizzazioni non ha modo di fare assessment di AI security”.

Il problema delle shadow AI

Uno dei maggiori problemi delle organizzazioni è la cosiddetta shadow AI spesso nota anche come unsactioned AI, ovvero l’uso non approvato o non regolamentato da parte degli utenti interni, delle AI pubbliche ed esterne all’azienda.

In questi casi il primo passo è sempre la presa di coscienza del problema, l’avvio di un inventario delle applicazioni di AI in uso e l’emissione di policy di adozione e utilizzo.

Una possibile lista di controllo delle cose da fare la fornisce Eva Chen, CEO di Trend Micro che nel suo intervento alla plenaria del Cybertech 2025 ha spiegato l’infrastruttura abilitante dei sistemi di AI, formato dai tre livelli di dati (che sono la base di conoscenza per il training), intelligence (modelli di ragionamento) e agenti di AI e ha sottolineato come sia necessario prevedere misure di protezione ad ogni livello.

Questo significa:

  • valutazione di postura di sicurezza dei dati per il primo livello;
  • sicurezza dei modelli di AI (AI model security) per proteggere le applicazioni container;
  • sicurezza delle applicazioni di AI (AI app security) per tenere sotto controllo la shadow AI;
  • sicurezza delle API (API security) per proteggere le interfacce;

senza dimenticare la sicurezza degli l’endpoint (endpoint security), l’attivazione della capacità di individuare attacchi in ambienti di AI (attack detection su deepfake ed exploitation di app di AI) e la cura dell’accesso alle app di AI assicurando anche usi appropriati di prompting e risultati.

“Ognuno deve costruire il proprio sistema per la messa in sicurezza dei loro ambienti di AI” conclude la CEO di Trend Micro.

Adozione delle AI per la Difesa

Che l’AI sia legata a rischi ed usi malevoli è noto, meno noto è la totalità di questi modi, perché ogni avversario digitale può introdurre una certa creatività nell’azione.

Forse per questo Jonathan Fischbein ha affermato che “l’AI va più veloce della nostra capacità di difendere” specificando che “si presta per generare deepfake, per alterare e manipolare informazioni, rendere più credibili gli attacchi di phishing e specializzare e/o accrescere gli 0-days”.

Ma come i sistemi di AI rendono sofisticati gli attacchi, parimenti sono efficaci e migliorano le capacità di difesa specialmente per azioni preventive di analisi del rischio, monitoraggio preventivo, individuazione di minacce (detection), per analizzare larghe quantità di dati di telemetria e individuare pattern di attacco a cui reagire con immediate azioni di mitigazione, sotto supervisione di specialisti umani.

Esempi di funzionalità arricchite di AI

Alcuni esempi arrivano dai vendor di sicurezza presenti al Cybertech Europe 2025 di Roma, che abbiamo intervistato durante le nostre visite ai padiglioni del Centro Congressi La Nuvola di Roma.

Umberto Pirovano, Senior Manager Technical Solutions, Palo Alto Networks conferma come l’AI sia usata per “migliorare la prevenzione, il rilevamento e la risposta alle minacce. L’AI è fondamentale nel rilevamento di minacce sconosciute e zero-day, perché permette di analizzare il comportamento di file e traffico, per identificare malware polimorfico e attacchi nuovi”.

“Nei firewall ML driven”, continua ancora Umberto Pirovano, “le funzioni di prevenzione di URL filtering, Threat Prevention, Antimalware e OT/IoT security sono potenziate da motori AI che riconoscono schemi complessi e anomalie all’interno di vasti set di dati e contemporaneamente, analizzano il comportamento di utenti ed entità (UEBA) per rilevare attività anomale indicative di compromissioni, riducendo significativamente i falsi positivi”.

La Security Orchestration, Automation and Response (SOAR) beneficia enormemente dell’AI, come anche la prevenzione del phishing e dell’ingegneria sociale, analizzando sistemi di URL Filtering avanzati”, conclude il Senior Manager Technical Solutions, Palo Alto Networks.

Rob Harrison, SVP Product Management Sophos, dichiara a sua volta che “tecnologie basate sull’Intelligenza Artificiale Generativa (GenAI) sono usate da Sophos nei sistemi di eXtended Detection &Response (XDR) per essere un alleato degli analisti, accelerando il rilevamento, l’analisi e la risposta alle minacce”.

Per specificare aggiunge che “funzionalità come l’AI Assistant e AI Case Summary offrono informazioni chiare e concise durante la gestione degli incidenti, aiutando i team a prendere decisioni informate in modo più rapido. L’AI Command Analysis interpreta il comportamento dei cybercriminali, fornendo un contesto più approfondito delle minacce, mentre l’AI Search consente agli utenti di interagire con il sistema usando il linguaggio naturale, semplificando le attività quotidiane di cybersicurezza e rendendole più intuitive”.

Emilio Turani, Managing Director di Qualys per Italia, SE Europa, Turchia e Grecia afferma che “l’AI è integrata nella nostra piattaforma come pilastro di potenziamento della piattaforma di difesa. Un esempio concreto di questa evoluzione è Agentic AI, la tecnologia recentemente introdotta nei moduli di analisi del rischio per le operazioni di prevenzione nella sicurezza cibernetica. Lavorando in modo autonomo effettua prioritizzazione, gestione e remediation delle minacce in tempo reale”.

In particolare, “le aree in cui l’AI si dimostra più efficace sono quelle dove la velocità, la precisione e la capacità di contestualizzazione sono determinanti: prioritizzazione intelligente del rischio cyber in base all’impatto sul business; automazione di remediation, guidata dal contesto operativo; analisi continua delle superfici di attacco per individuare ed eliminare esposizioni critiche; supporto decisionale supportato da AI conversazionale”.

Articoli correlati