il report

AI e cyber security: l’intelligenza artificiale è sia risorsa sia minaccia per la sicurezza digitale



Indirizzo copiato

Il Rapporto Clusit 2025 evidenzia il doppio ruolo dell’AI in cyber security: rafforza le difese, ma potenzia anche truffe, deepfake e analisi dei dati rubati. Come spiegano Pennasilico, Bechelli e Vaccarelli, la crescente dipendenza dall’AI richiede più governance, formazione e consapevolezza per mantenere resilienza e fiducia in uno scenario di minacce sempre più sofisticate

Pubblicato il 12 dic 2025



ai_e_cybersecurity_cybersecurity360

L’intelligenza artificiale sta ridefinendo in profondità il panorama della sicurezza informatica. Non solo come strumento difensivo, ma anche come leva operativa per gli attaccanti.

È quanto emerge dagli interventi di Alessio Pennasilico, Luca Bechelli e Anna Vaccarelli durante la presentazione del Rapporto Clusit 2025, che dedica una parte significativa all’evoluzione del rapporto tra AI e cyber security, sottolineando come i modelli generativi e gli automatismi abbiano ampliato sia le possibilità di protezione sia l’efficacia delle minacce.

Dalla difesa all’offesa: la nuova strategia del cybercrime

Per anni l’AI è stata descritta come una risorsa chiave per il rafforzamento delle difese digitali: algoritmi di machine learning per il rilevamento delle anomalie, analisi predittive dei rischi, automazione delle risposte agli incidenti.

Tutto questo rimane valido, ma oggi il quadro è cambiato radicalmente. «Il tema non è più l’hype mediatico sull’intelligenza artificiale, ma il modo in cui viene realmente utilizzata dagli aggressori», afferma Pennasilico.

La novità riguarda la capacità dell’AI di rendere più semplice l’analisi di enormi quantità di dati rubati. Bechelli osserva che «prima del 2022, correlare miliardi di dati raccolti nel dark web era complesso. Oggi è banale: le AI possono essere addestrate a farlo».

Le bande criminali non devono più scandagliare manualmente le informazioni sottratte, ma possono affidarsi a sistemi capaci di individuare in pochi secondi credenziali, password e relazioni tra individui e aziende.

Pennasilico aggiunge che anche la qualità delle truffe è cambiata: «Oggi gli attacchi di social engineering possono includere fatture autentiche, IBAN reali e testi perfettamente scritti. L’unico errore, spesso, è nel conto bancario dove finiscono i soldi». La progressiva scomparsa degli indizi linguistici – un tempo considerati segnali utili – dimostra il salto qualitativo dell’attacco digitale.

Deepfake e contenuti manipolati: la fine della fiducia visiva

La manipolazione di immagini, voci e video genera un ulteriore livello di rischio. Secondo Pennasilico, «oggi le tecniche di deepfake non sono più curiosità tecnologiche, ma strumenti usati in campagne di phishing, truffe aziendali e frodi di identità». L’AI consente di creare videoconferenze simulate, messaggi vocali falsificati o contenuti visivi difficili da distinguere dalla realtà.

Bechelli sottolinea che molti di questi sistemi imitano l’essere umano anche nei comportamenti sbagliati: «L’IA si comporta esattamente come un essere umano: risponde a richieste ingannevoli e commette errori simili ai nostri. L’abbiamo resa così simile a noi da trasferirle anche le nostre debolezze».

La perdita di affidabilità percettiva rende più complessa la verifica delle identità digitali e delle comunicazioni interne, introducendo un nuovo tipo di vulnerabilità che richiede approcci culturali e non solo tecnici.

L’intelligenza artificiale come amplificatore di rischio

Il rischio associato all’AI non riguarda soltanto il suo utilizzo da parte degli aggressori. Anche i sistemi basati su modelli predittivi o chatbot integrati nei processi aziendali possono diventare punti deboli se non adeguatamente gestiti. Pennasilico evidenzia che ogni innovazione che introduce automatismi può ampliare la superficie d’attacco.

Il Rapporto Clusit mostra come diversi incidenti recenti, pur non classificati come “attacchi di AI”, siano stati facilitati da automazioni non monitorate o da sistemi di analisi comportamentale che hanno reagito in modo imprevisto a input malevoli. L’IA, dunque, non è solo una nuova arma ma anche un nuovo bersaglio: un elemento critico che deve essere trattato con lo stesso rigore riservato alle infrastrutture di rete.

Una minaccia alla stabilità economica: cybersecurity e sostenibilità

Pennasilico collega il tema dell’AI a una dimensione più ampia: la sostenibilità digitale. Un attacco basato su AI può bloccare la produzione di un’impresa, interrompere pagamenti o generare effetti a catena sulla supply chain. «Ogni incidente non rappresenta solo una perdita di bit o di euro. Può compromettere la continuità di un’azienda, la sicurezza di un territorio, la fiducia dei cittadini», spiega.

Il riferimento è anche al recente caso di un grande gruppo industriale costretto a fermare i pagamenti a fornitori e dipendenti dopo un attacco, un episodio che ha richiesto l’intervento governativo. La cyber security è quindi sempre più un tema che incide sulla stabilità economica e sulla competitività.

I divari digitali accentuano questa vulnerabilità: le grandi imprese hanno risorse e competenze per proteggersi, mentre le PMI risultano spesso più esposte. L’AI, se implementata senza adeguati controlli, rischia di ampliare ulteriormente questa distanza.

Formazione e consapevolezza: il fattore umano come barriera

Un punto ricorrente negli interventi dei relatori riguarda la necessità di rafforzare la cultura della sicurezza. «L’anello debole della sicurezza è sempre l’uomo», ricorda Anna Vaccarelli, presidente del Clusit. L’associazione sta lavorando su progetti di alfabetizzazione digitale rivolti a studenti, manager e cittadini senior, per rafforzare le competenze necessarie a riconoscere manipolazioni, verificare le fonti e comprendere il funzionamento delle tecnologie generative.

Bechelli aggiunge che le normative europee – come la NIS2 o il Cyber Resilience Act – stanno spingendo verso una maggiore governance del rischio digitale, ma senza consapevolezza diffusa ogni obbligo rischia di tradursi in un adempimento formale.

La collaborazione tra pubblico, privato e mondo accademico è considerata essenziale per costruire un ecosistema resiliente, capace di anticipare le minacce basate su AI e di affrontarle in modo coordinato.

Verso un nuovo equilibrio tra intelligenza artificiale e sicurezza

Il Rapporto Clusit 2025 mette in evidenza un punto chiave: non è più possibile trattare l’AI e la cybersecurity come ambiti separati. Le due dimensioni sono ormai interdipendenti. Pennasilico sintetizza così la trasformazione in corso: «Non possiamo più pensare alla cyber security come a una disciplina separata. È parte integrante della società digitale che stiamo costruendo».

L’integrazione dell’AI nei processi di difesa e nei sistemi operativi richiede un approccio critico, in cui trasparenza, responsabilità e verifica diventano elementi centrali. La sfida non riguarda quindi solo l’innovazione tecnologica, ma anche la capacità di mantenere fiducia e integrità in un ambiente in cui anche gli algoritmi possono sbagliare o essere manipolati.

Articoli correlati