intelligenza artificiale

Resilienza digitale 2.0: integrare l’AI nel perimetro di sicurezza DORA



Indirizzo copiato

Il passaggio alla Resilienza 2.0 non è più solo una scelta competitiva, ma un imperativo metodologico. Ecco come possiamo integrare l’AI nel perimetro di sicurezza senza che questa diventi il “punto di rottura” sistemico previsto dal legislatore

Pubblicato il 26 mar 2026

Marco Toiati

Ingegnere, IT Security Manager



DORA e subappalto di servizi ICT; Resilienza digitale 2.0: integrare l'AI nel perimetro di sicurezza DORA

L’ecosistema finanziario europeo sta attraversando una fase di metamorfosi senza precedenti.

Da un lato, il consolidamento del Digital Operational Resilience Act (DORA, in vigore dal 17 gennaio 2025) ha tracciato una linea netta tra chi subisce la tecnologia e chi ne governa i rischi.

Dall’altro, l’esplosione dell’Intelligenza Artificiale Generativa (GenAI) ha introdotto una variabile di complessità che rischia di scardinare i modelli di difesa tradizionali.

Il passaggio alla resilienza 2.0 non è più solo una scelta competitiva, ma un imperativo metodologico. Ecco come possiamo integrare l’AI nel perimetro di sicurezza senza che questa diventi il “punto di rottura” sistemico previsto dal legislatore

Il nuovo paradigma della resilienza operativa

La resilienza, nel contesto DORA, non è mai stata una questione puramente tecnica di uptime.

Prima di tutto, è una questione di governance. Il regolamento impone alle entità finanziarie di saper resistere, rispondere e ripristinare le capacità operative a fronte di perturbazioni ICT.

L’ingresso dell’AI in questo scenario agisce come un catalizzatore di rischi. Non parliamo solo di minacce esterne, ma di una vulnerabilità intrinseca: l’AI è al contempo uno strumento per rafforzare la difesa (attraverso il rilevamento predittivo delle anomalie) e un nuovo asset critico da proteggere.

Integrare l’AI in ottica DORA significa, dunque, estendere il concetto di “resilienza” dalla semplice infrastruttura alla logica algoritmica e alla integrità dei dati di addestramento.

Il concetto di “Resilienza 2.0” è stato introdotto dalla Commissione Europea nel Rapporto di Previsione Strategica 2025 (Strategic Foresight Report) dove viene indicato come approccio che invita l’UE a prepararsi non solo ai rischi emergenti, ma anche alle nuove opportunità e agli scenari difficili da immaginare che potrebbero definire il mondo al 2040.

Ict risk management: l’AI come “terza parte” e come asset

Il Pilastro I di DORA (Gestione del rischio ICT) richiede un framework solido per identificare e mitigare le minacce. Quando si introducono modelli di Large Language Models (LLM) o sistemi di machine learning nei processi core – dal credit scoring alla gestione dei sinistri – l’AI deve essere censita non come un semplice software, ma come un asset critico.

Due sono le sfide tecniche che la comunità dei CISO sta affrontando.

Model drift e allucinazioni: dal punto di vista della resilienza, un’allucinazione dell’AI in un processo decisionale automatizzato equivale a un malfunzionamento del sistema ICT. La resilienza 2.0 richiede l’implementazione di “circuit breakers” (interruttori di emergenza) che possano isolare il modello qualora l’output superi determinati parametri di rischio.

Shadow AI: L’utilizzo non autorizzato di tool di AI da parte dei dipendenti. Questo fenomeno crea una “zona d’ombra” nel perimetro di sicurezza, esponendo dati aziendali sensibili a provider esterni senza alcuna garanzia di protezione.

La catena di fornitura: il rischio di concentrazione

DORA pone un’enfasi particolare sulla gestione del rischio delle terze parti (Pilastro IV). Qui l’AI rappresenta un paradosso.

La maggior parte delle istituzioni finanziarie si affida a un ristretto numero di Cloud Service Provider (CSP) che offrono infrastrutture AI.

Questo crea un rischio di concentrazione sistemica: se un solo grande provider di modelli AI subisse un blackout o una compromissione, una larga parte del settore finanziario europeo potrebbe trovarsi a rischio paralisi.

La strategia di resilienza deve quindi evolvere verso un approccio Multi-Model o Hybrid-Cloud, garantendo che la dipendenza da un singolo algoritmo non diventi un “Single Point of Failure”.

Detection e response: l’AI al servizio del SOC

Tuttavia l’AI non è solo un problema ma anche la soluzione. Per rispettare i rigidi tempi di notifica degli incidenti imposti da DORA (Pilastro II), l’automazione è indispensabile.

L’integrazione dell’AI nei Security Operations Center (SOC) permette di analizzare pattern di attacco complessi che sfuggono alle regole statiche e di ridurre i falsi positivi.

Privacy by design e AI Act: la convergenza necessaria

Non si può parlare di resilienza e DORA senza incrociare il percorso con il GDPR e l’AI Act.

La protezione del dato è la base della resilienza. Se i dati di training vengono
“avvelenati” (Data Poisoning), l’intero sistema di sicurezza crolla. L’approccio suggerito è quello dell’Ingegneria della Privacy: utilizzare tecniche come la Differential Privacy per permettere all’AI di elaborare informazioni senza esporre i dati grezzi.

Verso una governance adattiva

L’integrazione dell’AI nel perimetro di sicurezza DORA non deve essere interpretata come l’ennesimo ostacolo burocratico: rappresenta l’occasione per compiere un salto di qualità metodologico passando da una sicurezza “perimetrale” a una sicurezza logica e del dato.

La resilienza digitale 2.0 non si misura più soltanto nella capacità di ripristinare un server dopo un attacco ransomware, ma nella capacità di garantire che i processi decisionali automatizzati rimangano integri, spiegabili e sotto il controllo umano anche in condizioni di forte stress operativo.

La Resilienza Digitale 2.0 richiede leader capaci di comprendere la semantica dei dati, la logica degli algoritmi e la rigidità delle norme. Il successo dipenderà dalla capacità di abilitare il business attraverso infrastrutture controllate (Private LLMs) e di mantenere sempre un approccio human-in-the-loop.

Bibliografia

Fonti Normative (EU Framework):

  • Parlamento Europeo e Consiglio UE (2022). Regolamento (UE) 2022/2554
  • (DORA).
  • Parlamento Europeo (2024). Artificial Intelligence Act (AI Act).
  • European Banking Authority (EBA) (2024). Draft Regulatory Technical Standards to further harmonise ICT risk management tools, methods, processes and policies as mandated under Articles 15 and 16(3) of Regulation (EU) 2022/2554

Gestione del rischio e resilienza:

  • NIST (2023). Artificial Intelligence Risk Management Framework (AI RMF 1.0).
  • Toiati, M. (2024). Rafforzare la resilienza digitale: l’AI generativa al servizio del regolamento DORA. Cybersecurity360.
  • Toiati, M. (2022). Ingegneria della privacy, tra giurisprudenza e tecnologia: adempimenti e percorso formativo. Cybersecurity360.

Cyber security e articoli tecnici:

  • OWASP Foundation (2023). Top 10 for Large Language Model Applications.
  • Carlini, N., et al. (2021). Extracting Training Data from Large Language Models. USENIX Security Symposium.
  • ENISA (2023). Multilayer Framework for Good Cybersecurity Practices in AI.
guest

0 Commenti
Più recenti
Più votati
Inline Feedback
Vedi tutti i commenti

Articoli correlati

0
Lascia un commento, la tua opinione conta.x