L'evoluzione delle minacce

L’orizzonte quantistico: la difesa AI-on-AI non è più un problema del futuro



Indirizzo copiato

C’è un nuovo campo di battaglia quando l’AI attacca l’AI. Ecco perché non bisogna aspettare che il primo incidente quantistico significativo faccia notizia, per cominciare a muoversi

Pubblicato il 16 apr 2026

Benito Mirra

Information & Cyber Security Advisor



difendersi dai sistemi di Agentic AI; Fiducia zero nell’AI: la convergenza tra verifica, sicurezza offensiva e disinformazione; L'orizzonte quantistico: la difesa AI-on-AI non è più un problema del futuro
AI Questions Icon
Chiedi all'AI
Riassumi questo articolo
Approfondisci con altre fonti

Agli inizi degli anni Ottanta, l’hacker era poco più di un appassionato di informatica un po’ fuori dagli schemi: qualcuno che si divertiva a smontare sistemi non per distruggerli, ma per capirne le viscere.

Un mestiere in un’epoca in cui “fare l’hacker” era quasi sinonimo di curiosità intellettuale.

Ho attraversato l’esplosione di Internet, la nascita del web commerciale, l’era dei worm e dei botnet, l’ascesa del cybercrime organizzato – fenomeno che avevo cercato di anticipare già nella mia tesi di dottorato nel 1991, quando usavo la parola “cyber” in un contesto accademico svizzero con i professori che mi guardavano come se stessi scrivendo fantascienza – la weaponization’ degli strumenti di sorveglianza statale.

Ogni transizione aveva la sua curva di apprendimento, i suoi falsi allarmi e le sue minacce reali che qualcuno aveva liquidato come “esagerate” finché non erano poi esplose.

Era una prova di intelligenza, non una minaccia organizzata. Le reti erano isole. I dati stavano su nastri magnetici. L’idea di un attacco globale, automatizzato e invisibile sarebbe sembrata fantascienza spinta.

Oggi, dopo quarant’anni passati a rincorrere – e talvolta ad anticipare – l’evoluzione delle minacce digitali, mi trovo a scrivere di qualcosa che, lo ammetto, sfida anche la mia capacità di immaginazione: attacchi condotti da sistemi di intelligenza artificiale contro altri sistemi di intelligenza artificiale, amplificati dalla meccanica quantistica.

Non è un romanzo di Gibson. È ciò che emerge dai laboratori di ricerca tedeschi e dalle direttive che arrivano da Bruxelles con una frequenza sempre più incalzante.

Il compito di un CISO non è mai stato soltanto proteggere i perimetri esistenti. È capire dove si sposteranno le mura. E oggi quelle mura si stanno spostando in un territorio radicalmente nuovo.

Il nuovo campo di battaglia: quando l’AI attacca l’AI

Per decenni, il modello mentale della minaccia è stato relativamente stabile: un aggressore umano, una vulnerabilità software, un payload malevolo.

Il malware evolveva, certo – dai virus su floppy disk ai ransomware polimorfici –, ma la logica sottostante rimaneva comprensibile.

Potevi tracciarne la firma. Potevi costruirci attorno una difesa.

Quello che sta emergendo nel 2026 rompe questo schema in modo fondamentale.
La ricerca prodotta da istituti come ilFraunhofer AISEC documenta l’avanzamento di quello che nel settore viene chiamato ‘Adversarial Quantum Machine Learning’: l’uso di principi della meccanica quantistica – sovrapposizione, entanglement, interferenza – per individuare e sfruttare le vulnerabilità intrinseche dei modelli di intelligenza artificiale.

Non si parla di un virus che infetta un server. Si parla di perturbazioni matematicamente precise sui dati di input, calcolate sfruttando potenza computazionale quantistica, che portano un sistema AI a prendere decisioni sbagliate in modo sistematico e, soprattutto, invisibile agli strumenti di difesa classici.

Un esempio concreto

I tecnicismi senza ancoraggi alla realtà sono inutili. Immaginiamo un sistema AI che gestisce il monitoraggio di un’infrastruttura critica, una centrale energetica, un sistema di distribuzione idrica, una piattaforma di trading ad alta frequenza.

Quel sistema prende decisioni in autonomia, migliaia di volte al secondo.

Un attacco ‘adversariale’ quantistico non ne compromette il codice sorgente. Ne altera la percezione della realtà: piccole distorsioni nei dati di input, impercettibili ai log tradizionali, che portano il modello a interpretare una situazione normale come sicura, o una situazione critica come ordinaria. Il sistema continua a funzionare.

Gli indicatori sembrano nella norma. Il danno si accumula in silenzio.

Chi lavora in questo settore da abbastanza tempo riconosce il pattern: le minacce più pericolose non sono mai quelle che fanno rumore.

Il labirinto legale: quando la complessità non è più una scusante

Questa evoluzione tecnologica non avviene nel vuoto normativo. Anzi, arriva in un momento in cui il quadro regolatorio europeo sta subendo una trasformazione strutturale che pone responsabilità nuove e stringenti sulle spalle delle organizzazioni.

Con il progressivo dispiegarsi dell’EU AI Act nel corso del 2026, la soglia di tolleranza per l’“incidente imprevisto” si abbassa drasticamente.

La complessità tecnica non è più un’attenuante. È un elemento aggravante, se non si è provveduto a governarla.

Il problema dell’attribuzione forense

Se un sistema AI viene manipolato a livello dei suoi pesi neurali attraverso un attacco quantistico, le tracce digitali tradizionali semplicemente non esistono.

Non c’è un file eseguibile. Né una firma di rete. Neppure un log di accesso anomalo.

Dal punto di vista legale, questo crea un vuoto di attribuzione di straordinaria difficoltà: come si dimostra – davanti a un regolatore, davanti a un giudice, davanti a un cliente – che cosa è successo e chi ne è responsabile? Ho visto organizzazioni paralizzate da incidenti molto più semplici. Questo scenario è un ordine di grandezza più complesso.

Il peso delle sanzioni

L’Unione europea non lascia spazio all’ambiguità: le organizzazioni che gestiscono infrastrutture critiche e non adottano misure di sicurezza adeguate ai rischi emergenti – inclusi quelli di natura quantistica – si espongono a sanzioni che possono raggiungere il 7% del fatturato globale annuo.

Non si tratta di una multa amministrativa. Per molte aziende, è un evento potenzialmente esistenziale.

Trasparenza algoritmica

Le normative europee ci impongono di essere in grado di spiegare le decisioni dei sistemi AI che operiamo:

  • perché quel modello abbia classificato quella transazione come fraudolenta;
  • perché abbia attivato quell’allarme;
  • perché abbia raccomandato quella scelta operativa.

Se il modello è stato silenziosamente corrotto da un attacco ‘adversariale’, la nostra incapacità di ricostruire la catena causale non è solo un problema
tecnico. Diventa responsabilità oggettiva nei confronti di regolatori, azionisti e utenti finali.

Ho visto aziende navigare crisi di sicurezza con grande efficacia sul piano tecnico e fallire completamente sul piano della comunicazione e della rendicontazione.

In un contesto normativo come quello che si sta delineando, questo tipo di fallimento ha un costo molto più alto di quanto molti immaginino.

La formazione del C-Level: smettere di trattare l’ignoranza come un lusso
accettabile

Qui arrivo al punto che, personalmente, ritengo più urgente – e che per il quale incontro più resistenza nel proporre.

Nel corso degli anni ho partecipato a decine di riunioni di Board. Ho visto CEO brillanti, con una visione strategica acutissima sui mercati e sui competitor, completamente disorientati di fronte a concetti come “attack surface”, “zero trust architecture” o, più recentemente, “model poisoning”.

Non è una critica: nessuno nasce sapendo queste cose, e la velocità con cui il panorama tecnologico evolve rende difficile anche per noi professionisti del settore stare al passo.

Il problema è quando quell’ignoranza viene trattata come una condizione accettabile, anzi come una delega implicita: “ci pensi il CISO, questo è il suo mestiere”.

Questa logica era già pericolosa dieci anni fa. Oggi è inaccettabile. La transizione alla crittografia post-quantistica (PQC) non è un aggiornamento software che si pianifica nel budget IT di un trimestre.

È una ristrutturazione delle fondamenta crittografiche dell’intera organizzazione dei protocolli di comunicazione, dei sistemi di archiviazione, delle catene di fornitura digitale. Richiede decisioni strategiche, investimenti pluriennali, scelte sulle priorità che coinvolgono l’intera leadership.

Un CEO che non capisce perché questa transizione è necessaria non può prendere quelle decisioni in modo informato. Un CFO che vede “PQC migration” come una voce di costo anziché come un imperativo di continuità operativa allocherà le risorse nel posto sbagliato.

E quando arriva la crisi – perché arriverà – un Board che non comprende la natura degli attacchi AI-on-AI non sarà in grado di guidare l’organizzazione.

Prenderà decisioni basate sull’analogia con crisi precedenti che non sono analoghe. Comunicherà in modo inadeguato verso l’esterno. Perderà tempo prezioso cercando di capire cosa sta succedendo, mentre qualcun altro dovrebbe già stare gestendo la risposta.

La sicurezza non inizia dal firewall. È sempre iniziata dalla consapevolezza di chi prende le decisioni. Vale oggi più che mai.

Verso una resilienza che non aspetti il disastro

Le normative europee – dall’AI Act al Cyber Resilience Act, fino ai futuri sviluppi in ambito quantistico – stanno cercando di costruire un quadro di riferimento.

È un lavoro necessario e per molti versi encomiabile. Ma chi fa questo mestiere sa che le leggi arrivano sempre dopo l’innovazione, e che il perimetro normativo tutela chi è già stato colpito, non chi vuole evitare di esserlo.

Il mio consiglio – basato sull’ esperienza, non su proiezioni teoriche – è di non aspettare cheil primo incidente quantistico significativo faccia notizia per cominciare a muoversi.

A quel punto, le organizzazioni che avranno già costruito le proprie difese saranno in una posizione di vantaggio competitivo, oltre che di sicurezza operativa. Quelle che non l’avranno fatto si troveranno a gestire una crisi in condizioni di svantaggio su tutti i fronti simultaneamente.

Le tre direttrici delle azioni concrete

Le azioni concrete passano attraverso tre direttrici che non si escludono ma si rinforzano a vicenda.

La prima è tecnica: avviare oggi – non domani, oggi – la valutazione della propria esposizione agli algoritmi crittografici vulnerabili agli attacchi quantistici e pianificare la migrazione verso standard PQC, in linea con le raccomandazioni del NIST e con le indicazioni dell’ENISA.

La seconda è operativa: implementare sistemi strutturati di monitoraggio della salute dei modelli AI in produzione – il cosiddetto ‘model health monitoring’ – capaci di rilevare derive statistiche nei comportamenti predittivi che possano indicare tentativi di avvelenamento dei dati o manipolazione ‘adversariale’.

Non è più sufficiente monitorare l’infrastruttura. Bisogna monitorare l’intelligenza che gira sopra all’infrastruttura.

La terza, e forse la più impattante nel medio periodo, è quella che riguarda la consapevolezza della leadership: investire in programmi di formazione strutturati per i C-level che non si limitino alla superficie dei concetti, ma costruiscano una capacità reale di ragionamento strategico sui rischi emergenti.

Non si tratta di trasformare un CEO in un ingegnere della sicurezza. Si tratta di dargli gli strumenti concettuali per fare le domande giuste, allocare le risorse in modo razionale e guidare l’organizzazione con lucidità quando le cose si complicano.

Questa transizione non è diversa dalle precedenti nella sua natura. Lo è nella sua scala e nella sua velocità.

Il futuro è quantistico. Ed è già qui, nei laboratori, nei paper accademici, nelle pianificazioni strategiche degli avversari più sofisticati.

La domanda che ogni organizzazione dovrebbe porsi non è ‘se’ verrà colpita, ma se sarà in grado di capire ‘come’ sta succedendo nel momento in cui accadrà.

La risposta a questa domanda si costruisce adesso.

guest

0 Commenti
Più recenti
Più votati
Inline Feedback
Vedi tutti i commenti

Articoli correlati

0
Lascia un commento, la tua opinione conta.x