Il quantum computing non rappresenta più una prospettiva lontana. La sua accelerazione, documentata da organismi internazionali e centri di ricerca, lo colloca tra le minacce più determinanti per la cyber security globale, con implicazioni dirette sui sistemi crittografici attuali.
Il World Economic Forum, nel rapporto “Embracing the Quantum Economy” (2025), descrive il quantum computing come un fattore capace di produrre “impatti sistemici e trasversali” sulla sicurezza digitale.
La ragione è semplice: gli algoritmi di crittografia oggi dominanti potrebbero non reggere più sotto la potenza di calcolo quantistica.
A confermare questa evoluzione è anche la decisione del NIST, che il 13 agosto 2024 ha pubblicato i primi standard ufficiali di crittografia post-quantum: Fips 203 (ML-Kem), Fips 204 (ML-Dsa) e Fips 205 (Slh-Dsa), ritenuti resistenti ai futuri attacchi quantistici. La trasformazione è ormai tracciata: imprese, PA e infrastrutture critiche devono avviare oggi una migrazione che richiederà anni di revisione tecnologica e organizzativa.
In Europa, l’Enisa definisce la minaccia già attiva. Nei report “Post-Quantum Cryptography: Current State and Quantum Mitigation” e “Pqc Integration Study” avverte che gruppi avanzati di attacco stanno già applicando la strategia “harvest now, decrypt later”, intercettando dati cifrati con l’obiettivo di decifrarli in futuro grazie ai progressi quantistici.
In questo scenario globale in rapido mutamento si inserisce l’analisi di Yaroslav Rosomakho, Chief Scientist di Zscaler, che chiarisce perché l’urgenza è reale e quali sono i passi tecnici e strategici necessari per evitare che la rivoluzione quantistica si trasformi in una crisi di sicurezza.
Indice degli argomenti
Una minaccia attiva: perché il quantum computing impone di agire subito
Rosomakho identifica subito il cuore del problema: la minaccia è già iniziata, anche se i computer quantistici “in grado di compromettere la crittografia” ancora non esistono. “Gli attaccanti possono catturare traffico sensibile oggi e decifrarlo anni dopo” spiega. “Per molti settori come pubblica amministrazione, finanza e sanità, il momento per prepararsi è ora”.
Questo scenario riguarda in modo particolare i dati sensibili con un ciclo di vita lungo. Certificati digitali, documenti finanziari, informazioni sanitarie, referti diagnostici, dati giudiziari o diplomatici: tutto ciò che resterà utile anche tra dieci o quindici anni è già a rischio.
Ma cosa significa davvero essere “quantum-ready”? Rosomakho chiarisce che non si tratta di un intervento superficiale: “Vuol dire costruire un programma organizzativo capace di sostenere una transizione crittografica pluriennale senza interrompere le operazioni”.
Per farlo, indica alcuni elementi imprescindibili: mappare l’uso della crittografia nell’organizzazione, adottare presto algoritmi Pqc ibridi come ML-KEem, ridurre il perimetro di rischio eliminando chiavi e protocolli obsoleti, e rendere l’intera infrastruttura agile nella gestione degli algoritmi. È un percorso che richiede visibilità, governance e capacità di orchestrazione centralizzata.
Zero Trust nell’era quantistica: cosa cambia davvero
Il modello Zero Trust, sempre più diffuso nelle architetture moderne, si basa sull’idea di “non fidarsi mai e verificare sempre”. Tuttavia, anche questo modello è costruito sulla crittografia, e la minaccia quantistica mette sotto pressione i suoi fondamenti.
Identità e firme digitali sotto pressione
“L’identità digitale è uno dei punti più esposti” osserva Rosomakho. Le firme digitali che sostengono certificati, token, sistemi di attestazione e radici di fiducia nei dispositivi si basano spesso su Rsa, Ecdsa o EdDsa, algoritmi vulnerabili agli attacchi quantistici futuri.
“Un avversario dotato di capacità quantistiche potrebbe generare firme false” spiega, compromettendo dispositivi, workload, utenti e catene di fiducia.
Cifratura end-to-end e protocolli moderni
Anche i canali sicuri rappresentano un punto critico. “L’approccio Zero Trust fa leva sull’end-to-end encryption, ma il quantum computing minaccia la confidenzialità del traffico cifrato a lungo termine”, chiarisce il Chief Scientist di Zscaler.
La mitigazione passa dall’adozione di protocolli moderni come Tls 1.3 e dall’uso di schemi ibridi QR (quantum-resistant), come ML-Kem, già supportati da Tls, Ssh, Ike e Hpke.
La filosofia Zero Trust resta quindi valida, ma la sua infrastruttura crittografica deve essere aggiornata.
Oltre gli algoritmi: serve un nuovo modello architetturale
In questo scenario, Rosomakho chiarisce che “adottare algoritmi Pqc è necessario ma non sufficiente”. La migrazione post-quantum non riguarda infatti solo la sostituzione di Rsa o Ecc, ma un ripensamento dell’architettura.
Crypto-agility come requisito strutturale
Il ragionamento insiste su un concetto chiave: “La crypto-agility è fondamentale”. Molte organizzazioni considerano la crittografia un elemento statico, configurato dispositivo per dispositivo.
Questo approccio è incompatibile con un futuro in cui gli algoritmi dovranno essere aggiornati con frequenza crescente.
Serve, invece, un modello di distribuzione centralizzato, automatizzato, orchestrabile.
Nuovi requisiti per identità e gestione delle chiavi
Le firme Pqc cambiano radicalmente il modo di gestire identità, certificati, workload e sistemi IoT. “Le organizzazioni dovranno muoversi verso credenziali a vita breve, con rilascio e rotazione automatizzati”, sottolinea Rosomakho.
Lo stesso vale per la gestione delle chiavi, che nei modelli Pqc sono più pesanti e richiedono politiche più rigorose. L’inventario delle chiavi, la loro validazione e il monitoraggio continuo non saranno più opzionali ma strutturali.
Anche per questo la Enisa raccomanda visibilità continua degli algoritmi effettivamente usati nei sistemi, in un panorama in cui soluzioni classiche e post-quantum coesisteranno per anni.
Percorsi concreti di transizione: cosa deve fare un’organizzazione oggi
La prima tappa è una sola: “Serve un inventario crittografico accurato” afferma Rosomakho di Zscaler. “La maggior parte delle organizzazioni non conosce davvero dove è utilizzata la crittografia”.
Una volta costruita la mappa, bisogna classificare i sistemi in base al rischio e alla durata di vita dei dati. Quelli che trattano informazioni sensibili a lungo termine devono essere migrati per primi.
Inventario crittografico e priorità
L’inventario deve includere applicazioni, appliance, protocolli di identità, canali di comunicazione, dispositivi.
Da qui si stabiliscono le priorità: i sistemi con maggiore esposizione, o nei quali la cifratura protegge dati a lunga vita, richiedono interventi immediati.
Migrazione ibrida e rotazione delle chiavi
In generale è raccomandato un approccio graduale: adottare fin da ora scambi ibridi basati su ML-Kem, abbreviare la vita delle chiavi, eliminare i segreti a lunga durata e rafforzare la gestione della rotazione.
“La migrazione non deve essere un big bang, ma un percorso misurato e progressivo”, chiarisce Rosomakho.
La visione di Zscaler: anticipare la curva della minaccia
“Abbiamo progettato la nostra Zero Trust Exchange assumendo che i meccanismi crittografici cambieranno nel tempo”, afferma il Chief Scientist di Zscaler. È una scelta che permette alla piattaforma di adattarsi ai nuovi standard senza mettere a rischio la continuità dei clienti.
Uno dei punti di forza è la visibilità: “Offriamo ai clienti la possibilità di osservare gli algoritmi realmente negoziati dalle connessioni, anche con Pqc non ancora in uso”.
Questo aspetto è cruciale, perché consente alle organizzazioni di individuare applicazioni e dispositivi che non supportano ancora la crittografia ibrida o post-quantum.
In parallelo, Zscaler sta lavorando per supportare ML-Kem e le firme Pqc su tutta la piattaforma, collaborando con partner e organismi internazionali per test anticipati di compatibilità e performance.
“Il nostro obiettivo – aggiunge, in conclusione, Rosomakho – è garantire sicurezza oggi e posizionare i clienti sempre un passo avanti rispetto all’evoluzione delle minacce quantistiche”.
Una visione che restituisce il senso della fase attuale: un passaggio tecnico complesso, che richiede continuità e attenzione, e che le organizzazioni devono affrontare con gradualità e strumenti adeguati.













