Quantum computing

Calcolo quantistico: caratteristiche, servizi cloud e applicazioni emergenti



Indirizzo copiato

Solo affrontando congiuntamente i tre pilastri – hardware, persone e standard – sarà possibile passare dall’era sperimentale a quella del robusto vantaggio quantistico resistente agli errori. Ecco cos’è e le prospettive future del calcolo quantistico

Pubblicato il 9 apr 2026

Vincenzo Calabrò

Information Security & Digital Forensics Analyst and Trainer



Messaggi quantistici: verso una rete ultra sicura e accessibile; Calcolo quantistico: caratteristiche, servizi cloud e applicazioni emergenti
AI Questions Icon
Chiedi all'AI
Riassumi questo articolo
Approfondisci con altre fonti

Punti chiave

  • Il calcolo quantistico è una discontinuità paradigmatica che sfrutta sovrapposizione e entanglement, ma è oggi limitato dall’era NISQ (rumore, coerenza breve, elevati tassi di errore).
  • Il modello QCaaS democratizza l’accesso via cloud, abbattendo costi e abilitando architetture ibride grazie all’ingegneria del software quantistico (QSE) e agli SDK.
  • Applicazioni promettenti: ottimizzazione combinatoria, simulazione di sistemi quantistici, rischio per la crittografia con necessità di crittografia post-quantistica e opportunità nel Quantum Machine Learning.
Riassunto generato con AI

Il calcolo quantistico non rappresenta una semplice evoluzione che incrementa la potenza di calcolo degli elaboratori, ma una vera e propria discontinuità paradigmatica rispetto al modello computazionale classico basato sulla logica binaria dei bit.

Un computer quantistico sfrutta i principi controintuitivi della meccanica quantistica, in particolare i fenomeni di sovrapposizione e di intreccio quantistico, per eseguire calcoli che vanno oltre le capacità dei sistemi di calcolo ad alte prestazioni (HPC) più potenti.

Attualmente, la tecnologia si trova nell’era del “Noisy Intermediate-Scale Quantum” (NISQ), un termine coniato per descrivere lo stato dell’arte dei sistemi caratterizzati da un numero limitato di qubit, rumore intrinseco, tassi di errore non trascurabili e una scalabilità ancora ridotta (Preskill, 2018).

Ecco le caratteristiche fondamentali della tecnologia, il ruolo abilitante del modello Quantum Computing as a Service (QCaaS) e dei principali casi d’uso emergenti.

Fondamenti e caratteristiche tecnologiche del calcolo quantistico

Per apprezzare appieno il potenziale e i limiti del calcolo quantistico, è necessario avere una conoscenza approfondita dei principi fisici e delle architetture hardware su cui si basa.

In questa sezione verranno analizzati i concetti di base, verranno messe a confronto le diverse tecnologie impiegate per la realizzazione dei qubit, le unità fondamentali dell’informazione quantistica, e verranno illustrate le sfide tecnologiche dell’era attuale.

Successivamente, verranno discussi i principi fondamentali su cui si basa questa rivoluzione computazionale.

Principi quantistici fondamentali

L’operatività di un computer quantistico si basa su tre concetti chiave derivati dalla meccanica quantistica, le cui definizioni sono state elaborate da Varsamis et al. (2025):

  • Qubit: il qubit (quantum bit) è l’unità di base dell’informazione quantistica. A differenza del bit classico, che può assumere solo i valori 0 o 1, il qubit può esistere in una sovrapposizione coerente di entrambi gli stati, rappresentando un continuum infinito di valori intermedi.
  • Sovrapposizione (Superposition): questo fenomeno quantistico consente a un qubit di esistere simultaneamente in più stati. Un registro di N qubit può quindi rappresentare contemporaneamente 2^N stati, una capacità che cresce
    esponenzialmente e che costituisce la base del potenziale parallelo del calcolo quantistico.
  • Entanglement: è una forma di correlazione quantistica in cui gli stati di due o più qubit diventano intrinsecamente interdipendenti. Quando i qubit sono “entangled”, la misurazione di uno di essi influenza istantaneamente lo stato degli altri, a prescindere dalla loro distanza. Questa interconnessione non locale è una risorsa essenziale per l’esecuzione di complessi algoritmi quantistici.

Tecnologie Qubit a confronto

La realizzazione fisica di qubit stabili e controllabili rappresenta una delle sfide
ingegneristiche più complesse. Sono in fase di sviluppo diverse tecnologie, ognuna con i propri vantaggi e svantaggi specifici.

La tabella seguente mette a confronto le principali piattaforme hardware, basandosi sull’analisi condotta da Varsamis et al. (2025).

TecnologiaPrincipio
operativo
VantaggiSfidePrincipali attori
Qubit
Superconduttori
Circuiti
superconduttori a
resistenza zero,
operanti a
temperature
criogeniche
(millikelvin).
Processi di
fabbricazione maturi,
Gate relativamente
veloci.
Richiede
temperature
estremamente
basse (criogenia
profonda).
IBM, Google, Rigetti e
consorzi
accademici/industriali
Qubit a Ioni
Intrappolati
Ioni intrappolati da
campi
elettromagnetici i
cui stati quantistici
sono codificati nei
livelli energetici.
Lunghi tempi di
coerenza,
Alta fedeltà delle
operazioni di gate,
Qubit identici per
natura.
Gate più lenti,
Difficoltà di
scalabilità e
controllo multi-
zona.
IonQ, Quantinuum
(Honeywell), Alpine
Quantum Technologies
(AQT) e varie università
Qubit fotoniciL’informazione
quantistica viene
trasportata da
singoli fotoni,
manipolati e rilevati
otticamente.
Trasmissione veloce,
meno soggetta a
decoerenza (debole
interazione con
l’ambiente).
Difficoltà nel
realizzare gate a
due qubit,
Perdite ottiche,
Fonti e rilevatori
di fotoni efficienti
e scalabili.
Xanadu, PsiQuantum e
gruppi di ricerca in
fotonica
Qubit ad Atomi
Neutri
Atomi neutri in
pinzette ottiche o
reticoli; eccitazione
di Rydberg per un
forte
accoppiamento.
Array altamente
scalabili,
Lunga coerenza.
Controllo preciso
di grandi array
Stabilità e
uniformità
dell’alta fedeltà
dei gate.
QuEra, Pasqal, Infleqtion
(ColdQuanta)
Qubit di Spin nel
silicio
Spin di singoli
elettroni in
quantum dot di silicio; controllo
simile a quello dei
transistor.
Sfrutta la tecnologia
matura del silicio, che
ha un potenziale per l’integrazione
classico/quantistica.
Richiede un
controllo
estremo dello spin e la
decoerenza
dovuta agli spin
nucleari.
Intel, Quantum Motion,
UNSW (Australia)
Qubit topologiciBasati su quasi-
particelle (es.
fermioni di
Majorana).
Potenziale tolleranza
agli errori intrinseca,
Ridotto overhead per la
correzione degli errori.
Sono altamente
sperimentali,
I materiali sono
complessi,
La fabbricazione
e la scalabilità
non sono chiare.
Microsoft

Architetture di calcolo distribuito

Per superare i limiti di scalabilità dei singoli processori quantistici (QPU), sono stati proposti modelli di architettura distribuita. Basandosi sulle definizioni fornite da Gyongyosi e Imre (2025), è possibile distinguere tre approcci principali:

  • Multichip: all’interno di una singola unità di elaborazione quantistica (QPU) sono contenuti più circuiti quantistici (QC) di piccole dimensioni. Questo modello favorisce la modularità e l’integrazione su piccola scala, ma la comunicazione quantistica tra i circuiti dipende dall’implementazione fisica, limitando la coesione del sistema.
  • Distribuzione del circuito (Circuit Distribution): un grande circuito quantistico viene distribuito su più QPU. Ogni nodo esegue un sottocircuito e la comunicazione quantistica tra i nodi è disponibile. Questo è il paradigma più potente per l’esecuzione di algoritmi monolitici complessi, ma richiede una rete quantistica a bassa latenza e alta fedeltà, una sfida tecnologica ancora aperta.
  • Scomposizione del circuito (Circuit Splitting): un grande circuito viene suddiviso tra più QPU, ma in questo modello non è disponibile la comunicazione quantistica tra di essi. L’interazione si basa esclusivamente su canali classici, il che limita questo approccio ai problemi la cui soluzione può essere ricostruita tramite post-elaborazione classica.

Le sfide dell’era NISQ

L’era NISQ (Noisy Intermediate-Scale Quantum), in cui ci troviamo attualmente, è caratterizzata da una serie di sfide tecnologiche che limitano le prestazioni dei computer quantistici.

I sistemi sono soggetti a elevati livelli di rumore e di errore che degradano la qualità dei calcoli. Nonostante i progressi nel controllo dei qubit siano stati rapidi, il tasso di errore dei gate (ε), ovvero la probabilità che un’operazione fallisca, si attesta oggi nell’ordine di ε ≈ 0,01, con un miglioramento di circa due ordini di grandezza negli ultimi anni (Gyongyosi e Imre, 2025).

La coerenza, ovvero la capacità di un qubit di mantenere il proprio stato quantistico, è fragile e di breve durata, il che rende difficile l’esecuzione di algoritmi lunghi e complessi.

La scalabilità rappresenta ancora un ostacolo significativo: aumentare il numero di qubit mantenendo bassi tassi di errore e un’elevata connettività rappresenta una sfida ingegneristica eccezionale. Infine, la mancanza di tecniche di correzione degli errori quantistici pienamente efficaci ostacola il raggiungimento della computazione fault-tolerant, requisito essenziale per sbloccare il pieno potenziale della tecnologia.

Nonostante queste barriere, il modello di servizio cloud (QCaaS) sta contribuendo a superare alcune di queste sfide, rendendo la tecnologia più accessibile a ricercatori e sviluppatori.

Il paradigma del Quantum Computing as a Service (QCaaS)

Il modello “as a service”, mutuato dal cloud computing tradizionale, sta diventando il veicolo fondamentale per democratizzare l’accesso alle risorse di calcolo quantistico.

Considerata l’estrema complessità e il costo proibitivo della costruzione e della
manutenzione di un computer quantistico, solo poche organizzazioni possono permettersi di possederne uno.

Il QCaaS supera questa barriera, offrendo l’accesso remoto a hardware e simulatori all’avanguardia. In questa sezione, esamineremo la definizione di QCaaS, i suoi vantaggi strategici, le principali piattaforme e i principi di ingegneria del software che ne guidano lo sviluppo.

Definizione e vantaggi strategici del QCaaS

Il Quantum Computing as a Service (QCaaS) è un modello che consente agli utenti di accedere a hardware e simulatori quantistici tramite il cloud, senza dover possedere o gestire l’infrastruttura fisica sottostante (Romero-Álvarez et al., 2023).

Questo modello offre vantaggi strategici per l’adozione e lo sviluppo della tecnologia quantistica:

  • Accessibilità e abbattimento dei costi: il QCaaS rende il calcolo quantistico accessibile a una vasta comunità di ricercatori, sviluppatori e aziende. Trasforma il costo iniziale elevato per la produzione e la manutenzione dell’hardware in un modello a costo operativo (OPEX), spesso basato su un modello di pagamento per singola esecuzione del circuito (pay-per-shot) (Ahmad et al., 2024).
  • Astrazione della complessità hardware: le piattaforme QCaaS forniscono interfacce e kit di sviluppo software (SDK) che riducono la complessità dei diversi backend hardware. Ciò consente agli sviluppatori di concentrarsi sulla progettazione di algoritmi e applicazioni senza doversi occupare dei dettagli fisici a basso livello del dispositivo.
  • Abilitazione di sistemi ibridi quantistico-classici: il QCaaS rappresenta il pilastro fondamentale per lo sviluppo di applicazioni ibride. In questi sistemi, i moduli classici si occupano del pre-processing e del post-processing dei dati e dell’orchestrazione del flusso di lavoro, mentre i moduli quantistici eseguono i calcoli computazionalmente intensivi per i quali offrono un potenziale vantaggio (Uphues et al., 2025).

Piattaforme e provider principali

I principali giganti del cloud computing e le startup specializzate offrono piattaforme QCaaS che forniscono l’accesso a un’ampia gamma di tecnologie quantistiche:

  • Amazon Web Services (AWS): la sua piattaforma, Amazon Braket, funge da aggregatore, fornendo l’accesso all’hardware di terze parti, come i processori a ioni intrappolati di IonQ, i sistemi superconduttori di Rigetti e OQC e i computer ad atomi neutri di QuEra (Golec et al., 2024).
  • IBM: offre l’accesso ai propri processori quantistici basati su tecnologia superconduttrice tramite IBM Quantum e IBM Cloud. IBM è stata pioniera nell’offrire al pubblico l’accesso ai propri dispositivi, con una roadmap di sviluppo hardware in continua evoluzione (Gyongyosi & Imre, 2025).
  • Microsoft: la piattaforma Azure Quantum offre un ecosistema aperto che integra hardware di vari partner, consentendo agli utenti di scegliere il processore più adatto al loro problema specifico.
  • Google: attraverso Google Quantum AI, offre l’accesso ai suoi processori superconduttori all’avanguardia, come quelli utilizzati per dimostrare il “quantum advantage”.

Ingegneria del software quantistico (QSE) per il QCaaS

L’ingegneria del software quantistico (QSE) è definita come l’applicazione sistematica dei principi e delle pratiche dell’ingegneria del software allo sviluppo del software quantistico, adattandoli agli ambienti ibridi classico-quantistici (Ahmad et al., 2024).

Nel contesto del QCaaS, la QSE è fondamentale per sviluppare applicazioni robuste, scalabili e manutenibili.

  • Pattern architetturali: l’adozione di pattern come il Quantum-Classic Split non è una semplice scelta stilistica, ma una necessità strategica imposta dall’era NISQ. Questo modello consente di isolare le computazioni quantistiche, intrinsecamente rumorose e a bassa coerenza, delegando la logica di controllo, la gestione dei dati e la mitigazione degli errori a componenti classiche robuste e scalabili. Altri pattern, come API Gateway e Service Composition, sono essenziali per costruire sistemi modulari e interoperabili.
  • Software Development Kit (SDK): gli SDK sono strumenti essenziali che permettono agli sviluppatori di interagire con le piattaforme QCaaS. I principali SDK, come Qiskit (IBM), Cirq (Google) e Amazon Braket SDK, forniscono librerie e interfacce di programmazione (solitamente in Python) che permettono di progettare circuiti quantistici, simulare il loro comportamento ed eseguirli su hardware reale.

L’infrastruttura QCaaS, unita a solidi principi di QSE, sta abilitando lo sviluppo di
applicazioni concrete in diversi ambiti, come verrà approfondito nella prossima sezione.

Casi d’uso e domini applicativi

A differenza dei computer classici, progettati come macchine universali, i computer quantistici offrono un vantaggio computazionale solo per determinate classi di problemi.

Il loro potere risiede nella capacità di esplorare ampi e complessi spazi di soluzioni in modo efficiente. Questa sezione illustra quattro domini applicativi in cui il calcolo quantistico promette di avere un impatto significativo, basandosi su esempi concreti tratti dalla letteratura scientifica.

Ottimizzazione combinatoria

Molti problemi di ottimizzazione in settori quali la logistica, la finanza e la pianificazione operativa (come il problema della programmazione dei turni del personale infermieristico) sono classificati come NP-hard, il che significa che la loro complessità computazionale cresce esponenzialmente con l’aumentare delle dimensioni del problema, rendendoli intrattabili per i computer tradizionali (Uphues et al., 2025).

Algoritmi quantistici come il Quantum Approximate Optimization Algorithm (QAOA) e il quantum annealing sono progettati specificamente per esplorare lo spazio delle possibili soluzioni di questi problemi e trovare configurazioni ottimali in modo più efficiente (Varsamis et al., 2025).

Simulazione di sistemi quantistici

La simulazione di sistemi quantistici, come molecole o materiali complessi, è stata l’idea originale di Richard Feynman, che ha dato il via a questo campo di applicazione.

I computer classici faticano a simulare la natura a livello quantistico a causa della crescita esponenziale delle risorse richieste. I computer quantistici, essendo essi stessi sistemi quantistici, sono intrinsecamente adatti a questo compito (Daley et al., 2022).

Ciò ha implicazioni rivoluzionarie in vari campi, quali la chimica quantistica (per il calcolo della struttura elettronica e dell’energia dello stato fondamentale delle molecole), la scienza dei materiali (per la progettazione di nuovi materiali con proprietà desiderate) e la scoperta di farmaci.

In questi ambiti, gli algoritmi quantistici possono accelerare processi quali lo studio del ripiegamento delle proteine (protein folding) e il legame molecolare (molecular docking) (ADAC Quantum Computing Working Group, 2025).

In questo ambito, algoritmi come il Variational Quantum Eigensolver (VQE) rivestono un ruolo centrale (Varsamis et al., 2025).

Crittografia e sicurezza informatica

Il calcolo quantistico rappresenta una minaccia esistenziale per molti degli attuali standard di crittografia a chiave pubblica.

Se venisse eseguito su un computer quantistico sufficientemente potente, l’algoritmo di Shor potrebbe fattorizzare grandi numeri interi in tempo polinomiale, un’impresa ritenuta intrattabile per i computer classici.

Ciò renderebbe vulnerabili gli schemi crittografici ampiamente utilizzati, come RSA, la cui sicurezza si basa proprio sulla difficoltà di fattorizzazione (Varsamis et al., 2025).

Per rispondere a questa minaccia, è nato il campo della crittografia post-quantistica (PQC), che si occupa dello sviluppo di nuovi algoritmi crittografici in grado di resistere agli attacchi sia dei computer classici sia di quelli quantistici (ADAC Quantum Computing Working Group, 2025).

Quantum Machine Learning (QML)

Il Quantum Machine Learning (QML) è un campo interdisciplinare che esplora il modo in cui i principi quantistici possano potenziare gli algoritmi di machine learning.

I modelli QML, come le reti neurali quantistiche (QNN), operano in spazi di feature di elevatissima dimensionalità (spazi di Hilbert), offrendo il potenziale per identificare pattern nei dati inaccessibili ai modelli classici.

Attualmente, le applicazioni si concentrano su flussi di lavoro ibridi in cui i computer quantistici vengono utilizzati come acceleratori per compiti specifici quali l’addestramento dei modelli, l’ottimizzazione degli iperparametri e l’inferenza (Chen et al., 2024).

I classificatori quantistici variazionali, per esempio, sono un’area di ricerca che combina circuiti quantistici parametrici e tecniche di ottimizzazione classiche (Sharma et al., 2025).

Prospettive future per il calcolo quantistico

Il calcolo quantistico è una tecnologia dirompente che non mira a sostituire i computer tradizionali, ma a fungere da acceleratore specializzato per la risoluzione di problemi specifici che i sistemi convenzionali non sono in grado di affrontare in tempi ragionevoli.

Il futuro della computazione ad alte prestazioni risiede nelle architetture ibride che integrano in modo sinergico le risorse di calcolo classico (HPC) e quantistico.

In questo scenario, il paradigma del Quantum Computing as a Service (QCaaS) riveste un ruolo fondamentale, democratizzando l’accesso a hardware costosi e complessi e abbassando la soglia d’ingresso per l’innovazione e la ricerca.

Tuttavia, il percorso verso il calcolo quantistico su larga scala è ancora costellato di sfide interconnesse che devono essere affrontate in modo sistematico.

Il raggiungimento della tolleranza agli errori (fault-tolerance) è il Santo Graal della ricerca hardware ed è un requisito fondamentale per eseguire in modo affidabile algoritmi complessi.

Parallelamente, è fondamentale colmare il divario di competenze sviluppando una forza lavoro qualificata in grado di operare all’intersezione tra fisica quantistica, informatica e ingegneria del software (ADAC Quantum Computing Working Group, 2025).

Infine, per superare l’attuale frammentazione dell’ecosistema, sarà necessaria una maggiore standardizzazione delle API e dei protocolli.

La standardizzazione non solo favorirà l’interoperabilità e la portabilità delle applicazioni su diverse piattaforme (Garcia-Alonso et al., 2025), ma sarà anche un prerequisito per semplificare lo sviluppo di materiali didattici e abbassare la soglia d’ingresso per i nuovi ricercatori.

Solo affrontando congiuntamente questi tre pilastri – hardware, persone e standard – sarà possibile passare dall’era sperimentale del NISQ a quella del robusto vantaggio quantistico resistente agli errori.

Bibliografia

  • ADAC Quantum Computing Working Group. (2025). The Role of Quantum Computing in Advancing Scientific High-Performance Computing: A perspective from the ADAC Institute. arXiv preprint arXiv:2505.13284.
  • Ahmad, A., Altamimi, A. B., & Aqib, J. (2024). Quantum Computing as a Service – a Software Engineering Perspective. arXiv preprint arXiv:2404.05318.
  • Chen, K.-C., Li, X., Xu, X., Wang, Y.-Y., & Liu, C.-Y. (2024). Multi-gpu-enabled hybrid quantum-classical workflow in quantum-hpc middleware: Applications in quantum simulations. arXiv preprint arXiv:2403.05828.
  • Daley, A. J., Bloch, I., Kokail, C., Flannigan, S., Pearson, N., Troyer, M., & Zoller, P. (2022). Practical quantum advantage in quantum simulation. Nature, 607(7920), 667–676.
  • Garcia-Alonso, J., et al. (2025). Rethinking Services in the Quantum Age: The SOQ Paradigm. arXiv preprint arXiv:2510.03817.
  • Golec, M., Hatay, E. S., Golec, M., Uyar, M., Golec, M., & Gill, S. S. (2024). Quantum cloud computing: Trends and challenges. Journal of Economy and Technology, 2, 190–199.
  • Gyongyosi, L., & Imre, S. (2025). Networked Quantum Services. arXiv preprint arXiv:2505.23074.
  • Preskill, J. (2018). Quantum Computing in the NISQ era and beyond. Quantum, 2, 79.
  • Rietsche, R., Dremel, C., Bosch, S., Steinacker, L., Meckel, M., & Leimeister, J.-M. (2022). Quantum computing. Electronic Markets, 32(4), 2525–2536.
  • Romero-Álvarez, J., et al. (2023). Quantum Microservices Development and Deployment. arXiv preprint arXiv:2309.11926.
  • Sharma, H., et al. (2025). When Federated Learning Meets Quantum Computing: Survey and Research Opportunities. arXiv preprint arXiv:2411.08272.
  • Uphues, M., Thöne, S., & Kuchen, H. (2025). A Reference Architecture for Embedding Quantum Software into Enterprise Systems. arXiv preprint arXiv:2505.07166.
  • Varsamis, G. D., et al. (2025). Interfacing Quantum Computing Systems with High- Performance Computing Systems: An overview. arXiv preprint arXiv:2505.08051.
guest

0 Commenti
Più recenti
Più votati
Inline Feedback
Vedi tutti i commenti

Articoli correlati

0
Lascia un commento, la tua opinione conta.x