Un hacker ha rivendicato la sottrazione di oltre 10 petabyte di dati sensibili dal National Supercomputing Center (NSCC) di Tianjin, in Cina, in quello che si configura come un episodio di esfiltrazione di dati nel settore della ricerca scientifica e militare.
L’entità della violazione, se confermata, porrebbe interrogativi profondi sulla sicurezza delle infrastrutture critiche di calcolo ad alte prestazioni e sulle implicazioni geopolitiche di simili eventi.
Indice degli argomenti
Supercomputing in Cina, cosa implica l’esfiltrazione dei dati
Il NSCC di Tianjin rappresenta un nodo nell’ecosistema tecnologico e scientifico cinese.
Si tratta di una struttura che eroga servizi infrastrutturali di calcolo a circa 6.000 clienti distribuiti sull’intero territorio nazionale, tra cui figurano agenzie scientifiche e della difesa.
La concentrazione di utenti così eterogenei e sensibili in un unico hub computazionale trasforma inevitabilmente il centro in un bersaglio di primario interesse per attori ostili, siano essi statali o non statali.
La vicenda è emersa pubblicamente agli inizi di febbraio, quando un account denominato FlamingChina ha pubblicato un campione del presunto dataset su un canale Telegram anonimo.
Nel messaggio di rivendicazione si affermava che i dati esfiltrati comprendessero ricerche in svariati ambiti, tra cui ingegneria aerospaziale, ricerca militare, bioinformatica e simulazione della fusione nucleare.
Tra i contenuti figurerebbero anche documenti di difesa e dati relativi a sistemi missilistici, elementi che, qualora autentici, conferirebbero alla violazione una dimensione strategica di notevole portata.
L’effettiva portata della violazione
Dal punto di vista tecnico, la sottrazione di 10 petabyte di dati rappresenta una sfida logistica e operativa di primissimo livello.
Per dare un’idea della scala: un petabyte equivale a un milione di gigabyte. Esfiltare tale quantità di informazioni senza essere individuati richiede o un accesso prolungato e non rilevato ai sistemi, o una compromissione profonda delle infrastrutture di rete perimetrale.
In entrambi i casi, si tratterebbe di una lacuna di sicurezza che solleva dubbi tanto sulle misure di rilevamento delle intrusioni quanto sui meccanismi di auditing degli accessi implementati presso il centro.
Al momento della pubblicazione delle notizie, la veridicità delle affermazioni non era stata indipendentemente verificata.
La pubblicazione di un campione dei dati su Telegram è una pratica ricorrente tra i threat actor per accreditare la propria rivendicazione, ma non costituisce di per sé prova sufficiente dell’effettiva portata della violazione.
Episodi analoghi in passato si sono rivelati in parte gonfiati, ovvero con dati reali, ma relativi a periodi temporali o a sistemi di minore rilevanza rispetto a quanto dichiarato.
Resta dunque aperta la questione dell’autenticità e della completezza del dataset.
Focius sulla sicurezza dei supercomputer e delle infrastrutture HPC
Il caso si inserisce in un contesto più ampio di crescente attenzione verso la sicurezza dei supercomputer e delle infrastrutture HPC (High Performance Computing) a livello globale.
Tali sistemi, per loro natura, aggregano enormi volumi di dati provenienti da istituzioni diverse, spesso con profili di rischio molto differenti tra loro.
La commistione tra utenti civili, accademici e militari all’interno della medesima infrastruttura amplifica il potenziale impatto di una singola compromissione: una vulnerabilità sfruttata in un contesto apparentemente secondario può aprire porte verso ambienti ad altissimo valore informativo.
Le infrastrutture di calcolo ad alte prestazioni presentano caratteristiche architetturali che possono incidere significativamente sul profilo di rischio cyber.
Tali ambienti sono progettati per massimizzare la capacità computazionale e l’efficienza delle risorse, spesso privilegiando modelli di accesso condiviso e alte prestazioni di rete interna.
Questo approccio, se non accompagnato da adeguate misure di segmentazione e controllo degli accessi, può facilitare movimenti laterali da parte di un attaccante una volta ottenuto un punto di ingresso iniziale.
Inoltre, la presenza di workload eterogenei, librerie software complesse e frequenti interazioni con repository esterni introduce ulteriori superfici di attacco, rendendo necessario un bilanciamento continuo tra esigenze operative e requisiti di sicurezza.
La protezione delle infrastrutture di supercalcolo e sistemi HPC
Il supercalcolo rappresenta un asset strategico per lo sviluppo tecnologico e scientifico a livello globale.
Sistemi HPC avanzati vengono impiegati in ambiti che spaziano dalla modellazione climatica alla progettazione di materiali avanzati, fino alla simulazione di sistemi complessi in ambito aerospaziale e difensivo.
In questo contesto, diversi Paesi hanno avviato programmi nazionali per rafforzare le proprie capacità di calcolo ad alte prestazioni, riconoscendone il ruolo chiave nello sviluppo dell’intelligenza artificiale, della ricerca scientifica e delle applicazioni dual use.
La protezione di tali infrastrutture assume quindi una valenza non solo tecnica ma anche strategica, in quanto eventuali compromissioni possono incidere sulla competitività tecnologica e sulla sicurezza nazionale.
Misure di mitigazione dei rischi nel settore del supercalcolo
Dal punto di vista della risposta agli incidenti, la gestione della comunicazione in questi casi è particolarmente delicata.
I centri di supercalcolo che operano a stretto contatto con strutture governative e militari tendono a mantenere un profilo molto basso in occasione di presunti incidenti, sia per ragioni di sicurezza operativa sia per evitare effetti reputazionali sui propri clienti istituzionali.
Questa riservatezza, pur comprensibile, complica la possibilità di una valutazione indipendente e trasparente dell’accaduto.
Sul piano delle contromisure, episodi di questa natura rafforzano l’urgenza di adottare architetture zero trust anche in ambienti HPC, tradizionalmente progettati privilegiando le prestazioni rispetto alla segmentazione della rete.
L’autenticazione continua, la microsegmentazione dei carichi di lavoro e il monitoraggio comportamentale del traffico interno sono elementi che stanno guadagnando terreno anche in contesti dove storicamente la sicurezza era considerata un vincolo operativo.
La protezione dei dati in transito e a riposo, unita a politiche rigorose di gestione delle credenziali privilegiate, costituisce un requisito non più differibile per infrastrutture di questa rilevanza.
La vicenda del NSCC di Tianjin rimanda, infine, a una riflessione più strutturale sulla concentrazione del rischio nei modelli di supercalcolo condiviso.
Quando migliaia di organizzazioni, anche con missioni molto diverse, condividono la stessa piattaforma computazionale, il perimetro di attacco si estende proporzionalmente alla varietà degli utenti.
La governance della sicurezza in questi ecosistemi richiede non solo tecnologia avanzata, ma anche framework normativi chiari, procedure di incident response coordinate tra i clienti e il gestore, e meccanismi di condivisione delle informazioni sulle minacce che consentano una risposta tempestiva ed efficace.
La pressione verso l’autonomia tecnologica nel settore del supercalcolo, peraltro dichiarata obiettivo strategico da parte di Pechino, rende ancora più
rilevante garantire che tale autonomia si accompagni a standard di sicurezza all’altezza delle ambizioni.












