Lo studio

AI e attori Nation-State: quando i modelli diventano infrastruttura strategica del conflitto ibrido



Indirizzo copiato

Secondo il report di Google, gruppi riconducibili a Cina, Russia, Iran e Corea del Nord stanno impiegando modelli generativi come Gemini come supporto operativo lungo diverse fasi della cyber kill chain. Ecco le quattro V del rischio AI e come i modelli generativi favoriscono il conflitto ibrido

Pubblicato il 20 feb 2026

Francesco Iezzi

Cybersecurity Specialist NHOA



Guerra ibrida e app spia scenari; AI e attori Nation-State: quando i modelli LLM diventano infrastruttura strategica del conflitto ibrido

A febbraio 2026, il Google Threat Intelligence Group ha pubblicato un’analisi che evidenzia un’evoluzione significativa nell’utilizzo dell’intelligenza artificiale da parte di attori state-backed.

Secondo il report, gruppi riconducibili a Cina, Russia, Iran e Corea del Nord stanno impiegando modelli generativi come Gemini come supporto operativo lungo diverse fasi della cyber kill chain.

Attori quali UNC2970 (ecosistema Lazarus), APT31, APT41, UNC795 e APT42 avrebbero integrato l’AI generativa nelle attività di ricognizione e profilazione dei target, nello sviluppo e nel refactoring di codice malevolo, nel troubleshooting di exploit, nella costruzione di campagne di social engineering e nella sperimentazione di tecniche di model extraction.

La discontinuità non risiede tanto nella natura delle attività, quanto nella rapidità e nella facilità con cui possono essere eseguite.

L’AI come acceleratore della kill chain

Tradizionalmente, le operazioni APT richiedevano competenze specialistiche distribuite tra più figure tecniche.

L’integrazione di modelli generativi consente oggi di automatizzare parte del lavoro preparatorio, supportare l’analisi tecnica e ridurre il tempo necessario per passare dalla fase di studio a quella esecutiva.

L’AI, allo stato attuale, svolge prevalentemente un ruolo di supporto. Viene utilizzata come strumento perimetrale nelle fasi di raccolta informazioni, nella scrittura o correzione di codice, nella generazione di contenuti persuasivi e nell’ottimizzazione tecnica di exploit.

Non emergono ancora evidenze sistematiche di attacchi completamente orchestrati da sistemi autonomi senza supervisione umana.

Tuttavia, l’evoluzione degli agenti AI capaci di concatenare attività complesse e interagire con ambienti esterni suggerisce che il passaggio verso operazioni sempre più automatizzate rappresenta una possibilità concreta.

La traiettoria tecnologica indica una progressiva riduzione dell’intervento umano diretto nelle fasi operative, con un aumento della capacità di esecuzione automatica di task articolati.

Malware dinamico e generazione adattiva

L’utilizzo delle API AI per generare codice in modo dinamico, incluse porzioni compilate in-memory o componenti fileless, introduce una maggiore variabilità negli artefatti malevoli.

Allo stesso modo, la creazione automatizzata di kit di phishing personalizzati aumenta la qualità linguistica e la coerenza narrativa delle campagne di social engineering.

Questo scenario riduce ulteriormente l’efficacia dei modelli difensivi basati su firme statiche e rende necessario rafforzare approcci comportamentali, analisi contestuale e monitoraggio delle anomalie.

L’AI contribuisce quindi a modificare la morfologia delle minacce, oltre che ad ampliarne la scala.

Model extraction e protezione della proprietà intellettuale AI

Un aspetto strategicamente rilevante riguarda i tentativi di model extraction, ossia attività di probing sistematico volte a ricostruire capacità e logiche decisionali di modelli proprietari attraverso interazioni ripetute.

In questo contesto, la sicurezza non riguarda esclusivamente sistemi e dati tradizionali, ma anche il patrimonio inferenziale incorporato nei modelli. L’estrazione di pattern di ragionamento o capacità specifiche può configurare una forma di spionaggio tecnologico con impatti economici significativi.

La protezione dell’infrastruttura AI e delle API di accesso deve quindi essere considerata parte integrante della sicurezza della supply chain digitale.

AI Act e governance: dalla tecnologia alla responsabilità

Sul piano normativo, l’AI Act introduce requisiti progressivi per i sistemi AI ad alto rischio, imponendo obblighi di classificazione, documentazione, tracciabilità e cybersecurity by design.

Le sanzioni previste rendono evidente come l’adozione dell’AI non sia più una scelta esclusivamente tecnica.

Il World Economic Forum nel Global Cybersecurity Outlook 2026 evidenzia come l’intelligenza artificiale sia percepita come il principale fattore di trasformazione del panorama cyber, ma anche come fonte di nuove vulnerabilità.

Le organizzazioni sono chiamate a strutturare una governance AI che includa mappatura dei sistemi utilizzati, valutazione del rischio, protezione dei dati di training e di inferenza, monitoraggio delle interazioni con modelli proprietari o di terze parti e integrazione del rischio AI nei framework di enterprise risk management e di third party risk management.

Le quattro V del rischio AI

Il rischio associato all’intelligenza artificiale può essere analizzato attraverso quattro dimensioni interconnesse:

  • la velocità, che descrive la compressione dei tempi tra preparazione ed esecuzione di un attacco;
  • il volume, inteso come capacità di scalare operazioni offensive e campagne automatizzate con costi marginali ridotti;
  • la veridicità, che riflette la crescente difficoltà nel distinguere contenuti autentici da quelli generati artificialmente;
  • la volizione, legata al grado di autonomia operativa dei sistemi AI e alla possibilità che eseguano sequenze di azioni complesse con supervisione umana limitata.

L’interazione tra queste quattro dimensioni contribuisce a trasformare l’AI in un fattore strutturale di rischio sistemico.

Una trasformazione strutturale del panorama cyber

Negli ultimi anni si è affermata l’idea che l’identità rappresenti il nuovo perimetro di sicurezza. Oggi è necessario riconoscere che anche l’infrastruttura AI sta assumendo caratteristiche di asset strategico.

I modelli generativi non sono soltanto strumenti applicativi, ma componenti centrali dell’architettura digitale di organizzazioni e Stati.

La questione non riguarda esclusivamente l’utilizzo offensivo dell’AI, già osservabile nelle fasi di supporto operativo. Riguarda la capacità delle organizzazioni di anticipare l’evoluzione verso scenari in cui porzioni sempre più ampie della kill chain possano essere automatizzate e orchestrate da sistemi intelligenti.

La differenza, nei prossimi anni, non sarà tra chi adotta o meno l’intelligenza artificiale, ma tra chi ne governa i rischi in modo strutturato e chi ne subisce le implicazioni operative e strategiche.

guest

0 Commenti
Più recenti
Più votati
Inline Feedback
Vedi tutti i commenti

Articoli correlati

0
Lascia un commento, la tua opinione conta.x