L’evoluzione dei tool criminali basati sull’intelligenza artificiale sta ridefinendo il panorama delle minacce informatiche, introducendo nuove tecniche di attacco che rendono sempre più difficile distinguere l’autenticità dei contenuti digitali e l’identità dei soggetti coinvolti.
Secondo lo studio “Deepfake It Till You Make It”, pubblicato da Trend Micro il 9 luglio, l’impiego illecito dell’AI da parte delle organizzazioni cybercriminali non rappresenta più un’ipotesi futuribile, ma un insieme di prassi già in corso, articolate, accessibili e in continua espansione.
Indice degli argomenti
I nuovi tool dei cyber criminali basati sull’AI
Le tecnologie di intelligenza artificiale generativa – in particolare quelle in grado di creare immagini, video, testi e audio indistinguibili da quelli reali – sono sempre più integrate in strumenti sviluppati o riadattati per scopi fraudolenti, dal phishing vocale fino alle truffe di impersonificazione identitaria, passando per la creazione di contenuti deepfake destinati alla disinformazione, all’estorsione o all’abuso reputazionale.
Il fenomeno interessa trasversalmente individui, aziende, istituzioni pubbliche e private, e si manifesta in una varietà crescente di formati e vettori d’attacco.
L’indagine
Lo studio di Trend Micro evidenzia come le tecnologie deepfake audio e video, un tempo appannaggio di ambienti tecnici avanzati, siano ormai disponibili in formato commerciale e a basso costo.
Si segnala, per esempio, il caso di criminali che impiegano clonazioni vocali per simulare la voce di un dirigente aziendale e convincere un dipendente a eseguire un bonifico urgente.
Tali strumenti, perfezionati con l’ausilio di modelli generativi open source o commerciali (come VALL-E, ElevenLabs, Voice.ai), possono essere gestiti anche da attori con competenze tecniche limitate, grazie alla progressiva semplificazione delle interfacce e alla diffusione di tutorial nel dark web e nei forum underground.
Altre frodi con la Gen AI
Un’altra modalità d’uso consiste nell’alterazione del volto e della voce in tempo reale durante una videochiamata, finalizzata a frodi di tipo CEO fraud o al furto d’identità durante processi di onboarding bancario o aziendale.
I criminali digitali sfruttano in questo caso tool come DeepFaceLive o Avatarify, capaci di manipolare in tempo reale le espressioni facciali e sincronizzarle con tracce audio AI-generated, creando l’illusione di un’interazione autentica. In ambito enterprise, ciò rappresenta una minaccia concreta ai processi di verifica remota delle identità.
Testi fraudolenti generati con l’Ai
Il report identifica inoltre una crescita nell’uso dell’intelligenza artificiale per generare testi fraudolenti, come email di spear-phishing scritte in linguaggio naturale e con toni altamente contestualizzati.
Attraverso modelli linguistici di grandi dimensioni (LLM), gli attaccanti possono produrre comunicazioni personalizzate, simulare corrispondenze credibili ed aggirare i filtri antispam tradizionali.
Alcuni servizi offrono già “template criminali” pronti all’uso, ottimizzati per linguaggio, obiettivi e settori specifici, con l’assistenza di chatbot criminali formati appositamente per massimizzare l’efficacia persuasiva.
Disinformazione
Una componente emergente è l’uso dell’AI per automatizzare o amplificare attività legate alla disinformazione.
Secondo Trend Micro, i modelli multimodali possono generare in autonomia immagini, testi e video per alimentare narrazioni false o destabilizzanti, amplificate poi attraverso account bot sui social media.
Questo approccio viene definito da alcuni attori underground come “content flooding”: si produce una massa di contenuti plausibili ma manipolati, in grado di offuscare la verità o screditare soggetti pubblici o privati.
Il rischio dell’AI-as-a-Service
Nel dark web e nei mercati illegali viene osservato un incremento di offerte legate a tool AI-as-a-Service, ovvero piattaforme criminali che mettono a disposizione pacchetti preconfigurati per generare deepfake, cloni vocali, phishing avanzato o bot per social engineering.
Tali servizi vengono proposti con modelli a pagamento in abbonamento, con livelli di personalizzazione che vanno da opzioni basilari fino a soluzioni enterprise criminali.
Alcuni operatori offrono anche “assistenza tecnica”, guide o aggiornamenti regolari del software, riducendo la barriera tecnica all’ingresso per nuovi attori.
AI e furto d’identità
Il panorama descritto da Trend Micro evidenzia anche come le tecnologie AI siano sfruttate in attività legate al furto d’identità, con modelli capaci di generare documenti falsi credibili – passaporti, carte d’identità, badge aziendali – sulla base di template open source e dataset liberamente reperibili.
L’integrazione di generative AI in questi processi consente di personalizzare i documenti con dati biometrici verosimili, aumentando la probabilità di superare controlli automatici e umani.
La convergenza fra AI e cybercrime-as-a-service
A livello di threat landscape, si osserva una progressiva convergenza tra AI, automazione e cybercrime-as-a-service.
Alcuni gruppi criminali utilizzano sistemi generativi per scrivere codice dannoso in modo dinamico, offuscato e mutante, difficilmente rilevabile dai motori antivirus.
Altri stanno sperimentando tool per il recon automatizzato, che sfruttano modelli linguistici per esaminare documentazione pubblica (report aziendali, profili LinkedIn, comunicati stampa) allo scopo di costruire profili psicologici e comportamentali delle vittime, su cui basare campagne di phishing mirato.
Manipolazione delle prove digitali
Un elemento di attenzione riguarda le potenziali derive dell’AI nella manipolazione delle evidenze digitali.
Deepfake video o audio potrebbero essere utilizzati per costruire prove false, alimentare ricatti, compromettere la reputazione di figure pubbliche o, in casi estremi, ostacolare indagini forensi. Questa prospettiva apre interrogativi etici e giuridici non ancora risolti, soprattutto in relazione all’ammissibilità probatoria di contenuti potenzialmente alterabili con pochi clic.
Una sfida per la cyber
Il report non propone scenari distopici, ma segnala come l’adozione criminale dell’intelligenza artificiale sia già una realtà tangibile e in evoluzione costante. Alcune delle tecnologie analizzate non nascono per scopi illeciti, ma vengono rapidamente adattate e sfruttate in funzione delle esigenze degli attori ostili.
Tale adattabilità rappresenta una sfida per i sistemi di detection e per la cyber security in generale, che richiede approcci altrettanto dinamici, capaci di integrare l’AI nella difesa senza alimentare ulteriormente il divario tra attaccanti e difensori.
In un contesto in cui la barriera tecnologica si riduce e la qualità dei contenuti sintetici si avvicina progressivamente alla realtà percepita, la consapevolezza del rischio diventa una componente chiave per ogni attore del mondo digitale. Lo studio Trend Micro invita a un’azione coordinata su più livelli: normativo, tecnico, formativo e investigativo.
È necessario promuovere la trasparenza nei modelli generativi, rafforzare i sistemi di autenticazione (inclusi biometria e challenge-response dinamici), e investire nella formazione continua dei soggetti più esposti, dalle aziende ai singoli utenti.












