OpenAI, il laboratorio di ricerca sull’intelligenza artificiale (IA) di proprietà di Sam Altman, ha rivelato di aver bloccato una serie di campagne dannose utilizzando le sue soluzioni di intelligenza artificiale, inclusa ChatGPT.
Molte di queste campagne sono state condotte da attori sponsorizzati dallo stato, con legami con Cina, Russia e Iran. Quattro di esse sembrano provenire dalla Cina e si concentrano su ingegneria sociale, operazioni di influenza segrete e minacce informatiche.
L’indagine di OpenAI conferma il duplice uso dell’intelligenza artificiale, in attacco e in difesa.
Ecco come l’IA moltiplica l’efficienza per gli attaccanti, ma aumenta al contempo le potenzialità del rilevamento.
Indice degli argomenti
La denuncia di OpenAI
In un rapporto di giugno intitolato “Disrupting malicious uses of IA: june 2025“, OpenAI illustra come, utilizzando ChatGPT, ha smantellato o interrotto dieci truffe sul lavoro, operazioni di influenza e campagne di spam solo nei primi mesi del primi mesi del 2025.
Sono stati interrotti anche abusi provenienti da altri Paesi, come una probabile truffa dalla Cambogia, spamming di commenti dalle Filippine, tentativi di influenza occulta potenzialmente legati a Russia e Iran, e schemi di impiego ingannevoli dalla Corea del Nord.
Queste azioni coprono un’ampia gamma di attività illecite, inclusi crimini informatici, ingegneria sociale sofisticata e operazioni di influenza occulta.
OpenAI sostiene di aver contrastato queste minacce utilizzando le proprie capacità di IA come “moltiplicatore di forza” per i suoi team investigativi, consentendo il rilevamento e l’interruzione di attività abusive su una scala senza precedenti.
L’IA come amplificatore di minacce
I risultati del rapporto di OpenAI sottolineano un cambiamento significativo nelle capacità degli attori malevoli, guidato dalla diffusione degli strumenti di IA generativa. Questi strumenti non creano nuove forme di minacce informatiche, ma amplificano quelle esistenti.
Un’osservazione chiave è l’abbassamento delle barriere tecniche per gli attaccanti. Gli strumenti di IA generativa consentono a individui con meno esperienza tecnica di eseguire attacchi sofisticati che prima richiedevano competenze estese.
Per esempio, ChatgGPT può generare messaggi di truffa persuasivi in numerose lingue, permettendo ai truffatori di raggiungere vittime a livello globale senza barriere linguistiche.
Contemporaneamente, l’IA aumenta drasticamente l’efficienza e la scala degli attacchi. Gli attori malevoli sfruttano l’IA per condurre campagne coordinate con efficacia e portata senza precedenti, automatizzando la generazione di contenuti malevoli e semplificando la comunicazione con le vittime.
Effetto paradossale dell’IA
Paradossalmente, mentre l’IA aumenta l’efficienza per gli attaccanti, aumenta anche la loro vulnerabilità al rilevamento.
Integrando l’IA nei loro flussi di lavoro, gli attori delle minacce forniscono a OpenAI una visibilità critica sui loro processi, che quest’ultima sfrutta per perfezionare le sue difese.
Ad esempio, l’uso di modelli di IA come assistenti di debug fornisce informazioni preziose sui loro strumenti e infrastrutture.
Categorie di attività malevole
Il rapporto identifica diverse categorie principali in cui l’IA viene utilizzata per scopi malevoli, accelerando e migliorando le minacce esistenti:
- Ingegneria sociale e truffe. l’IA viene ampiamente utilizzata per creare messaggi di truffa convincenti, automatizzare la comunicazione e generare contenuti ingannevoli. Questo include la generazione di messaggi multilingue, risposte automatizzate e contestualizzate, la fabbricazione di curriculum ngannevoli e la manipolazione di immagini per impersonificazione.
- Operazioni cibernetiche. l’IA assiste gli attori malevoli in varie fasi degli attacchi informatici, dallo sviluppo e debug di malware alla ricognizione e al penetration testing. Esempi includono l’assistenza nello sviluppo di malware per Windows e il supporto per il penetration testing basato sull’IA.
- Operazioni di influenza occulta (io). L’IA viene utilizzata per automatizzare la diffusione della propaganda, manipolare l’opinione pubblica e distribuire disinformazione su varie piattaforme di social media. Ciò include la generazione automatizzata di contenuti e lo sviluppo di persone false.
- Altri usi impropri. Il rapporto solleva anche preoccupazioni sull’uso dell’IA da parte di regimi autoritari per accumulare potere o coercere altri stati, lo sfruttamento minorile e la diffusione di spam su larga scala.
Contromisure e strategie di mitigazione di OpenAI
OpenAI sostiene di aver adottato un approccio multifattoriale per combattere l’uso malevolo dei suoi modelli di IA:
- Sfruttare l’IA per le indagini. L’azienda ha utilizzato le proprie capacità di IA per migliorare l’efficienza dei suoi team investigativi, consentendo il rilevamento e l’interruzione di attività abusive su larga scala.
- Blocco proattivo degli account e smantellamento delle infrastrutture. Una strategia chiave è stata l’identificazione e il blocco rapidi degli account utente associati ad attività malevoli, spesso seguiti dal coordinamento con partner esterni per smantellare le infrastrutture di supporto.
- Condivisione strategica delle informazioni e collaborazione. OpenAI ha promosso attivamente la condivisione di informazioni sulle minacce con partner del settore, autorità e partner di sicurezza globali, riconoscendo che la collaborazione è essenziale per rafforzare le difese collettive.
- Apprendimento continuo e perfezionamento della difesa. Ogni operazione interrotta ha fornito ad OpenAI una comprensione più profonda di come gli attori delle minacce abusano dei loro modelli, consentendo un continuo perfezionamento dei loro sistemi di IA difensiva e delle loro politiche.
Impatti per la cyber security e la governance dell’IA
I risultati del rapporto hanno profonde implicazioni per i professionisti della cyber security e per l’evoluzione dei quadri di governance dell’IA.
I team di cyber security devono affrontare un panorama delle minacce sempre più complesso, con un’ampia gamma di attaccanti in grado di lanciare attacchi sofisticati grazie all’IA. La rapida evoluzione delle minacce guidate dall’IA richiede una vigilanza costante e un rapido adattamento delle strategie difensive.
Il rapporto sottolinea la necessità critica di strategie di rilevamento proattive e di salvaguardie collettive e contromisure condivise tra tutti gli stakeholder. I team di sicurezza devono rimanere vigili sull’adozione degli llm da parte degli avversari e utilizzare l’intelligence in tempo reale condivisa da aziende leader nel campo dell’IA.
Il rapporto lancia un chiaro appello a una più ampia collaborazione industriale e globale. La promozione della consapevolezza e della preparazione attraverso la condivisione delle informazioni e la trasparenza porterà a una maggiore difesa collettiva.
L’innovazione continua, l’indagine, la collaborazione e la condivisione sono essenziali per rendere più difficile per gli attori malevoli rimanere non rilevati.
Prospettive future
Il rapporto di OpenAI ribadisce che l’intelligenza artificiale è uno strumento a duplice uso, capace di grande bene e di significativo danno.
L’IA amplifica le minacce esistenti, abbassando le barriere tecniche e aumentando l’efficienza delle attività malevole.
Combattere l’uso improprio dell’IA non è un compito per una singola entità. Il successo di OpenAI nel contrastare diverse campagne dimostra l’efficacia delle sue difese interne basate sull’IA e l’importanza cruciale della collaborazione estesa. La condivisione di informazioni e intelligence sulle minacce con i partner del settore è l’unica via sostenibile.
La natura dinamica delle indagini sull’IA richiede un ciclo continuo di apprendimento e perfezionamento da parte dei difensori.
Le implicazioni per i team di cyber security e la governance dell’IA sono immediate: i professionisti devono adattare le loro competenze, dare priorità all’intelligence in tempo reale e adottare metodologie di rilevamento proattive.
Il rapporto, dunque, è un promemoria fondamentale del fatto che non tutto ciò che vediamo online è pubblicato da un essere umano in carne e ossa e che la persona con cui abbiamo “attaccato briga” online potrebbe ottenere esattamente ciò che desidera: coinvolgimento, indignazione e divisione.
Il futuro della sicurezza dell’IA dipende da uno sforzo globale unificato, collaborativo e costantemente adattivo.