L’intelligenza artificiale applicata alla cyber security sta attraversando una fase di accelerazione che impone una riflessione profonda sul modo in cui si costruisce la resilienza digitale.
OpenAI ha annunciato un’espansione significativa del proprio programma Trusted Access for Cyber (TAC), portando l’accesso a strumenti avanzati di difesa informatica a migliaia di professionisti verificati e centinaia di team responsabili della protezione di software critico.
La mossa segna un passaggio da una logica di accesso selettivo e manuale a un modello scalabile, basato su verifica dell’identità e segnali oggettivi di fiducia, con implicazioni rilevanti per l’intero ecosistema della sicurezza informatica globale.
Indice degli argomenti
GPT-5.4-Cyber: una variante del modello di OpenAI addestrato per usi nella cyber security
Il punto di partenza di questa strategia è il riconoscimento che il rischio cyber è già presente e in crescita, indipendentemente dall’evoluzione dell’intelligenza artificiale.
Le infrastrutture digitali presentano vulnerabilità strutturali da anni, e i modelli AI esistenti sono già in grado di supportare parti significative del ciclo di attacco e difesa: analisi del codice, ricerca di vulnerabilità, ragionamento su codebase complesse.
Ignorare questa realtà o affidarsi a soglie future di intervento significherebbe arrivare in ritardo su un campo che si muove rapidamente.
È in questo contesto che si inserisce la scelta di rilasciare GPT-5.4-Cyber, una variante del modello GPT-5.4 appositamente addestrata per usi in ambito cyber security, con soglie di rifiuto ridotte per attività difensive legittime e nuove capacità per workflow avanzati, tra cui il reverse engineering binario: una tecnica che consente di analizzare software compilato alla ricerca di vulnerabilità, malware e debolezze strutturali, senza necessità di accesso al codice sorgente.
L’approccio di deployment iterativo e controllato
GPT-5.4-Cyber non è disponibile per tutti. OpenAI ha scelto un approccio di
deployment iterativo e controllato: l’accesso al modello più permissivo è riservato, in questa fase, a vendor di sicurezza verificati, organizzazioni e ricercatori che abbiano completato un processo di autenticazione rafforzato.
Questa scelta riflette un principio ben preciso: le capacità cyber sono per natura dual-use, e il rischio non dipende soltanto dal modello, ma anche dall’identità dell’utente, dal contesto d’uso e dal livello di accesso concesso.
Per questo motivo, l’accesso a GPT-5.4-Cyber può comportare limitazioni, in particolarerispetto a configurazioni a visibilità zero come il Zero-Data Retention, soprattutto quando i modelli sono utilizzati attraverso piattaforme di terze parti in cui OpenAI ha minore visibilità sull’utente finale.
I livelli progressivi del programma TAC
Il programma TAC si struttura in livelli progressivi. Gli utenti individuali possono verificare la propria identità direttamente tramite la piattaforma dedicata; le imprese possono richiedere l’accesso trusted per il proprio team tramite un rappresentante OpenAI.
Chi è già inserito nel programma e desidera accedere ai livelli superiori, incluso GPT-5.4-Cyber, può farne richiesta attraverso un percorso di autenticazione aggiuntivo.
L’obiettivo dichiarato è quello di democratizzare l’accesso agli strumenti di difesa avanzati, evitando che siano appannaggio esclusivo di grandi organizzazioni con risorse abbondanti, e rendendoli disponibili anche ai soggetti responsabili della protezione di infrastrutture pubbliche, servizi essenziali e sistemi digitali diffusi.
Gli strumenti pratici di OpenAI
Parallelamente all’espansione del TAC, OpenAI ha rafforzato il proprio impegno sul versante degli strumenti pratici.
Codex Security, lanciato in beta privata circa sei mesi fa e reso disponibile come research preview all’inizio di quest’anno, automatizza il monitoraggio dei codebase, la validazione delle vulnerabilità e la proposta di correzioni.
Dal recente lancio, il sistema ha contribuito alla correzione di oltre 3.000 vulnerabilità critiche o ad alta gravità, oltre a numerose ulteriori segnalazioni di minore entità.
Si tratta di un cambio di paradigma rispetto alla tradizionale sicurezza applicativa: si passa da audit episodici a una sorveglianza continua integrata nel ciclo di sviluppo, con feedback immediato per gli sviluppatori durante la fase di scrittura del codice.
Codex for Open Source
A questo si affianca un programma di crediti API del valore di 10 milioni di dollari destinato alla cyber security, che sostiene ricercatori e organizzazioni del settore, e l’iniziativa Codex for Open Source, che ha già raggiunto oltre 1.000 progetti open source con scansioni di sicurezza gratuite.
Questi investimenti riflettono una visione sistemica: la resilienza digitale non si costruisce proteggendo solo i grandi player, ma rafforzando l’intero ecosistema, comprese le componenti open source che costituiscono la base di larga parte del software moderno.
La traiettoria coerente di OpenAI
Dal punto di vista tecnico e metodologico, l’evoluzione descritta da OpenAI segue una traiettoria coerente.
Il training specifico per la sicurezza informatica è iniziato con GPT-5.2, è stato ampliato con GPT-5.3-Codex e GPT-5.4, quest’ultimo classificato come ad “alta capacità cyber” nel quadro del Preparedness Framework interno.
Ad ogni passaggio, OpenAI dichiara di aver ricalibrato i confini dei rifiuti del modello, migliorato la resistenza ai jailbreak e affinato le capacità difensive, cercando di mantenere l’equilibrio tra utilità per i difensori e mitigazione
dei rischi di uso improprio.
La concorrenza di Anthropic e Google
È utile inquadrare questa dinamica in un contesto più ampio. Anche altri attori del settore AI stanno rivedendo il proprio approccio alla sicurezza informatica: Anthropic ha sviluppato propri meccanismi di valutazione delle capacità offensive dei modelli e policy specifiche per i casi d’uso in ambito cyber, mentre Google DeepMind ha pubblicato e aggiornato il proprio Frontier Safety Framework, includendo valutazioni su cyber risk e capacità agentiche.
Il tema non è più se i modelli linguistici avanzati abbiano capacità rilevanti per la sicurezza informatica, perché è ormai accertato che le abbiano, ma come strutturare l’accesso a queste capacità in modo che i difensori possano beneficiarne prima e più efficacemente rispetto agli attori malevoli.
La posta in gioco è alta
Le infrastrutture critiche, i sistemi sanitari, le reti energetiche e i servizi finanziari dipendono da software complesso e spesso difficile da auditare in modo sistematico con i soli strumenti tradizionali.
L’integrazione di modelli AI avanzati nei processi di sicurezza offensivo-difensiva, se governata con criteri rigorosi di verifica e accountability, può rappresentare un moltiplicatore di forza concreto per chi lavora a proteggere questi sistemi, riducendo il divario oggi esistente tra la velocità con cui emergono le minacce e quella con cui si riesce a rispondervi.
L’approccio iterativo descritto da OpenAI, con deployment graduali, aggiornamento continuo delle salvaguardie e verifica oggettiva degli utenti, offre un punto di riferimento utile per l’intera industria su come gestire la progressione delle capacità AI in domini ad alto rischio.
Scalare le difese in modo proporzionale all’aumento delle capacità dei modelli, e farlo attraverso meccanismi trasparenti e verificabili, è probabilmente la direzione più solida disponibile oggi per costruire un ecosistema digitale più sicuro.









