Mythos e il progetto Glasswing rappresentano un passo avanti importante: rafforzeranno il codice su cui si basa l’economia digitale e lo faranno alla velocità dell’intelligenza artificiale.
È un progresso concreto, ma sarebbe un errore pericoloso pensare che questo basti.
Gli stessi modelli che oggi aiutano a individuare e correggere vulnerabilità finiranno inevitabilmente nelle mani degli attaccanti. E quando accadrà, verranno utilizzati per sfruttare falle su scala e con una rapidità senza precedenti.
La verità è semplice: le vulnerabilità continueranno a esistere. E continueranno ad essere sfruttate. Non è questo che cambia. Cambia la velocità del gioco.
Indice degli argomenti
L’obiettivo non è il codice, ma i dati
Per questo motivo, continuare a pensare alla sicurezza come a un problema di patch e codice è riduttivo. Oggi più che mai, la sicurezza è una questione di strategia multilivello.
La defense-in-depth non è un principio teorico: è l’unico approccio realistico. E tra tutti i livelli, uno sta diventando decisivo: la governance in tempo reale di dati, identità e traffico, costruita per comprendere il linguaggio dell’AI e del cloud.
In questo nuovo scenario, ogni agente deve essere trattato come non affidabile per definizione. Zero trust, senza eccezioni. Perché, alla fine, l’obiettivo degli attaccanti non è il codice, ma sono i dati.
Il problema che nessuno sta risolvendo davvero
Dal nostro osservatorio privilegiato, come punto globale di ispezione inline del traffico aziendale, inclusa l’AI, con trilioni di transazioni elaborate, emerge un quadro chiaro.
Secondo le analisi dei Netskope Threat Labs, circaun’azienda su quattro non ha alcuna policy che limiti i flussi di dati verso applicazioni AI. E questo mentre l’organizzazione media utilizza già 60 diverse applicazioni di intelligenza artificiale.
Non solo: per ogni gigabyte caricato verso strumenti AI, ne vengono scaricati 4,3.
L’AI non è solo un consumatore di dati: è un amplificatore.
Eppure, l’80% delle applicazioni di AI generativa ottiene valutazioni di sicurezza “scarse” nel nostro Cloud Confidence Index. E circa un’azienda su quattro non dispone di alcuna governance AI in tempo reale.
Questa è la realtà che i CISO devono affrontare ogni giorno. Non un futuro ipotetico, non solo il kernel Linux, ma un ecosistema di dati in movimento continuo, spesso fuori controllo.
Mythos e Glasswing interverranno sul software a monte, sistemi operativi, browser, librerie open source. Ed è giusto così. Ma, mentre noi correggiamo il codice, gli attaccanti impareranno a sfruttarlo più velocemente. E soprattutto, continueranno a colpire dove fa più male: nei flussi di dati legittimi.
Mythos, il vero rischio alla sicurezza è già dentro le aziende
Il punto cieco della sicurezza moderna non è una vulnerabilità zero-day. È ciò che accade ogni giorno sotto i nostri occhi.
Un dipendente installa un assistente AI. Lo collega a email, calendario, CRM. Tutto è autorizzato, autenticato e avviene verso destinazioni approvate.
Eppure, dati sensibili vengono trasferiti a un agente che nessuno ha mai validato, operando con privilegi reali e guidato da un modello che può sbagliare, essere manipolato o semplicemente interpretare male un contesto.
Non c’è exploit, non c’è malware, non c’è violazione evidente. E proprio per questo è il rischio più pericoloso.
Non è un problema di codice. È un problema di identità e dati che viaggiano su traffico perfettamente legittimo.
Bloccare l’AI è la scelta più rischiosa
Di fronte a questo scenario, molte organizzazioni sono tentate di frenare l’adozione dell’AI, ma è un errore.
Bloccare l’AI significa perdere competitività, attrarre meno talenti e rallentare l’innovazione. Non è quindi una strategia sostenibile.
Le aziende che stanno vincendo questa fase stanno adottando un approccio diverso: abilitare l’AI, ma con guardrail chiari.
Sì a ChatGPT, sì a Claude, sì a Copilot, sì agli agenti, ma all’interno di controlli inline in tempo reale che comprendono il contesto, analizzano i dati in movimento e applicano policy contestuali senza compromettere l’esperienza, anzi migliorandola.
Le architetture vincenti sono quelle che permettono di definire le policy una sola volta, avere visibilità unificata e governare identità, dati e traffico come un unico sistema.
Le tre domande che contano davvero
Se oggi doveste fare solo tre domande al vostro team, dovrebbero essere queste:
- Quante applicazioni AI stanno realmente utilizzando i nostri utenti e quali dati condividono?
- I nostri controlli coprono anche prompt e risposte, o solo i file?
- Dove sono attivi agenti AI nelle nostre applicazioni e con quale identità operano?
Se non ci sono risposte chiare, il problema non è tecnologico. È di visibilità e governance.
La sicurezza dell’AI non si “patcha”
Glasswing migliorerà la sicurezza del software globale, ma non esiste una patch per ciò che sta arrivando.
Quando modelli avanzati inizieranno ad agire autonomamente all’interno delle aziende, utilizzando dati reali e prendendo decisioni operative, il problema non sarà più correggere codice. Sarà governare in tempo reale ciò che accade.
Questo significa ripensare la sicurezza come una funzione continua, integrata nella rete, nelle transazioni e nei flussi di dati. E significa essere pronti prima che il problema si manifesti, non dopo.
Nessuna azienda può affrontare questa trasformazione da sola. Servono collaborazione e responsabilità condivisa tra sviluppatori AI, aziende, ricercatori, comunità open source e istituzioni.
È questa la sfida, è sempre stata questa e continuiamo ad affrontarla, ogni giorno.













