l’analisi tecnica

Shadowleak: ecco come i cyber criminali possono colpire l’AI con attacchi zero clic



Indirizzo copiato

La tecnica di attacco messo a punto dai ricercatori di Radware permette di eseguire un prompt injection in ChatGPT Deep Research. Ecco come funziona

Pubblicato il 30 set 2025



Shadowleak prompt injection

Il binomio AI-cyber security non si esaurisce nella possibilità che cyber criminali ed esperti di sicurezza possano potenziare gli strumenti a loro disposizione. Esiste anche un altro piano di lettura, che riguarda le nuove vulnerabilità che affliggono i sistemi di intelligenza artificiale generativa.

Continua a leggere questo articolo

Articoli correlati