l’analisi tecnica

Prompt injection e vulnerabilità dei sistemi AI: cosa impariamo dal caso di Slack AI



Indirizzo copiato

Slack AI è stata vittima di una vulnerabilità classica in quest’epoca di LLM (Large Language Model): la prompt injection. Attaccanti avrebbero potuto prelevare dati riservati senza nemmeno accedere ai canali privati. Oggi le aziende si affrettano ad adottare l’AI, ma senza metterla adeguatamente in sicurezza

Pubblicato il 24 set 2024

Luca Sambucci

Esperto di AI Security, Consulente dell'Unione Europea



AI generativa e il rischio Lethal trifecta: i tre fattori in gioco

Questa estate l’azienda PromptArmor ha scoperto una seria vulnerabilità in Slack AI, un servizio del software di messaggistica aziendale Slack: attraverso la tecnica dell’indirect prompt injection un attaccante avrebbe potuto sottrarre dati riservati anche da canali privati.

Continua a leggere questo articolo

Articoli correlati