Questa estate l’azienda PromptArmor ha scoperto una seria vulnerabilità in Slack AI, un servizio del software di messaggistica aziendale Slack: attraverso la tecnica dell’indirect prompt injection un attaccante avrebbe potuto sottrarre dati riservati anche da canali privati.
l’analisi tecnica
Prompt injection e vulnerabilità dei sistemi AI: cosa impariamo dal caso di Slack AI
Slack AI è stata vittima di una vulnerabilità classica in quest’epoca di LLM (Large Language Model): la prompt injection. Attaccanti avrebbero potuto prelevare dati riservati senza nemmeno accedere ai canali privati. Oggi le aziende si affrettano ad adottare l’AI, ma senza metterla adeguatamente in sicurezza
Esperto di AI Security, Consulente dell'Unione Europea

Continua a leggere questo articolo
Who's Who
Argomenti
Canali
Con o Senza – Galaxy AI per il business











