Questa estate l’azienda PromptArmor ha scoperto una seria vulnerabilità in Slack AI, un servizio del software di messaggistica aziendale Slack: attraverso la tecnica dell’indirect prompt injection un attaccante avrebbe potuto sottrarre dati riservati anche da canali privati.
l'analisi tecnica
Prompt injection e vulnerabilità dei sistemi AI: cosa impariamo dal caso di Slack AI
Slack AI è stata vittima di una vulnerabilità classica in quest’epoca di LLM (Large Language Model): la prompt injection. Attaccanti avrebbero potuto prelevare dati riservati senza nemmeno accedere ai canali privati. Oggi le aziende si affrettano ad adottare l’AI, ma senza metterla adeguatamente in sicurezza
Esperto di AI Security, Consulente dell'Unione Europea

Continua a leggere questo articolo
Who's Who
Argomenti
Canali
SPAZIO CISO
-

Cyber Resilience Act (CRA): come il bollino CE cambia il procurement software in azienda
28 Apr 2026 -

Gestire informazioni e asset sensibili: vale sempre la regola del “fidati, ma verifica”
28 Apr 2026 -

Mythos non ci salverà: la vera battaglia della sicurezza AI si gioca altrove
23 Apr 2026 -

Smart working, ma senza rischi: come la ISO/IEC 27001 protegge il lavoro remoto
23 Apr 2026 -

Manutenzione dati: dall’air gap al bridge unidirezionale, se la fisica protegge meglio del firewall
21 Apr 2026












