Un report del ricercatore di sicurezza Johann Rehberger ha evidenziato una grave vulnerabilità nel sistema di memoria a lungo termine di ChatGPT.
l'analisi tecnica
AI e falsi ricordi: il problema della sicurezza nella memoria a lungo termine di ChatGPT
La capacità degli attaccanti di manipolare la memoria a lungo termine di ChatGPT attraverso tecniche di “prompt injection indiretta” apre scenari rilevanti per la sicurezza. Se l’AI può memorizzare informazioni false e agire basandosi su di esse, le implicazioni per chi si affida al servizio per attività mission-critical sono preoccupanti
Esperto di AI Security, Consulente dell'Unione Europea

Continua a leggere questo articolo
Who's Who
Argomenti
Canali
SPAZIO CISO
-

Cyber Resilience Act (CRA): come il bollino CE cambia il procurement software in azienda
28 Apr 2026 -

Gestire informazioni e asset sensibili: vale sempre la regola del “fidati, ma verifica”
28 Apr 2026 -

Mythos non ci salverà: la vera battaglia della sicurezza AI si gioca altrove
23 Apr 2026 -

Smart working, ma senza rischi: come la ISO/IEC 27001 protegge il lavoro remoto
23 Apr 2026 -

Manutenzione dati: dall’air gap al bridge unidirezionale, se la fisica protegge meglio del firewall
21 Apr 2026











