Un report del ricercatore di sicurezza Johann Rehberger ha evidenziato una grave vulnerabilità nel sistema di memoria a lungo termine di ChatGPT.
l’analisi tecnica
AI e falsi ricordi: il problema della sicurezza nella memoria a lungo termine di ChatGPT
La capacità degli attaccanti di manipolare la memoria a lungo termine di ChatGPT attraverso tecniche di “prompt injection indiretta” apre scenari rilevanti per la sicurezza. Se l’AI può memorizzare informazioni false e agire basandosi su di esse, le implicazioni per chi si affida al servizio per attività mission-critical sono preoccupanti
Esperto di AI Security, Consulente dell'Unione Europea

Continua a leggere questo articolo
Who's Who
Argomenti
Canali
SPAZIO CISO
-

Quando il quantum colpirà, l’agilità crittografica sarà il vero vantaggio competitivo
13 Mar 2026 -

Oltre l’RSA: la migrazione verso la crittografia post-quantum secondo gli standard NIST
13 Mar 2026 -

Asset Security e classificazione: quando un’etichetta vale più di un firewall
10 Mar 2026 -

Esclusioni e premi assicurativi in rialzo: l’effetto NIS2 e Cyber Resilience Act sulle polizze cyber
05 Mar 2026 -

Quando il vecchio PC va in pensione, ma i dati restano al lavoro
03 Mar 2026











