Si stanno moltiplicando i casi in cui modelli di intelligenza artificiale generativa vengono coinvolti nella diffusione involontaria di contenuti sensibili o controversi, sollevando interrogativi sulla loro affidabilità, specialmente quando integrati in piattaforme sociali ad alto traffico.
genAI e disinformazione
Grok, allarme etico: fake news e razzismo con l’AI di Musk
Anche il modello di intelligenza artificiale generativa di Elon Musk, integrata direttamente nella piattaforma X (ex Twitter), è coinvolto in un nuovo caso di veicolazione involontaria di contenuti fuorvianti o polarizzanti. Ecco perché desta preoccupazione tra esperti di IA, etica digitale e disinformazione
Analista Hermes Bay
Senior Security & Osint Analyst, Hermes Bay

Continua a leggere questo articolo
Who's Who
Argomenti
Canali
SPAZIO CISO
-

Attacco a Intuitive: l’ecosistema della chirurgia robotica a rischio per una password rubata
17 Mar 2026 -

Un adesivo colorato che salva la sicurezza nazionale: il ciclo di vita dell’Asset Security
17 Mar 2026 -

La guerra ibrida che non abbiamo chiesto: la minaccia iraniana
16 Mar 2026 -

DORA, regolamento UE per la resilienza operativa: guida alla conformità per banche e fornitori ICT
16 Mar 2026 -

Quando il quantum colpirà, l’agilità crittografica sarà il vero vantaggio competitivo
13 Mar 2026












