Si stanno moltiplicando i casi in cui modelli di intelligenza artificiale generativa vengono coinvolti nella diffusione involontaria di contenuti sensibili o controversi, sollevando interrogativi sulla loro affidabilità, specialmente quando integrati in piattaforme sociali ad alto traffico.
genAI e disinformazione
Grok, allarme etico: fake news e razzismo con l’AI di Musk
Anche il modello di intelligenza artificiale generativa di Elon Musk, integrata direttamente nella piattaforma X (ex Twitter), è coinvolto in un nuovo caso di veicolazione involontaria di contenuti fuorvianti o polarizzanti. Ecco perché desta preoccupazione tra esperti di IA, etica digitale e disinformazione
Analista Hermes Bay
Senior Security & Osint Analyst, Hermes Bay

Continua a leggere questo articolo
Who's Who
Argomenti
Canali
SPAZIO CISO
-

Cyber Resilience Act (CRA): come il bollino CE cambia il procurement software in azienda
28 Apr 2026 -

Gestire informazioni e asset sensibili: vale sempre la regola del “fidati, ma verifica”
28 Apr 2026 -

Mythos non ci salverà: la vera battaglia della sicurezza AI si gioca altrove
23 Apr 2026 -

Smart working, ma senza rischi: come la ISO/IEC 27001 protegge il lavoro remoto
23 Apr 2026 -

Manutenzione dati: dall’air gap al bridge unidirezionale, se la fisica protegge meglio del firewall
21 Apr 2026












