nuove minacce

Data poisoning: cos’è e come proteggersi dall’avvelenamento dei modelli di AI generativa



Indirizzo copiato

Secondo uno studio, condotto da Anthropic, in collaborazione con il UK AI Security Institute e l’Alan Turing Institute, meno dello 0,0002% del dataset complessivo di addestramento pre-training è sufficiente per il data poisoning: bastano 250 documenti malevoli per avvelenare un modello di AI generativa. Ecco le misure di mitigazione

Pubblicato il 8 gen 2026

Francesco Iezzi

Cybersecurity Specialist NHOA



data poisoning; Bastano 250 documenti malevoli per avvelenare un modello di AI generativa: come proteggersi da data poisoning
(Immagine: pixabay.com/geralt)

L’intelligenza artificiale generativa ha assunto un ruolo centrale nelle operazioni aziendali, con i modelli linguistici di grandi dimensioni (Large Language Models, LLM) che supportano chatbot, sistemi di analisi e strumenti di automazione, contribuendo a incrementi significativi di efficienza e produttività.

Continua a leggere questo articolo

Articoli correlati

0
Lascia un commento, la tua opinione conta.x