L’intelligenza artificiale generativa ha assunto un ruolo centrale nelle operazioni aziendali, con i modelli linguistici di grandi dimensioni (Large Language Models, LLM) che supportano chatbot, sistemi di analisi e strumenti di automazione, contribuendo a incrementi significativi di efficienza e produttività.
nuove minacce
Data poisoning: cos’è e come proteggersi dall’avvelenamento dei modelli di AI generativa
Secondo uno studio, condotto da Anthropic, in collaborazione con il UK AI Security Institute e l’Alan Turing Institute, meno dello 0,0002% del dataset complessivo di addestramento pre-training è sufficiente per il data poisoning: bastano 250 documenti malevoli per avvelenare un modello di AI generativa. Ecco le misure di mitigazione
Cybersecurity Specialist NHOA

Continua a leggere questo articolo
Who's Who
Argomenti
Canali
Con o Senza – Galaxy AI per il business












