L’integrazione pervasiva dei sistemi di intelligenza artificiale (AI), in particolare dei Large Language Models (LLM), in applicazioni critiche pone questioni fondamentali riguardo alla sicurezza e all’affidabilità operativa.
intelligenza artificiale
Analisi dei processi e teoria dei sistemi: un framework per mitigare i rischi dei LLM
L’integrazione dei Large Language Models (LLM) in applicazioni critiche pone questioni fondamentali riguardo alla sicurezza e all’affidabilità operativa. Ecco un approccio sistematico alla valutazione dei rischi nei sistemi AI attraverso l’analisi dei processi e la teoria dei sistemi (STPA)
Information Security & Digital Forensics Analyst and Trainer

Continua a leggere questo articolo
Who's Who
Argomenti
Canali
Con o Senza – Galaxy AI per il business

SPAZIO CISO
-

Quando il vecchio PC va in pensione, ma i dati restano al lavoro
03 Mar 2026 -

Fiducia zero nell’AI: la convergenza tra verifica, sicurezza offensiva e disinformazione
26 Feb 2026 -

Password manager, tra promesse di inattaccabilità e lacune nella sicurezza
25 Feb 2026 -

Come difendersi dai sistemi di Agentic AI: serve più cultura organizzativa
25 Feb 2026 -

Whaling e CEO Fraud: perché il pesce grosso è il più facile da pescare
24 Feb 2026















