Lo scorso 28 novembre 2024, il Committee on Artificial Intelligence (CAI) del Consiglio d’Europa ha adottato la metodologia HUDERIA che ha come obiettivo quello di delineare un approccio strutturato per la valutazione del rischio e dell’impatto dei sistemi di intelligenza artificiale (IA) dal punto di vista dei diritti umani (human rights – HU), della democrazia (democracy – DE) e dello Stato di diritto (rule of law – R) (“HUDERIA”).
DAL CONSIGLIO d’europa
Analisi del rischio e d’impatto dei sistemi di IA: la metodologia europea HUDERIA
Con l’adozione della metodologia HUDERIA il Consiglio d’Europa ha definito un approccio comune per la valutazione del rischio e dell’impatto dei sistemi di IA dal punto di vista dei diritti umani, della democrazia e dello Stato di diritto. Ecco i punti salienti
International Research Fellow @ ISLC (UNIMI)

Continua a leggere questo articolo
Who's Who
Argomenti
Canali
SPAZIO CISO
-

Asset Security e classificazione: quando un’etichetta vale più di un firewall
10 Mar 2026 -

Esclusioni e premi assicurativi in rialzo: l’effetto NIS2 e Cyber Resilience Act sulle polizze cyber
05 Mar 2026 -

Quando il vecchio PC va in pensione, ma i dati restano al lavoro
03 Mar 2026 -

Fiducia zero nell’AI: la convergenza tra verifica, sicurezza offensiva e disinformazione
26 Feb 2026 -

Password manager, tra promesse di inattaccabilità e lacune nella sicurezza
25 Feb 2026









