Lo scorso 28 novembre 2024, il Committee on Artificial Intelligence (CAI) del Consiglio d’Europa ha adottato la metodologia HUDERIA che ha come obiettivo quello di delineare un approccio strutturato per la valutazione del rischio e dell’impatto dei sistemi di intelligenza artificiale (IA) dal punto di vista dei diritti umani (human rights – HU), della democrazia (democracy – DE) e dello Stato di diritto (rule of law – R) (“HUDERIA”).
DAL CONSIGLIO d'europa
Analisi del rischio e d’impatto dei sistemi di IA: la metodologia europea HUDERIA
Con l’adozione della metodologia HUDERIA il Consiglio d’Europa ha definito un approccio comune per la valutazione del rischio e dell’impatto dei sistemi di IA dal punto di vista dei diritti umani, della democrazia e dello Stato di diritto. Ecco i punti salienti
International Research Fellow @ ISLC (UNIMI)

Continua a leggere questo articolo
Who's Who
Argomenti
Canali
SPAZIO CISO
-

Cyber Resilience Act (CRA): come il bollino CE cambia il procurement software in azienda
28 Apr 2026 -

Gestire informazioni e asset sensibili: vale sempre la regola del “fidati, ma verifica”
28 Apr 2026 -

Mythos non ci salverà: la vera battaglia della sicurezza AI si gioca altrove
23 Apr 2026 -

Smart working, ma senza rischi: come la ISO/IEC 27001 protegge il lavoro remoto
23 Apr 2026 -

Manutenzione dati: dall’air gap al bridge unidirezionale, se la fisica protegge meglio del firewall
21 Apr 2026








