L’impiego di agenti di IA nella cyber security, se basato su dati obsoleti o inaccurati, può portare alla generazione di allucinazioni da parte dell’IA stessa. Tali allucinazioni possono creare vulnerabilità inesistenti o interpretare erroneamente le minacce, generando avvisi non necessari, oltre che rischiare di distogliere risorse dalle minacce autentiche, creando nuove vulnerabilità, oltre che sprecare le risorse preziose, ma limitate, del team di Security Operations (SecOps).
l’approfondimento
Allucinazioni dell’IA: misuriamo il rischio per la cyber security
Questi “errori” rappresentano un problema critico nella cyber security basata sull’IA, poiché possono portare a gravi vulnerabilità, erodere la fiducia nei sistemi automatizzati e causare un’errata allocazione di tempo e risorse
Business Continuity & Risk Management Consultant, BCI Cyber Resilience Committee Member, CLUSIT Direttivo, ENIA Comitato Scientifico

Continua a leggere questo articolo
Who's Who
Argomenti
Canali
Con o Senza – Galaxy AI per il business












