nuove minacce

AI agentica: l’intelligenza artificiale corre, ma serve una collaborazione sicura per mitigarne i rischi



Indirizzo copiato

L’AI sta rivoluzionando il digital workspace in agentico, in cui a svolgere le attività non sono più solo le persone, ma anche l’AI agentica operante in autonomia. Ecco come mitigare i rischi

Pubblicato il 20 gen 2026



Agentic AI tra potere, autonomia e rischi: i due scenari più temibili; IA agentica, il nuovo complice degli hacker; AI agentica: l'intelligenza artificiale corre, ma serve una collaborazione
wallpaperflare.com

L’agentic AI è la protagonista del 2026. Tuttavia, mentre i sistemi agentici permettono la gestione di ogni attività, dal supporto clienti all’automazione della sicurezza, si moltiplicano le sfide connesse a qualità dei dati, security e privacy.

“Le Agentic AI non sono chatbot: sono colleghi digitali con mani sulla console. Se dai loro permessi larghi, non stai automatizzando: stai delegando il rischio”, commenta Sandro Sana, Ethical Hacker e membro del comitato scientifico Cyber 4.0.

“Fino a oggi abbiamo letto il rischio dell’AI attraverso il paradigma delle tre V”, secondo Francesco Iezzi, Cybersecurity Specialist NHOA.

Ecco quali sono le “tre V” e come mitigare i rischi.

Il paradigma delle “tre V” più una dell’AI agentica

Il paradigma delle “tre V” prende il nome da “velocità, volume e veridicità”, spiega Francesco Iezzi:

  • velocità, perché l’AI opera in tempi estremamente rapidi;
  • volume, perché può scalare azioni e attacchi in modo potenzialmente illimitato;
  • veridicità, perché rende sempre più difficile distinguere ciò che è autentico da ciò che è artefatto”.

Ma “l’avvento dell’agentic AI introduce però una discontinuità sostanziale e aggiunge una quarta V: la volizione“, avverte Francesco Iezzi: “Non parliamo più di sistemi che eseguono singoli task, ma di agenti orientati a obiettivi, capaci di prendere decisioni in autonomia e di scegliere in modo indipendente il percorso per raggiungerli”.

Sio tratta dunque di un “cambio di paradigma” che, secondo Francesco Iezzi, “modifica radicalmente il profilo di rischio dell’AI in azienda. Il punto non è più solo governare accessi o autorizzazioni su azioni puntuali, ma capire come sistemi autonomi possano muoversi dentro i processi, attivando catene di azioni e interconnessioni spesso non previste o non documentate”.

Le sfide dell’AI agentica

Secondo Patrick Joyce, Global Resident CISO di Proofpoint, le ramificazioni dell’AI agentica potrebbero non essere quelle previste, ma la loro implementazione avrà una ripida curva di apprendimento.

Gli attriti riguardano data quality, sicurezza e privacy: potranno rallentare l’adozione su vasta scala. Invece l’interoperabilità dei sistemi comporterà ulteriori sfide.

Tuttavia, per il paradigma delle 4 V, “l’Agentic AI non crea un problema del tutto nuovo: amplifica una criticità già presente e spesso sottovalutata, cioè la scarsa consapevolezza del perimetro reale dei sistemi aziendali“, aggiunge Francesco Iezzi.

L’AI agentica è infatti frutto dell’evoluzione rispetto agli strumenti di GenAI. Non rappresenta un assistente passivo, ma un sistema autonomo in grado di agire in maniera indipendente.

Secondo le società di analisi di Gartner e Idc, è una delle principali tendenze tecnologiche strategiche. Da un mondo dove gli utenti “definiscono la soluzione” si passa a uno in cui “enunciano il problema” che l’agente si occuperà di risolvere.

Ma l’AI non trasforma solo il digital workspace in agentico, ma le attività non più svolte solo da persone, vedono in azione agenti AI che operano in autonomia.

“Un agente compromesso non ruba solo dati: fa azioni (email, ticket, pagamenti, reset, deploy) al posto tuo”, avverte Sandro Sana.

Progetti pilota e partnership strategiche promettono di trasformare interi settori, ma il rischio è reale e soltanto chi abbraccerà governance e pazienza potrà radicalmente cambiare il panorama, senza correre eccessivi pericoli.

“La domanda non è ‘quanto è smart’, ma chi controlla identità, autorizzazioni e log”, avverte Sandro Sana.

Infatti, “dire a un agente ‘raggiungi l’obiettivo Z’ senza sapere quali percorsi potrebbe intraprendere equivale a rinunciare al controllo operativo”, mette in guardia Francesco Iezzi: “Ed è qui che la quarta V, la volizione, rende il rischio sistemico: non perché l’agente sia intrinsecamente pericoloso, ma perché agisce in ambienti che spesso non comprendiamo fino in fondo“.

Come mitigare i rischi dell’AI agentica

Gli agenti AI sono in grado di consumare, generare e manipolare informazioni,
estendendo così il perimetro d’attacco.

“Senza guardrail, approval e audit seri, l’Agentic AI diventa un acceleratore per gli attaccanti”, mette in guardia Sandro Sana.

Infatti “prima di governance, audit o policy, il primo passo resta lo stesso: conoscere ciò che si deve proteggere“, conferma Francesco Iezzi: “Senza una mappatura chiara di dipendenze, interdipendenze, connessioni e interconnessioni tra sistemi, diventa impraticabile mettere in sicurezza agenti che operano in autonomia”.

Per proteggere sia le persone che gli agenti AI, occorre dunque mappare le interazioni delle minacce, il rischio dei dati e prevedere gateway e controlli agent-aware.

“La posta in gioco è alta: nel workspace agentico, persone e agenti affrontano rischi paralleli, dall’ingegneria sociale alle identità compromesse o alla fuga accidentale di dati”, avverte Patrick Joyce, Global Resident CISO di Proofpoint.

La “prompt injection” (prompt malevoli celati nel contenuto) prendono di mira l’AI agentica: una piattaforma di nuova generazione deve effettuare il rilevamento e il blocco di questi exploit basati su prompt.

Inoltre serve una visibilità unificata sui dati strutturati e non, mediante SaaS, cloud e canali di collaborazione. Dunque è necessario classificare, controllare gli accessi, monitorare l’uso e applicare policy di governance in modo automatico, anche per l’accesso da parte dell’AI.

Infine “gateway per agenti” offrono un piano di controllo per l’AI, attraverso l’applicazione di policy sui dati, prevenzione dell’esposizione non autorizzata e monitoraggio dell’attività. Gli agenti stessi richiedono affidabilità e governance.

“Benvenuti nel 2026: l’AI corre. La sicurezza, se va bene, annaspa“, conclude Sandro Sana.

guest

0 Commenti
Più recenti
Più votati
Inline Feedback
Vedi tutti i commenti

Articoli correlati

0
Lascia un commento, la tua opinione conta.x