L’analisi

Fiducia zero nell’AI: la convergenza tra verifica, sicurezza offensiva e disinformazione



Indirizzo copiato

Il nuovo numero della rivista IEEE Computer accende un faro sulla convergenza tra reti di agenti AI, la verifica dell’identità delle macchine e la resilienza dei sistemi cognitivi. Ecco tre risposte autorevoli e scientifiche alla domanda chiave del CISO, mentre la fiducia algoritmica non sarà più un attributo implicito, ma una metrica da verificare continuamente

Pubblicato il 26 feb 2026

Aldo Ceccarelli

Information security compliance officer



Fiducia zero AI

Nel panorama caotico dell’informazione tecnologica, dove l’hype spesso oscura la sostanza, poche fonti mantengono il rigore e l’autorevolezza della rivista Computer, pubblicazione di punta della IEEE Computer Society, una rivista peer-reviewed che, da quasi ottant’anni, rappresenta un faro per la comunità scientifica e professionale globale, colmando il divario tra la ricerca accademica di frontiera e l’applicazione pratica industriale.

Per un CISO o un membro del board focalizzato sull’Enterprise Risk Management (ERM), in cerca di anticipazioni validate su ciò che diventerà standard tra tre-cinque anni, il numero pubblicato il 16 febbraio offre una disamina cruciale su un tema che sta rapidamente scalando le priorità dei consigli di amministrazione: la convergenza tra reti di agenti AI, la verifica dell’identità delle macchine e la resilienza dei sistemi cognitivi.

Il nuovo paradigma: dall’adozione alla verifica dell’AI

L’argomento prevalente di questo numero, intitolato “AI Agent Networks, AI Turing Test, and Empathetic AI”, segna un punto di svolta fondamentale.

Fino a ieri, la preoccupazione principale dei CISO era proteggere l’infrastruttura dall’AI o proteggere l’AI dagli attacchi esterni.

Oggi, la sfida si sposta sulla governance dell’integrità operativa. Con la proliferazione di agenti AI decentralizzati e autonomi, la domanda che
risuona nei corridoi del risk management non è più solo “È sicuro?”, ma “È autentico?” e “Sta eseguendo ciò che dichiara di eseguire?”.

Per chi gestisce la governance del rischio i ricercatori qui evidenziano che il pericolo imminente risiede nella “zona grigia” dove l’interazione uomo-macchina e macchina-macchina diventa indistinguibile e, potenzialmente, inaffidabile.

L’integrazione di questi sistemi nell’ERM richiede nuovi framework per validare non solo il codice, ma il comportamento e l’origine degli output generati.

Tre risposte scientifiche alla domanda chiave del CISO di oggi

La domanda che i responsabili della sicurezza e della governance si pongono sempre più spesso con insistenza è: “Come possiamo garantire l’affidabilità, la sicurezza e l’integrità informativa dei sistemi AI che stiamo integrando nei processi critici aziendali, fronteggiando al contempo l’uso avversario delle stesse tecnologie?“.

Ecco tre articoli che offrono risposte empiriche e metodologiche a questo
interrogativo:

  • la validazione dei fornitori AI in un ecosistema decentralizzato;
  • l’AI come alleato e nemico nel testing di sicurezza;
  • la contaminazione dell’ecosistema informativo.

La validazione dei fornitori AI in un ecosistema decentralizzato

Il primo articolo, essenziale per la gestione del rischio di terza parte (TPRM), è “Trust, but Verify” di Michael J. Yuan, Carlos Lospoy, Sydney Lai, James Snewin e Ju Long (pubblicato in Computer, vol. 59, no. 2, pp. 28–38, Feb. 2026).

Gli autori affrontano qui un problema emergente nelle reti di inferenza AI decentralizzate: come sapere se un nodo (un fornitore di servizi AI) sta realmente eseguendo il modello LLM (Large Language Model) concordato e non una versione più economica, meno sicura o corrotta.

Attraverso esperimenti su nodi “Gaia”, gli autori dimostrano che è possibile rilevare nodi disonesti utilizzando il “consenso sociale” tra pari e l’analisi vettoriale degli output (embedding space).

Hanno scoperto che le risposte generate da modelli diversi o knowledge base diverse formano distribuzioni statistiche distinte.

Per esempio, la distanza vettoriale media tra le risposte di un modello Llama-3.1-8b e un Gemma-2-27b è sufficientemente ampia da essere rilevata algoritmicamente.
Ho trovato questo studio molto utile per i CISO ed esperti di risk management perché fornisce una base tecnica per i contratti di servizio AI.

Non ci si può più affidare alla fiducia cieca verso i fornitori di API AI. Gli utilizzatori devono implementare meccanismi di validazione (come quelli proposti basati su consensus e slashing criptoeconomico) per garantire che l’AI integrata nei processi aziendali sia conforme alle specifiche pattuite, mitigando rischi di frode e non conformità operativa.

L’AI come alleato e nemico nel testing di sicurezza

Il secondo contributo sposta il focus sulla sicurezza applicativa ed è firmato da autorità del calibro di Antonio Mastropaolo, Rick Kuhn e Jeffrey Voas (IEEE Fellow): “LLM-Powered Security Test Generation: Oracles, Vulnerability Probes, and Adversarial Inputs” (pubblicato in Computer, vol. 59, no. 2, pp. 101–107, Feb. 2026).

La tesi di questo articolo sostiene che gli LLM stiano trasformando il security testing permettendo tre attività prima impossibili su larga scala:

  • la sintesi di “oracoli” di test basati su invarianti (quando non esiste una “verità” esplicita);
  • la traduzione automatica di cataloghi di vulnerabilità (come CWE e CVE) in test eseguibili;
  • e la creazione di input avversari creativi (fuzzing intelligente).

I risultati forniti dagli autori della ricerca citano evidenze recenti, come l’agente “FaultLine” che, partendo da descrizioni CVE, ha generato exploit funzionanti per il 16% delle vulnerabilità testate, superando gli strumenti tradizionali.

Inoltre, evidenziano come GPT-4 sia stato in grado di generare exploit per il 87% delle vulnerabilità critiche “one-day” quando fornito delle descrizioni CVE.

Per CISO ed Enterprise Risk Manager questo “suona” sia come un campanello d’allarme che come un’opportunità.

Da un lato, l’ERM deve considerare che il “tempo di esposizione” per le vulnerabilità note (One-Day) è drasticamente ridotto: gli attaccanti usano l’AI per weaponizzare le patch non applicate quasi istantaneamente.

Dall’altro, i CISO devono integrare strumenti di LLM-driven testing nelle pipeline CI/CD per anticipare questi attacchi, trasformando le descrizioni teoriche di rischio (OWASP Top 10) in test di regressione automatici.

La contaminazione dell’ecosistema informativo

Il terzo articolo affronta il rischio reputazionale e l’integrità dei dati: “Beyond Speculation: Measuring the Growing Presence of Large Language Model-Generated Texts in Multilingual Disinformation” di Dominik Macko, Aashish Anantha Ramakrishnan, Jason S. Lucas, Robert Moro, Ivan Srba, Adaku Uchendu, e Dongwon Lee (pubblicato in Computer, vol. 59, no. 2, pp. 93–100, Feb. 2026).

Lo studio qui è stato condotto com estremo rigore per quantificare empiricamente, “oltre la speculazione”, quanto i testi generati da LLM stiano permeando i dataset di disinformazione nel mondo reale.

I risultati della ricerca sono stati ottenuti dagli autori utilizzando rilevatori multilingue calibrati, i ricercatori hanno dimostrato un aumento tangibile della prevalenza di contenuti generati da macchine nei dataset di fact-checking (come MultiClaim), passando da livelli trascurabili a percentuali significative (fino al 2.15% nel 2024 e in crescita).

In questo modo è stato rilevato che l’uso dell’AI per la disinformazione non è uniforme, ma mira specificamente a contesti vulnerabili e lingue specifiche.

Prospettive future

Nel futuro prossimo, la fiducia algoritmica non sarà più un attributo implicito, ma una metrica da verificare continuamente.

Abbiamo visto come validare l’identità dei modelli, come usare l’AI per testare la sicurezza stessa e come difenderci dall’inquinamento informativo.

Tuttavia, mentre ci attrezziamo per verificare gli LLM attuali, emerge all’orizzonte una nuova sfida, suggerita dalla sezione IT Innovation della stessa rivista: l’avvento delle architetture a modelli compositi (CMA) e dell’AI Agentica.

Rimane aperta la domanda, che induce anche a una riflessione molto interessante per i board: “Se il futuro dell’AI aziendale risiede in sistemi ‘agentici’ autonomi capaci di pianificare ed eseguire task complessi orchestrando molteplici modelli specializzati, come evolverà la responsabilità civile e penale dell’azienda quando un’azione dannosa non sarà riconducibile a un singolo bug, ma a un’interazione imprevista tra agenti autonomi verificati singolarmente, ma non nel loro insieme?”.

Le ricerche attuali suggeriscono che la risposta risieda nello spostamento dal model-centric al system-centric AI, ma bisogna capire se i framework di governance siano pronti per auditare le “intenzioni” di una flotta di agenti autonomi.

La domanda resta inevasa in cerca di risposta.

guest

0 Commenti
Più recenti
Più votati
Inline Feedback
Vedi tutti i commenti

Articoli correlati

0
Lascia un commento, la tua opinione conta.x