AI poisoning via SEO

Israele, Brad Parscale e AI poisoning: la nuova frontiera della disinformazione negli LLM



Indirizzo copiato

Israele ha assunto il consulente digitale Brad Parscale, ex manager della campagna presidenziale di Trump, per influenzare i risultati restituiti dai principali sistemi di AI generativa. Ecco perché si tratta di un caso studio rilevante per chiunque si occupi di cyber security, disinformazione e governance dell’informazione digitale

Pubblicato il 4 mag 2026

Luisa Franchina

Presidente Associazione Italiana Infrastrutture Critiche (AIIC)

Tommaso Diddi

Analista Hermes Bay



Bug della mente: perché la disinformazione è la vulnerabilità più pericolosa
AI Questions Icon
Chiedi all'AI
Riassumi questo articolo
Approfondisci con altre fonti

Quando si pensa alle guerre dell’informazione nell’era digitale, si è abituati a ragionare in termini di social media e campagne pubblicitarie mirate. Eppure, qualcosa è cambiato in modo strutturale: i grandi modelli di linguaggio, i large language model (LLM), sono diventati un nuovo terreno di contesa per governi, aziende e gruppi di interesse che intendono plasmare la percezione pubblica.

La vicenda, emersa nell’aprile 2026 e riportata da Axios, riguardante Israele e il consulente digitale repubblicano Brad Parscale rappresenta un caso studio di estrema rilevanza per chiunque si occupi di cyber security, disinformazione e governance dell’informazione digitale.

Israele assume Brad Parscale per una campagna di influenza basata sull’AI

Il contesto, da cui nasce questa iniziativa risale al settembre 2024, quando il governo israeliano ha ingaggiato Brad Parscale, già campaign manager della campagna presidenziale di Donald Trump nel 2020, per guidare una campagna pro-Israele sui social media.

Il mandato originario riguardava la comunicazione digitale tradizionale, ma si è rapidamente esteso a un obiettivo più ambizioso: influenzare i risultati restituiti dai principali sistemi di intelligenza artificiale generativa, tra cui ChatGPT, Claude e Gemini.

La motivazione dichiarata era che questi strumenti stessero producendo risposte con una narrativa sfavorevole a Israele, contribuendo a consolidare una percezione negativa del paese tra gli utenti che si affidano all’AI per informarsi.

Per comprendere la portata dell’operazione, è necessario capire come funzionano tecnicamente i sistemi a cui si rivolge questa strategia.

Un LLM puro genera testo a partire dai pesi appresi durante il training su grandi corpus di dati: in fase di inferenza non consulta fonti esterne, ma produce risposte sulla base di pattern statistici acquisiti in addestramento.

I sistemi RAG (Retrieval-Augmented Generation), invece, integrano un modulo di recupero che interroga basi documentali esterne al momento della risposta.

È su questo secondo scenario che la campagna di Parscale punta principalmente: rendere i propri contenuti sufficientemente strutturati e autorevoli da essere selezionati dai motori di ricerca e dagli indici documentali che alimentano questi sistemi ibridi, nonché da risultare ben rappresentati nei dataset usati per addestrare i modelli futuri.

I siti per la raccolta dati per il training e per i sistemi RAG: i criteri

L’operazione ha visto la creazione di nove siti web ad hoc, pensati per essere indicizzati dai motori di ricerca e dagli aggregatori di contenuti che costituiscono le fonti di raccolta dati per il training e per i sistemi RAG.

Tra questi figurano portali come paxpoint.org, dedicato alla pace e alla coesistenza, e factsignal.org, che si concentra sulla classificazione internazionale di Hamas come organizzazione terroristica.

I contenuti sono stati costruiti secondo criteri precisi: tono fattuale e neutro, struttura chiara e ben organizzata, riferimento a fonti attendibili.

Per testare l’efficacia di questa strategia, il team ha sviluppato una piattaforma AI ad hoc con cui verificare se i propri contenuti venissero effettivamente recuperati e incorporati nelle risposte generate.

L’azienda coinvolta è Market Brew, una società specializzata in search e AI
modeling in cui il fondo di Parscale ha investito.

La filosofia dell’operazione

Scott Stouffer, fondatore e CTO di Market Brew, ha sintetizzato la filosofia dell’operazione: non si tratta di manipolare direttamente i modelli AI, ma di rendere le proprie informazioni “idonee” ad essere recuperate nei contesti in cui il retrieval è attivo.

La distinzione è sottile, ma fondamentale dal punto di vista tecnico e giuridico. Influenzare un modello attraverso tecniche non autorizzate rientra in zone grigie o apertamente illegali. Strutturare contenuti online affinché siano percepiti come autorevoli dai sistemi di indicizzazione è, almeno in apparenza, una pratica legittima.

Le problematiche

Questo apre una serie di questioni critiche per il settore della cyber security. In primo luogo, si pone il problema dell’integrità delle fonti nei sistemi RAG: se attori statali o parastatali possono costruire reti di siti web progettati specificamente per sembrare autorevoli agli occhi degli algoritmi di indicizzazione, la catena di fiducia che alimenta questi sistemi risulta potenzialmente compromessa.

Non si tratta di una vulnerabilità tecnica nel senso tradizionale del termine, ma di un vettore di attacco che opera al livello semantico e reputazionale dell’informazione.

In secondo luogo, emerge la questione della trasparenza. I sistemi di AI generativa non dichiarano esplicitamente da quali fonti stiano attingendo per costruire una risposta, rendendo molto difficile per l’utente finale valutare se le informazioni ricevute siano state influenzate da campagne di questo tipo.

La stessa indagine di Axios ha rilevato che, cercando con termini tratti dai siti creati dal team di Parscale, ChatGPT non ha citato direttamente quelle fonti nelle proprie risposte.

Tuttavia, questo non esclude un’influenza indiretta, per esempio attraverso siti terzi che abbiano ripreso e amplificato quei contenuti, finendo così nei dataset di addestramento.

AI poisoning tramite SEO

La vicenda evidenzia un’area che merita attenzione crescente: quella che alcuni ricercatori già definiscono “AI poisoning through SEO“, ovvero il tentativo di orientare i comportamenti dei modelli attraverso la manipolazione delle fonti che ne alimentano il training o il retrieval.

Si tratta di un terreno ancora largamente inesplorato dal punto di vista normativo.

Le legislazioni esistenti in materia di disinformazione e propaganda digitale non coprono in modo esplicito questa pratica.

In Europa, l’AI Act e il Digital Services Act forniscono alcune basi normative, ma la loro applicazione a questo tipo di operazioni rimane una questione aperta che i legislatori dovranno affrontare con urgenza crescente. Per i professionisti della sicurezza informatica e per chi progetta sistemi basati su LLM, il caso offre indicazioni pratiche.

I sistemi RAG dovrebbero implementare meccanismi di verifica dell’autorevolezza delle fonti che vadano oltre la struttura formale del testo, includendo analisi della provenienza, dell’età del dominio e della rete di citazioni.

I modelli dovrebbero essere sottoposti ad audit periodici per rilevare derive comportamentali su temi sensibili, tenendo conto che queste possono originarsi non solo dai dati di training ma anche dalle fasi di fine-tuning e dai layer di policy applicati in fase di deployment.

Il quadro complessivo

La campagna israeliana rende esplicito un problema già esistente in forma latente: i modelli di linguaggio non sono strumenti neutri, e il loro comportamento dipende da una combinazione di fattori che include i dati di addestramento, le scelte di fine-tuning e le policy applicate dai singoli provider.

Chiunque disponga delle risorse economiche e delle competenze tecniche necessarie può tentare di agire su almeno uno di questi livelli.

Il governo israeliano ha stanziato 9 milioni di dollari per questa operazione e ha recentemente rinnovato il contratto con Parscale.

Dunque, è ragionevole ipotizzare che altri attori statali e non statali stiano conducendo campagne analoghe con obiettivi e risorse diverse.

guest

0 Commenti
Più recenti
Più votati
Inline Feedback
Vedi tutti i commenti

Articoli correlati

0
Lascia un commento, la tua opinione conta.x