Un nuovo e insidioso attacco informatico sta sfruttando la crescente popolarità dei Large Language Model (LLM) per compromettere la sicurezza degli utenti. I ricercatori del Global Research & Analysis Team (GReAT) di Kaspersky hanno individuato una campagna malevola che sfrutta un falso sito web di DeepSeek, uno dei modelli di intelligenza artificiale open-source più scaricati del momento, per distribuire un malware sofisticato chiamato BrowserVenom.
Il vettore d’infezione è una versione contraffatta dell’applicazione DeepSeek-R1 LLM per PC, promossa attivamente attraverso annunci sponsorizzati su Google Ads.
Gli utenti che cercano “deepseek r1” nei motori di ricerca vengono indirizzati a un sito clone, studiato per replicare fedelmente la homepage ufficiale della piattaforma.
Una volta giunti sul sito, il download malevolo è attivato solo se viene rilevato un sistema operativo Windows: in tal caso, all’utente viene proposto il download di strumenti per l’esecuzione offline di modelli AI, come Ollama o LM Studio.
Indice degli argomenti
Il meccanismo tecnico dell’infezione
Il payload scaricato comprende effettivamente una copia legittima dei tool AI richiesti, ma è accompagnato in modo subdolo dal malware BrowserVenom.
L’esecuzione avviene solo se l’utente Windows dispone di privilegi amministrativi – una scelta tecnica che consente al malware di eseguire modifiche profonde al sistema, eludendo anche la protezione di Windows Defender tramite uno specifico algoritmo di evasione.

Una volta installato, BrowserVenom riconfigura tutti i browser presenti sul sistema per instradare il traffico web attraverso un proxy controllato dagli attaccanti. Questo tipo di attacco MITM (Man-In-The-Middle) permette ai criminali di intercettare credenziali, sessioni attive e dati personali, compromettendo gravemente la privacy dell’utente.
Target globale e diffusione
Secondo Kaspersky, l’attacco ha già colpito utenti in diversi Paesi, tra cui Brasile, Cuba, Messico, India, Nepal, Sudafrica ed Egitto. La scelta di Paesi con ecosistemi digitali in forte espansione, ma talvolta con minori controlli in termini di sicurezza informatica a livello individuale, indica una strategia mirata alla massimizzazione del rischio d’infezione.
Questo attacco mette in luce una tendenza crescente nella minaccia cyber: la weaponizzazione dell’hype per l’intelligenza artificiale. La possibilità di eseguire modelli AI localmente – una scelta che promette maggiore privacy e indipendenza da cloud si sta rivelando un’arma a doppio taglio.
I tool open-source, se scaricati da fonti non ufficiali, diventano il veicolo perfetto per infostealer, keylogger, e malware proxy-based come BrowserVenom.
“L’utilizzo offline degli LLM offre vantaggi indiscutibili, ma se l’installazione avviene senza le dovute cautele, si apre la porta a una serie di rischi molto concreti”, afferma Lisandro Ubiedo, Security Researcher del GReAT. “I criminali informatici si inseriscono proprio in questo spazio di fiducia implicita verso il software open-source”.
Best practice e mitigazione
Per contrastare attacchi simili, Kaspersky raccomanda alcune misure fondamentali:
- verificare sempre la correttezza degli URL e scaricare strumenti solo da siti ufficiali (es. ollama.com, lmstudio.ai);
- evitare l’uso di account amministrativi per operazioni quotidiane;
- utilizzare soluzioni di sicurezza avanzate capaci di rilevare comportamenti anomali, non solo firme malware note;
- prestare attenzione agli annunci sponsorizzati nei motori di ricerca, che possono essere manipolati per scopi fraudolenti.
La campagna scoperta da Kaspersky rappresenta un’evoluzione strategica nella distribuzione di malware: sfruttare strumenti di intelligenza artificiale e la fiducia che essi ispirano per colpire utenti esperti, ma disattenti.
In un contesto in cui l’AI sta rapidamente permeando tutti gli ambiti tecnologici, dalla programmazione alla cyber sicurezza, è fondamentale che anche la cultura della sicurezza evolva di pari passo.