cyber difesa

Anthropic Claude Code Security: l’AI è parte integrante della superficie d’attacco e della difesa



Indirizzo copiato

I modelli linguistici di grandi dimensioni (LLM) testimoniano potenzialità in crescita sia nel generare codice che nelle attività cyber. Ecco quali vantaggi offre Anthropic Claude Code Security e come mitigare i rischi

Pubblicato il 25 feb 2026



OpenAI e Anthropic si aprono all'USAISI; Anthropic Claude Code Security: l'AI è parte integrante della superficie di attacco e della difesa

Debutta Anthropic Claude Code Security, “dopo due anni di test interni e inizialmente disponibile per un numero limitato di clienti”, volta a migliorare la sicurezza informatica delle aziende per mitigare i rischi di spionaggio cyber industriale. In particolare riduce vaste portii del processo di revisione della security.

“L’arrivo di soluzioni come Claude Code Security conferma una tendenza chiara: l’AI non è più solo un moltiplicatore di produttività, ma diventa parte integrante della superficie di attacco e quindi della difesa”, commenta Sandro Sana, Ethical Hacker e membro Comitato Scientifico Cyber 4.0.

Secondo Alessandro Curioni, Fondatore di DI.GI Academy, specializzato in Information Security & Cybersecurity, “era ora, considerando che da fin troppo tempo andiamo dicendo che i criminali sono bravissimi nell’applicare soluzioni IA, mentre i “buoni” stentavano a mettere a terra soluzioni interessanti”.

Ecco i vantaggi e le problematiche del vibe coding.

Anthropic lancia Claude Code Security: quali vantaggi offre

Con Claude Code Security, Anthropic intende potenziare il ruolo dell’AI, “non solo come acceleratore dello sviluppo software, ma come strumento chiave nel proteggere il codice in un ecosistema digitale sempre più complesso e automatizzato“.

Inoltre Claude Code Security si può abilitare soltanto su codice di proprietà dell’azienda statunitense mediante l’accesso, codice di cui detiene i diritti di scansione. “Non è consentito l’impiego su codice di terze parti, software concesso in licenza o progetti open source“.

Nell’ultimo biennio, i modelli linguistici di grandi dimensioni (LLM) testimoniano potenzialità in crescita sia nel generare codice che nelle attività cyber. Infatti, da un lato, mettono la quarta allo sviluppo di siti, app e tool digitali, tuttavia, al contempo, riducono la soglia tecnica per generarli, alimentando i rischi cyber.

L’azienda statunitense ha spiegato che “una percentuale significativa del codice globale sarà presto analizzata dall’AI“, attraverso la capacità dei modelli di identificare vulnerabilità celate e criticità lato security rimaste per anni senza risposte.

Ma la doppia faccia (offensiva e difensiva) dell’AI fa sì che cybercriminali la usino per velocizzare la scansionare in ambienti IT a caccia di bug o debolezze da sfruttare.

Infatti occorre “evitare di cadere in facili entusiasmi o peggio essere convinti che questa come altre possa essere la soluzione definitiva al problema”, spiega Curioni.

Secondo Anthropic, grazie al vibe coding (lo sviluppo di codice con assistenza da parte dell’AI) la domanda di scansioni automatiche delle falle metterà la freccia su quella delle revisioni manuali classiche.

“Il rischio di cyberspionaggio tramite codice generato o analizzato da modelli AI è reale e spesso sottovalutato dalle aziende”, mette in guardia Sandro Sana.

Una governance solida per mitigare i rischi

Anthropic ha affermato che Anthropic Claude Code Security:

  • è in grado di leggere ed interpretare il codice come un ricercatore umano;
  • è capace di comprendere l’interazione fra diversi componenti del software;
  • sa tracciare il flusso dei dati;
  • identifica vulneravilità critiche che potrebbero passare inosservate alle analisi statiche tradizionali.

Un processo di verifica multi-stadio verifica la vulnerabilità trovata. “Sappiamo che l’IA è potente e veloce, ma non infallibile e la situazione peggiore in cui potremmo trovarci è quella di sviluppare un senso di sicurezza tragicamente falso”, avverte Curioni.

Claude infatti passa a riesaminare i risultati, per conferma o smentita, al fine di tagliare i falsi positivi. Inoltre, si classificano le segnalazioni in base alla criticità, permettendo agli esperti di cyber security di risolvere le falle più gravi.

“Strumenti di questo tipo sono utili solo se inseriti in una governance solida: controllo dei dati, segregazione degli ambienti e principio di least privilege restano imprescindibili. L’AI può aiutare, ma non sostituisce la responsabilità umana né una strategia di sicurezza matura. Chi pensa al “tool magico” sta già sbagliando prospettiva”, conclude Sandro Sana.

guest

0 Commenti
Più recenti
Più votati
Inline Feedback
Vedi tutti i commenti

Articoli correlati

0
Lascia un commento, la tua opinione conta.x