Quella tra intelligenza artificiale e cyber security è una relazione complessa e ambivalente.
Se, infatti, da un lato l’AI permette di efficientare e accelerare la risposta alle minacce, dall’altro aumenta in modo esponenziale la superficie d’attacco potenzialmente esposta e da proteggere.
L’adozione dell’IA in azienda cresce a ritmi vertiginosi, ma richiede di sviluppare e concertare con gli utenti un approccio attento alla sicurezza e all’affidabilità di queste soluzioni.
Proprio il tema dell’AI Security, e dell’evoluzione in atto nel panorama normativo dell’intelligenza artificiale, è stato tra i più dibattuti durante la recente tappa italiana del Microsoft AI Tour, che ha richiamato a Milano nei giorni scorsi un folto pubblico di analisti, giornalisti, clienti, manager e partner della casa di Redmond.

Tamara Zancan, Business Development, Marketing, Microsoft Partner Advisor.
Indice degli argomenti
AI for Security: nuove minacce e nuove strategie di difesa
L’avvento dell’intelligenza artificiale ha sancito l’avvio di una nuova era nella cybersecurity, caratterizzata da una duplice dinamica: l’AI come obiettivo di attacchi e l’AI come strumento di difesa (AI for Security).
Di questi punti di vista contrapposti ma collegati hanno parlato sul palco Vito Francavilla e Antonio Formato, rispettivamente Cloud Solution Architect Security e Technical Specialist, Security & Compliance di Microsoft Italia.
“L’integrazione dell’AI nei sistemi aziendali – ha spiegato Francavilla– introduce nuove superfici di attacco che richiedono strategie di difesa innovative. Le minacce si estendono lungo l’intero ciclo di vita dei modelli AI, dal training al deployment. A livello di modello, tecniche sofisticate come il Model Theft o il Model Inversion rappresentano oggi minacce significative, che possono causare l’esposizione di dati sensibili o consentire la replica non autorizzata di modelli proprietari. Durante la fase di fine tuning, invece, emergono rischi come il Data Poisoning o l’inserimento di backdoor, che possono compromettere l’integrità e l’affidabilità dei modelli IA. Nel perimetro applicativo, dove avviene l’interazione tra utenti e sistemi di intelligenza artificiale, si manifestano rischi come il Sensitive Data Leakage, la Prompt Injection, la Data Exfiltration e gli attacchi Denial of Service (DoS – ndr) specifici per l’AI”.
Per contrastare queste minacce, Microsoft propone un approccio stratificato alla sicurezza. «Al primo livello – ha illustrato Formato – si trovano le misure di sicurezza tradizionali che proteggono l’infrastruttura IT sottostante. Il secondo livello si focalizza, invece, sulla sicurezza specifica per l’AI, implementando controlli mirati a proteggere modelli, dati di training e interfacce AI. Il terzo, infine, riguarda la governance e la compliance, mira a garantire che l’utilizzo dell’AI sia allineato con normative e standard etici. In un contesto di questo tipo, Microsoft Defender for Cloud rappresenta una soluzione efficace End to End, grazie alla sua capacità di presidiare diverse aree, dalla protezione di database e server fino ai container. In particolare si distinguono due ambiti fondamentali : la gestione della postura di sicurezza, attraverso Security Posture Management, e la protezione attiva contro le minacce AI, realizzata tramite Azure AI Content Safety”.
Intelligenza artificiale e cyber security: le buone prassi per un’innovazione responsabile
Secondo Andrea Gandini, Cloud Solution Architect di Microsoft Italia, per gestire adeguatamente i rischi dell’AI sarebbe auspicabile implementare in azienda un processo iterativo strutturato in 4 fasi – map, measure, mitigate, operate. “Microsoft offre un catalogo con oltre 1.800 modelli AI pre-addestrati tra cui scegliere quello più adatto al proprio caso d’uso, insieme a sistemi di sicurezza nativi come System Message & Grounding, che permette di istruire i modelli su cosa fare e non fare. La piattaforma Azure AI Foundry, il nostro hub di sviluppo per l’AI generativa, razionalizza la sicurezza dei modelli linguistici di grandi dimensioni (LLM – ndr) attraverso dei valutatori automatici che ne analizzano qualità, rischi e possibili personalizzazioni. Un elemento chiave della nostra strategia è, poi, Azure AI Content Safety, un servizio che filtra e rimuove i contenuti inappropriati”.

Andrea Gandini, Cloud Solution Architect di Microsoft Italia.
EU AI Act: impatti e strategie per le aziende
L’imminente entrata in vigore dell’EU AI Act segna un punto di svolta nella regolamentazione dell’intelligenza artificiale in Europa, con implicazioni significative per le aziende che operano nel settore tecnologico.
“Microsoft, anticipando questa evoluzione normativa, ha adottato un approccio proattivo all’allineamento di intelligenza artificiale e cybersecurity e si impegna ad applicare best practice efficaci per garantire un’innovazione responsabile. Ad esempio, astenendosi dall’utilizzare i dati che transitano nell’infrastruttura di Azure per addestrare i propri modelli AI”, ha assicurato dal palco Gandini.
L’azienda mantiene, inoltre, un contatto costante con le istituzioni europee per allinearsi al futuro AI Act.
Per prepararsi adeguatamente alla piena applicazione della normativa, ha suggerito Gandini, le aziende possono fare affidamento sulle Transparency Notes ossia le “note di trasparenza” di Microsoft, che dettagliano i possibili rischi legati all’interazione delle componenti “sistemiche” dell’AI – le persone che la usano, le persone che saranno interessate dalla sua applicazione e l’ambiente in cui viene distribuita –, oltre a suggerire le possibili strategie di mitigazione da adottare.
“Microsoft – ha spiegato – enfatizza l’importanza di integrare i principi di AI etica e AI responsabile fin dalle prime fasi di progettazione e sviluppo dei suoi sistemi. Si tratta di un approccio di Ethics by Design che non solo facilita la conformità normativa, ma contribuisce anche a costruire la fiducia degli utenti. Un altro aspetto cruciale è l’adozione di pratiche di governance AI robuste. Questo include la creazione di comitati etici interni, l’implementazione di processi di revisione regolare dei sistemi AI, così come lo sviluppo di meccanismi per il monitoraggio continuo delle prestazioni e degli impatti dei sistemi AI in produzione. Queste buone prassi sono sostenute, poi, da tecnologie e strumenti che permettono di valutare la conformità delle proprie soluzioni AI alle normative attuali, con l’obiettivo di aiutare le organizzazioni a bilanciare innovazione e compliance, adottando l’AI in modo sicuro e affidabile per sfruttarne appieno il potenziale trasformativo”.
Intelligenza artificiale e cyber security: come cambia la governance dei dati
Nell’era degli agenti AI, in cui gli algoritmi non si limitano alla semplice esecuzione di compiti predefiniti ma sono progettati per compiere scelte in relativa autonomia, la governance e la protezione dei dati assumono un’importanza crescente. “L’avvento dell’IA agentica – ha evidenziato Francesco Manca, Technical Specialist Security & Compliance di Microsoft Italia – pone tre problemi principali a livello di sicurezza: l’amplificazione delle vulnerabilità esistenti, l’aumento del valore intrinseco dei dati e l’emergere di nuove modalità di esfiltrazione delle informazioni. Per affrontare queste sfide, Microsoft ha sviluppato Purview, una soluzione integrata che mira a governare e proteggere tutti i tipi di dati, strutturati o non, generati dall’AI o dai sistemi tradizionali, gestiti in ambienti Microsoft 365 o multicloud. Purview assicura protezione efficace lungo tutto il ciclo di vita dei dati unita a Data Governance, Data Quality e Data Compliance, per gestire efficacemente i rischi critici legati ai nuovi requisiti normativi. L’obiettivo è fornire una protezione nativa, che sia trasparente e non impatti negativamente sull’esperienza utente”.
Microsoft Purview: una soluzione integrata per la sicurezza e la conformità delle applicazioni AI
L’architettura modulare di Microsoft Purview comprende diversi componenti. Data Loss Prevention (DLP) implementa politiche avanzate per prevenire la fuga di informazioni sensibili, mentre Information Protection assicura che i dati siano classificati e protetti in modo appropriato durante tutto il loro ciclo di vita. Insider Risk Management monitora e mitiga i rischi interni, un aspetto, questo, particolarmente critico considerando che molte violazioni dei dati hanno origini proprio all’interno dell’organizzazione.
Tra i moduli introdotti di recente c’è Data Security Posture Management (DSPM) for AI, da poco disponibile in versione generale. “Questo strumento – ha spiegato Gianluca Marinari, Cloud Solution Architect di Microsoft Italia – fornisce una visione dettagliata dell’utilizzo delle applicazioni di intelligenza artificiale e permette alle aziende di identificare e correggere potenziali vulnerabilità dei propri ecosistemi AI”.
“Questo – ha osservato Stefano De Toni, Cloud Solution Architect Advanced Analytics & AI di Microsoft Italia – assicura non solo una protezione efficace, ma anche l’integrità e l’usabilità dei dati aziendali, tutti elementi cruciali per costruire e alimentare modelli AI affidabili e creare le basi per un utilizzo etico e produttivo dell’intelligenza artificiale».

Stefano De Toni, Cloud Solution Architect Advanced Analytics & AI di Microsoft Italia.
Intelligenza artificiale e cyber security: il ruolo di Microsoft Security Copilot
L’integrazione con Microsoft Security Copilot amplifica ulteriormente le funzionalità di Purview. Mette, infatti, a disposizione dei team di sicurezza un assistente AI in grado di analizzare grandi volumi di dati e fornire insight immediatamente azionabili per identificare e prioritizzare i rischi grazie alla comprensione degli intenti e del contesto.
Questa tecnologia sfrutta la Global Threat Intelligence di Microsoft, che si distingue per la capacità di integrare e analizzare una mole impressionante di dati: infatti raccoglie fino a 84 trilioni di segnali ogni giorno, garantendo una visione approfondita sulle minacce cyber globali.
“La forza di Security Copilot – ha tenuto a rimarcare Marinari – risiede nella sua natura di AI specificamente addestrata per il dominio cyber, che la rende lo strumento di protezione più efficace attualmente disponibile”.
La sua architettura è progettata per operare sia in modalità standalone che integrata in altri prodotti Microsoft e questa versatilità permette a Microsoft Security Copilot di adattarsi a diverse esigenze e scenari di sicurezza, dal monitoraggio proattivo alla risposta agli incidenti, garantendo l’automazione di processi di sicurezza complessi.
“Un aspetto particolarmente innovativo di questo strumento – ha concluso Marinari – è il suo approccio all’interazione con gli utenti. Attraverso un’interfaccia intuitiva, gli analisti di sicurezza possono interrogare il sistema utilizzando il linguaggio naturale. Microsoft Security Copilot analizza questi prompt, li elabora attraverso dei plugin, esegue le azioni necessarie e crea un output dettagliato, disponibile anche in italiano. Questa capacità di processare e contestualizzare rapidamente grandi volumi di dati si traduce in una riduzione significativa dei tempi di risposta agli attacchi cyber, con alcuni clienti che riportano una diminuzione del 30% dei tempi di risoluzione degli incidenti”.