Questo sito web utilizza cookie tecnici e, previo Suo consenso, cookie di profilazione, nostri e di terze parti. Chiudendo questo banner, scorrendo questa pagina o cliccando qualunque suo elemento acconsente all'uso dei cookie. Leggi la nostra Cookie Policy per esteso.OK

La riflessione

AI e cyber security: il rapporto con il design dell’informazione

Il report CISCO 2018 evidenzia che i sistemi di AI sono ampiamente utilizzati per la prevenzione e il contrasto delle minacce in ambito cyber security. Ma l’intelligenza artificiale a volte sbaglia. Nel complesso rapporto tra macchine e umani ecco che può intervenire come facilitatore il design dell’informazione

10 Giu 2019
L
Sara Lenzi

PhD candidate presso Density Design Lab, Politecnico di Milano


Lo sviluppo dell’intelligenza artificiale sotto forma di algoritmi, tra gli altri, di machine learning e deep learning, ha guadagnato terreno e rappresenta oggi la frontiera in cui si giocano le sorti della cyber security.

Il Security Annual Report di CISCO del 2018 evidenzia come il 73% delle aziende intervistate utilizzi sistemi di intelligenza artificiale per il monitoraggio della propria sicurezza informatica, e il 32% di queste dichiari di “contare fortemente” sul supporto di IA per i processi decisionali relativi agli attacchi informatici.

Dalle reti digitali ai sistemi integrati digitali/fisici, algoritmi di intelligenza artificiale sono sviluppati e impiegati nella raccolta, analisi e modellizzazione di una enorme quantità di dati relativi al comportamento del sistema al fine di individuare, bloccare e prevedere gli attacchi informatici.

Cyber security e trasformazione digitale

Ormai è evidente che la sicurezza informatica è e sarà sempre più un campo di interesse trasversale ed in espansione, di pari passo alla trasformazione digitale della società tutta che procede investendo le nostre abitudini più consolidate, fino ad esporre a rischi di intrusioni servizi che in quasi tutti i paesi occidentali diamo per scontati, quali l’erogazione dell’energia elettrica e dell’acqua potabile.

La trasformazione di reti e sistemi un tempo solo fisici (per esempio, gli acquedotti e le reti idriche in generale) in sistemi fisico-digitali, attraverso l’uso di sensori che aiutano a monitorare il comportamento del sistema e ad intervenire in caso di malfunzionamento, espone queste infrastrutture di chiaro interesse collettivo al rischio di attacchi da parte di hacker.

Al di là dei casi più conosciuti e di maggior risonanza sui mezzi di comunicazione tradizionali (attacchi alle reti internet o furto di dati di istituzioni pubbliche o compagnie private), che fanno scalpore in quanto mettono a repentaglio le nostre identità digitali a volte nei loro aspetti più intimi, rischi ancora più gravi si stanno facendo strada che potrebbero mettere a repentaglio il benessere reale, e non solo digitale, dei cittadini.

I rischi per l’IoT

Secondo il Security Annual Report di CISCO del 2018, sono gli strumenti legati al mondo dell’Internet of Things (IoT) a rappresentare la minaccia più urgente e dirompente.

Questi device, che comprendono per esempio la galassia dei wearable, i sensori nelle reti di fornitura di servizi nelle città, le automobili ormai completamente digitalizzate fino ai robot dotati di intelligenza artificiale e sempre connessi che stanno entrando velocemente nelle nostre case e gli aerei utilizzati nell’aviazione civile, sono introdotti sul mercato spesso senza un’analisi preliminare dei rischi che la loro introduzione comporta nel campo della sicurezza.

Non c’è ancora, evidenzia CISCO, una cultura della sicurezza informatica “by design”, ovvero implementata nell’artefatto fin dalla sua concezione.

Nel 2018 l’azienda di sicurezza informatica Qualys ha condotto un’indagine sui propri clienti identificando 7328 dispositivi IoT in uso quotidianamente presso le aziende. Di questi, l’83% risultava scoperto da qualsiasi protocollo di sicurezza informatica rappresentando così una concreta vulnerabilità.

D’altro canto, l’indagine ha rivelato che nessuna delle imprese coinvolte riteneva urgente l’agire a contrasto di questa vulnerabilità, al contrario, non vi era praticamente percezione del rischio. [fonte, CISCO 2018] Tuttavia, è proprio attraverso queste porte digitali che si fanno strada minacce rappresentate da “oppositori e operatori di altre nazioni [che] hanno già le competenze e gli strumenti necessari per abbattere infrastrutture e sistemi critici e paralizzare intere regioni” (Cisco Annual Cybersecurity Report 2018).

Dati di questo tipo evidenziano come lo scenario della sicurezza informatica vada ben al di là dei più noti attacchi Internet da prima pagina e coinvolga problemi molto concreti per aziende e amministrazioni pubbliche che investono aree trasversali su scala sempre più vasta, una scala, da numerosi punti di vista al di là delle capacità di analisi degli essere umani, una scala, per usare una metafora architettonica in voga tra i critici delle Smart Cities, non-umana.

Da una parte, l’esplosione di dispositivi always connected fa sì che molto spesso gli stessi utilizzatori di questi dispositivi non ne siano consapevoli.

La stessa indagine di Qualys mostra come il numero di dispositivi IoT indicati dai clienti (7328 dispositivi in tutto) fosse una enorme sottostima. Ovvero, chi utilizza anche quotidianamente IoT non ne è consapevole.

Dall’altra parte, se anche volessimo essere ad ogni momento consapevoli di ciò che, nel nostro quotidiano, può rappresentare una minaccia, difficilmente saremmo in grado di poterne analizzare il comportamento in tempo reale.

La quantità di dati, di variabili e di scenari possibili (alcuni conosciuti, la maggior parte sconosciuti), sfugge alle capacità dell’essere umano.

I problemi dell’AI

Come anticipato, secondo il report CISCO il 73% delle aziende si serve dell’AI in ambito cyber security.

Tuttavia, i sistemi di intelligenza artificiale presentano, almeno per ora, numerose criticità: una tra tutte, l’elevato numero di errori – principalmente, falsi positivi– che commettono nell’individuazione di un reale attacco informatico.

Il 59% delle aziende intervistate per il CISCO Threat Report 2019 si trova a gestire un ordine di 10.000 allarmi di attacco al giorno, mentre un 2% arriva a doverne gestire 500.000. Solo il 24% di tutti gli allarmi di anomalia lanciati dai sistemi di IA finisce per dimostrarsi una minaccia reale.

Durante una conversazione personale, l’operatore di una rete idrica urbana ha confermato una scala di allarme di uno al giorno (finora nessuno relativo a minacce reali).

In tutta evidenza, se queste dimensioni non rappresentano un problema per un operatore artificiale, rappresentano invece un enorme problema di gestione dell’emergenza per gli operatori umani che quotidianamente si trovano sul campo, nei centri operativi di aziende e servizi pubblici.

Sono questi aspetti di cui poco si è finora parlato, che iniziano a farsi strada in maniera critica nel dibattito attorno all’introduzione massiccia dell’intelligenza artificiale nelle nostre società.

Di tecno-sciovinismo, ovvero di una cieca e controproducente fiducia nelle capacità della cosiddetta intelligenza artificiale di competere e superare l’essere umano in, appunto, intelligenza, parla la computer scientist e data journalist Meredith Broussard in “Artificial Unintelligence. How Computers Misunderstand the World” (MIT Press, 2019).

“Gli algoritmi – sostiene Broussard – o i processi computazionali, sono usati sempre di più per prendere decisioni al posto nostro”.

Ma la presa di decisioni, e la responsabilità delle decisioni prese, ancora ricade e deve ricadere anche in futuro sugli esseri umani.

Al di là delle evidenti conseguenze etiche che il tema solleva e che sono attualmente al centro del dibattito – per esempio – sull’introduzione di veicoli mobili a guida autonoma, c’è un altro aspetto che va identificato: “Quando credi che una decisione generata da un computer sia migliore, o più giusta, di una decisione generata da un essere umano, smetti di mettere in discussione la validità dei dati che il sistema ha a disposizione per prendere la decisione”, scrive ancora Broussard.

È questa cieca fiducia alla base della sorpresa che tanti operatori provano nello scoprire che il sistema intelligente che dovrebbe sollevarli dall’onere di riconoscere un attacco informatico, in realtà molto spesso “sbaglia” e trasmette informazioni – e giudizi di validità – errati.

È così che i giudizi espressi dai sistemi IA di rilevazione delle anomalie nei centri di sicurezza, sfuggono alle capacità di controllo dell’operatore umano che si trova spesso a prendere decisioni critiche fidandosi di un algoritmo di cui non può controllare la correttezza poiché troppo vasta è la scala di computazione e analisi di dati che l’algoritmo mette in opera per giungere alla decisione.

Il rapporto con il design

Lo sfaccettato problema del rapporto tra gli artefatti (le macchine) e gli esseri umani che li usano è da molti anni al centro delle riflessioni del mondo del design.

È Donald Norman, in “Things that make us smart” a definire il problema: “Gli stessi metodi analitici che funzionano così bene per le cose meccaniche – sosteneva già nel 1993 il rivoluzionario studioso e designer americano – non funzionano con le persone.

Oggi la maggior parte della scienza e dell’ingegneria assumono un punto di vista centrato sulla macchina, sia nell’approccio al design che, a dire il vero, nella comprensione dell’essere umano.

Ne risulta che la tecnologia intesa come supporto ai processi cognitivi e al divertimento degli esseri umani, più spesso ne diventa un impedimento, e confonde invece di aiutare e chiarire”.

Il design rappresenta un punto di contatto e di traduzione tra l’artefatto (digitale o no) e l’essere umano che si trova ad utilizzarlo. In questa operazione di traduzione convergono molteplici considerazioni e valori: usabilità sì, ma anche aspetti sociali e culturali, oltre che etici.

Allo stesso tempo, elementi estetici e psicologici convivono accanto ai dettami della form follows function, ovvero della funzionalità del prodotto la cui forma si deve adattare all’uso.

È sempre Norman, in “Emotional Design” (2003), che ci mostra come oggetti e servizi con cui stabiliamo un rapporto emotivo (estetico nel senso originario della parola, ovvero legato all’esperienza sensoriale del mondo, esperienza che si trasforma in modalità di conoscenza della realtà e non solo in appagamento superficiale e senso del “bello”) siano anche quelli che si dimostrano più efficienti a sostenerci nel compito che dobbiamo svolgere.

Dagli elettrodomestici alle cabine di pilotaggio degli aerei, usiamo meglio (e quindi lavoriamo in maniera più efficace) gli oggetti con cui possiamo stabilire un rapporto “a scala umana”.

Questo non succede per caso, ma grazie agli elementi specifici del processo di design, che può riguardare un prodotto tangibile o intangibile, un servizio, e come vedremo tra poco un’interfaccia di rappresentazione delle informazioni.

Per arrivare alla creazione di un prototipo e poi di un prodotto, il designer svolge un’analisi dell’utente, del contesto di uso del prodotto stesso e degli obiettivi che l’utente si pone nella sua relazione con il prodotto/servizio.

Il design dell’informazione pone in pratica lo stesso processo nel lavoro di traduzione di informazioni codificate in un linguaggio comprensibile ad un utente umano.

Il risultato può essere un sistema di wayfinding per orientarsi in un ospedale o in luogo pubblico, ma anche un’interfaccia digitale che ci permetta di relazionarci con computer, smartphone, device digitali di tutti i tipi, chioschi informativi e sportelli bancari.

Il ruolo del design dell’informazione nella cyber security

Negli ultimi anni, il design per la visualizzazione di dati è diventato un campo di forte sperimentazione ed ha superato i confini delle specializzazioni scientifiche per entrare nel campo del giornalismo, della comunicazione pubblica, dell’attivismo e dell’arte, per citarne alcuni.

Questo trend è una diretta conseguenza dell’ingresso, prepotente e ad una scala senza precedenti, della cultura del dato – del Big Data – nel quotidiano di cittadini e imprese. Al design dell’informazione spetta il compito sempre più difficile di rappresentare in forma usabile per l’essere umano il linguaggio utilizzato dagli algoritmi di intelligenza artificiale, affinché da dato bruto diventino informazione e poi conoscenza, e infine supporto alla presa di decisioni che rimangono, e devono rimanere responsabilità dell’essere umano.

A partire da queste necessità, la data visualization sta vivendo un processo di trasformazione per adeguarsi alla scala dell’intelligenza artificiale.

Nel caso del riconoscimento di anomalie in reti internet, per esempio, i dati generati dall’algoritmo sono nell’ordine di migliaia, in tempo reale.

All’analista di un centro operativo di sicurezza informatica il grafico tradizionale non basta più e una rapida analisi del contesto ci consente di individuare due ragioni principali:

  • L’analista-tipo di un SOC si trova quotidianamente a svolgere una serie di mansioni di cui il monitoraggio in tempo reale dei dati del sistema è soltanto una. Molto tempo è dedicato alla analisi di dati storici e alla stesura di documenti e relazioni. Si tratta di attività che richiedono un’attenzione centrale e che si svolgono attraverso il canale visivo: scrivere, leggere, osservare schermi sono attività condotte attraverso la vista. Il monitoraggio in tempo reale delle minacce informatiche aggiungerebbe un altro, delicato compito che di nuovo utilizza prevalentemente la nostra attenzione centrale, ovvero il canale visivo. È facile capire come questo andrebbe a generare un sovraccarico, provocando l’effetto, ben noto nella letteratura medica e psicologica di information overload, rendendo meno efficiente l’analista e efficace il suo operato;
  • I già citati errori (falsi positivi) degli algoritmi di IA per la sicurezza informatica tendono a produrre un altro effetto molto noto (che si riscontra per esempio tra gli operatori delle corsie delle terapie intensive negli ospedali), il cosiddetto alarm fatigue. Si tratta di una sorta di cortocircuito psicologico per cui, esposti a continui segnali di allarme, ne diventiamo insensibili.

Come interviene il design nella ricerca di soluzioni a questi due problemi? Recentemente, il campo della data visualization è testimonianza di una interessante trasformazione che ha l’obiettivo di superare i suoi stessi limiti verso una rappresentazione e comunicazione di dati più vicina agli operatori umani.

Si comincia a parlare di e a progettare data experiences, in cui l’informazione viene fruita attraverso esperienze interattive dinamiche che vanno oltre la rappresentazione visiva bidimensionale; data physicalization, in cui i dati vengono trasformati in artefatti tangibili; e data sonification, in cui i dati e le loro dimensioni sono mappati a eventi sonori non-verbali, ben al di là del tradizionale concetto di allarme.

Quest’ultimo campo si sta rivelando particolarmente promettente per arginare il problema del sovraccarico di informazioni nei centri di monitoraggio.

In primo luogo, il suono utilizza un canale diverso da quello visivo, evitando così che i sistemi di allerta dedicati alle anomalie prodotte da cyber attack si sovrappongono al carico di informazioni visive con cui l’operatore ha a che fare quotidianamente.

Il suono, inoltre, si colloca alla periferia della nostra attenzione: rimane sullo sfondo e viene portato al centro solo quando se ne presenti il bisogno.

Per esempio, siamo “inconsciamente consapevoli” del rumore della lavatrice di casa (o del rumore del motore della nostra auto), ma prestiamo attenzione quando il rumore stesso ci dice che la lavatrice ha finito il ciclo (o che il motore non sta funzionando bene); allo stesso modo “sentiamo” il chiacchiericcio di persone in un luogo pubblico ma prestiamo attenzione solo se riconosciamo una voce in particolare. L’utilizzo del suono si sta dimostrato efficace anche per evitare il problema dell’alarm fatigue.

Sonorizzando l’intera gamma di informazioni prodotte dagli algoritmi, anche nel caso in cui un allarme non sia certo (ovvero, nella maggioranza dei casi) e allo stesso tempo mantenendo questa informazione, più complessa dell’allarme tradizione, sullo sfondo della percezione, è possibile supportare l’operatore umano nell’acquisizione di una conoscenza molto sofisticata del comportamento del sistema nel tempo, mettendolo in grado di giudicare indipendentemente dall’intelligenza artificiale se un allarme sia credibile o no.

Ovvero, è possibile mettere in grado l’operatore di svolgere al meglio i compiti per cui l’essere umano è migliore della macchina (prendere decisioni in base ad una molteplicità di fattori e considerazioni complesse e interconnesse), lasciando alla macchina i compiti per cui la macchina è migliore (computare in tempo reale un altissimo numero di dati numerici).

@RIPRODUZIONE RISERVATA

Articolo 1 di 5