L'OPINIONE

Tecnologie 5G per il data management: strumenti per la gestione e la protezione dei dati

L’aggiornamento al 5G richiederà una gestione dei dati più completa e affidabile da parte delle aziende, che dovranno quindi implementare e mantenere una strategia di data management. Ecco gli impatti che la trasformazione del mondo digitale avrà sulle scelte degli strumenti per la gestione e la protezione del dato

29 Gen 2020
P
Fabio Pascali

Country Manager di Veritas Italia


L’introduzione del 5G porterà ad un ridisegno del mondo digitale, con un impatto sul mondo reale che solo in parte riusciamo a immaginare. La disponibilità di banda, la contemporanea esplosione dei sensori, la necessità o l’opportunità di avere dei servizi sempre più distribuiti daranno il via ad una serie di applicazioni nuove.

Si parla sempre più spesso di auto a guida autonoma, di città intelligenti, di attività legate al mondo della sanità gestite in tempo reale ma remotamente, ma molto di più verrà sviluppato, combinando servizi elementari oppure disegnandone di completamente nuovi, i quali potranno stravolgere interi settori.

Un ulteriore elemento a supporto di questa prossima trasformazione ci arriva da una ricerca di Gartner, dalla quale emerge che entro il 2022 oltre il 50% dei dati generati dalle imprese saranno creati ed elaborati al di fuori del data center sia esso on premise o nel cloud.

Tecnologie 5G per il data management: l’edge computing

La ragione principale deriva appunto dalla rivoluzione introdotta dal 5G, che nel ridisegnare le architetture metterà a disposizione strati di IT periferici direttamente collegati allo strato centrale, in una modalità sino ad oggi non possibile.

Pertanto, un numero sempre maggiore di applicazioni avrà almeno una parte delle elaborazioni e dei dati in periferia, all’edge. La previsione elaborata da Gartner evidenzia quindi che si passerà da una centralizzazione spinta delle applicazioni ad una parziale dispersione, per portare i dati e le relative elaborazioni vicine ai punti del loro utilizzo.

In vista di questi scenari le aziende dovrebbero evolvere il modo in cui attualmente gestiscono e proteggono i dati. Passare da un modello in cui tutti i dati sono centralizzati ad un modello distribuito, implica una visione differente dal data management e della data protection, in grado di assicurare tali servizi anche in periferia.

Si potrebbe obiettare che sia un ritorno al passato e che quindi sia facilmente gestibile avendolo già affrontato. Tuttavia, si tratta di uno scenario completamente diverso, in quanto rispetto al passato si intrecciano fenomeni non presenti allora: l’esplosione dei dati, la capacità elaborativa richiesta dalle nuove applicazioni, l’interazione con pezzi di IT in Cloud, l’enorme banda a disposizione e così via.

Se ci focalizziamo per un momento sul tema del data management, possiamo guardare sia all’aspetto della gestione delle risorse e alla loro ottimizzazione, ma dall’altro anche alla conoscenza del dato.

WEBINAR
Machine Learning, Analytics e hybrid cloud a supporto della Cybersecurity. Ecco come in un webinar
Big Data
Intelligenza Artificiale

Dover gestire pezzi di data center distribuiti vuol dire essere pronti ad avere strumenti in grado di controllare l’intera infrastruttura (server, rete, storage e backup) anche nelle componenti più piccole e remote ma sulle quali gireranno applicazioni critiche, talvolta anche più critiche delle applicazioni centrali.

Il controllo è fondamentale per fare in modo che gli standard di servizio e di performance abitualmente applicati al centro possano essere facilmente mantenuti anche all’edge, includendo anche funzionalità di capacity planning e di ottimizzazione delle risorse.

Con una realtà distribuita e potenzialmente dirompente, queste due dimensioni diventeranno semplicemente non gestibili senza strumenti adeguati. La conseguenza di una mancanza di strumenti adeguati provocherebbe una perdita dei livelli di servizio ma anche una esplosione dei costi di gestione, in quanto le aziende pur di cercare di mantenere i livelli di servizio necessari aumenteranno a dismisura le spese operative.

L’imprescindibile conoscenza del dato

Se invece si pone lo sguardo sul valore e sul contenuto dei dati stessi, non si può prescindere dalla conoscenza del dato. Questo serve per ridurre i costi e soprattutto per ridurre i rischi.

Con i ritmi di crescita dei dati non strutturati, conseguenza del diffondersi di applicazioni legate all’IOT e in generale alle interazioni fra machine, non si può prescindere da una continua analisi dei dati e ad una corretta valorizzazione degli stessi.

Una politica di gestione dei dati in base al loro valore consentirà all’azienda di distillare i dati utili, aggregarli per analisi successive, e mantenere i dati strettamente necessari per le applicazioni stesse e per l’adempimento di eventuali normative. Oltre ad un attento controllo dei costi, un approccio di questo tipo consentirà alle aziende di ridurre il rischio di perdita di eventuali dati sensibili.

Se invece ci concentriamo sulla protezione del dato, ci accorgiamo che un approccio monolitico non è più adeguato.

Occorre avere politiche di gestione del dato uniche e strumenti omogenei ma in grado di proteggere i dati dove vengono generati.

Tutte le nuove applicazioni distribuite di cui abbiamo parlato all’inizio, avranno necessità di livelli di backup e soprattutto di restore anche molto stringenti. Quindi le soluzioni di protezione del dato all’edge dovranno essere di tipo Enterprise ma con un dimensionamento dipendente dalla realtà dell’edge.

Si potrebbe avere un ambiente anche limitato in termini capacitivi, ma altamente critico per il quale solo soluzioni Enterprise possono garantire standard di data protection accettabili. La situazione è ancora più critica se alle tradizionali necessità di restore, si associano quelle legate a possibili attacchi ransomware.

Tali tipi di attacchi, purtroppo, troveranno terreno fertile nelle nuove architetture distribuite, avendo a disposizione molteplici punti di attacco.

Quindi la scelta di soluzioni software Enterprise in combinazione con appliance con soluzioni di “hardening” adeguate e politiche di accesso molto sofisticate, ridurranno sicuramente questo rischio. Inoltre, la scelta potrà cadere su soluzioni in grado di dialogare con il modello di protezione del dato centrale, per una visione complessiva delle politiche di protezione, per la facile creazione di disaster recovery del dato protetto in periferia verso il centro e per una visione complessiva della mappatura del rischio.

Conclusione

In conclusione, possiamo ribadire che la trasformazione alle porte dettata dalla disponibilità del 5G avrà un impatto importante sulle scelte degli strumenti per la gestione e la protezione del dato.

La scelta consapevole già oggi di soluzioni che possano accompagnare le aziende in questo percorso risulterà essere vincente, per non dover affrontare trasformazioni traumatiche quando invece si renderà necessario.

WHITEPAPER
Storage: aumentare prestazioni, scalabilità ed efficienza a costi contenuti
Storage
Backup

Inoltre, così facendo, al momento opportuno le energie dell’IT si potranno incanalare maggiormente a capitalizzare per il business l’avvento del 5G, avendo già provveduto per tempo a scelte in grado di gestire i dati e di proteggerli anche in scenari di architetture spostate sempre più verso l’edge.

@RIPRODUZIONE RISERVATA