Big Data, una panoramica per la trasformazione digitale

Quali sono le caratteristiche principali dei Bigdata?


È sempre più evidente che la quantità di dati che si stanno raccogliendo nel mondo sta esplodendo in modo esponenziale, creando le basi per ricavare informazioni su quasi qualunque processo, prodotto o aspetto della vita umana [1]. Ma non bastano grandi quantità di dati per parlare di Big Data. Questa ultima definizione si riferisce a strutture di dati che superano i limiti dei database tradizionali, ma include anche le tecnologie finalizzate ad estrarre dai dati conoscenza e valore. In pratica con l’espressione Big Data si definisce l’analisi di quantità incredibilmente grandi di informazioni. In considerazione del loro enorme volume, nonché delle loro intrinseche caratteristiche di velocità e varietà, i Big Data richiedono tecnologie e metodi analitici differenti da quelli usati per “cercare” nei database tradizionali. L’analisi corretta dei Big Data ha l’obiettivo principale di estrarre informazioni aggiuntive rispetto a quelle ottenibili da piccole serie di dati.

Si parla da tempo di Big Data eppure queste tecnologie sono ancora poco sfruttate rispetto al loro effettivo potenziale. E in futuro, il moltiplicarsi delle informazioni prodotte dai dispositivi e le interazioni tra persone, macchine e piattaforme accresceranno per le aziende le potenzialità di ottimizzare flussi, processi e applicazioni in funzione delle esigenze del proprio business e, soprattutto, dei propri clienti.

Per iniziare a comprendere le potenzialità è necessario fare riferimento ai fondamenti della teoria dei Big Data cosi come sono stati formulati nel 2001 da Douglas Laney, di Meta Group, nel suo articolo[2] sulla necessità di gestire i crescenti dati prodotti dall’e-commerce con un approccio tridimensionale, secondo tre caratteristiche, le cosiddette tre V, Volume, Velocità, Varietà. Questo paradigma originale rimane valido ancora oggi ma con l’aggiunta di due e ancora due nuove caratteristiche: la variabilità e la veracità, a cui alcuni aggiungono il valore e la viralità, come mostrato in Figura 1.  

Figura 1 – le 3+2(+2) V dei Big Data

 

Di seguito si esamina in dettaglio ciascuna di queste V:

Volume: i dati, soprattutto quelli non strutturati tipici del mondo internet crescono giornalmente in modo esponenziale e richiedono una capacità di elaborazione elevata. Questa immensa miniera di dati, permetterebbe, se governata, di disporre di moltissime informazioni che avrebbero valore in sé e, ancor più ove fossero opportunamente incrociate tra loro. Il tema principale del volume è che diventa complesso maneggiare, immagazzinare e conservare questi dati, prima ancora di analizzarli ed estrarne valore. Richiedono nuove tecnologie e nuove architetture di database, anche perché molto spesso la ricchezza di questi dati è proprio nella loro caratteristica di non avere struttura.

  • Velocità: i dati vengono prodotti con sempre maggiore velocità e frequenza, pertanto occorre imparare a prendere decisioni in tempi molto rapidi.
  • Varietà: i dati sono sempre più eterogenei, e a quelli classici, provenienti dal sistema informativo per esempio aziendale, si aggiungono quelli esterni, tipicamente destrutturati, come email, immagini, video. La loro natura li rende particolarmente rilevanti per gli obiettivi di business, ma anche particolarmente complessi da raccogliere ed analizzare, rendendo necessaria l’adozione di infrastrutture IT dedicate.
  • Veracità: i dati vanno verificati e il confronto può essere fatto con altri dati o attraverso l’uso di dispositivi o sistemi certificati, la cui attendibilità è certa.
  • Variabilità: il significato o l’interpretazione di uno stesso dato può variare in funzione del contesto in cui questo viene raccolto ed analizzato.
  • Valore: il valore dei dati non è solo quello intrinseco, ma è anche (spesso soprattutto) collegato al contesto da cui si ricavano.
  • Viralità: i dati si diffondono in modo virale, cosi come le informazioni che si possono estrarre da essi. La grande quantità di dati e la velocità con cui essi vengono generati fa sì che le reazioni ad un evento si propaghino rapidamente e a grande distanza.

 

Figura 2 – Ambiti applicativi delle tecnologie, divise per settori

Nessun settore è immune al tema dei Big Data (Figura 2) perché nessun settore oggi può pensare di creare nuovi servizi o nuovi prodotti senza partire da informazioni ottenute dall’analisi dei dati.

Ma bisogna avere piena consapevolezza di alcuni rischi che possono compromettere la possibilità di sfruttare appieno il potenziale offerto dai Big Data.

Le fonti di Big Data continuano ad evolvere e crescere in continuazione. E non sono solo i sensori. Ci sono anche i dati raccolti dal web o da altre attività di digitalizzazione (perfino una foto geolocalizzata può essere un dato). Valanghe di nuovi dati continuano a essere generate dalle app aziendali, dalle risorse pubbliche (come per esempio il web e i social media), dalle piattaforme mobili, infine da cose e sensori (Internet of Things). Per le aziende diventa fondamentale riuscire, secondo una logica di continuous improvement, a identificare le nuove fonti e incorporarle nelle piattaforme di Data Management, che pertanto devono essere molto flessibili e scalabili.

Diventa dunque fondamentale saper raccogliere, gestire e immagazzinare tutti i dati aziendali, anche per conservare la storia ed il contesto dei dati: privare i dati delle informazioni di contesto ne riduce il valore, diventa quindi fondamentale riuscire a “catturare” ed archiviare tutti i dati utili all’azienda. D’altro canto, poiché tale utilità spesso non è valutabile a priori, la sfida è riuscire a far sì che al momento opportuno siano disponibili tutti quelli che occorrono. Non basta raccoglierli in modo acritico. È necessario analizzarli scientificamente per renderli utili e non ovvi: tra gli specialisti si racconta che qualunque dato opportunamente torturato può “confessare” qualsiasi cosa ci si voglia sentirsi dire.

Infine i dati vanno resi disponibili molto velocemente e liberamente a tutti coloro che ne hanno necessità. Questo può sembrare ovvio, ma molto spesso le strutture IT delle aziende lavorano a comparti stagni, per cui ci sono molti esempi di Big Data che risiedono in database non condivisi e difficili da integrare. Per superare tali barriere, sarà sempre più necessario dotare le piattaforme di gestione dei Big Data di funzionalità innovative attraverso le quali poter rendere disponibili e accessibili i dati presso tutti i livelli aziendali. È superfluo precisare che tutto ciò debba avvenire senza trascurare riservatezza e security.

Note e riferimenti

[1] Big data: The next frontier for innovation, competition, and productivity

[2] D.Laney “3D Data Management: Controlling Data Volume, Velocity, and Variety”


Per iniziare a comprendere le potenzialità è necessario fare riferimento ai fondamenti della teoria dei Big Data cosi come sono stati formulati nel 2001 da Douglas Laney, di Meta Group, nel suo articolo[2] sulla necessità di gestire i crescenti dati prodotti dall’e-commerce con un approccio tridimensionale, secondo tre caratteristiche, le cosiddette tre V, Volume, Velocità, Varietà. Questo paradigma originale rimane valido ancora oggi ma con l’aggiunta di due e ancora due nuove caratteristiche: la variabilità e la veracità, a cui alcuni aggiungono il valore e la viralità, come mostrato in Figura 1.

Comments are closed.