I 3 miti legati ai Big Data da sfatare!

 

Quando l'espressione "Big Data" fece la sua prima comparsa nel mondo del Business, alcuni ritenevamo che si trattasse dell'ennesimo esempio di momentanea infatuazione per l'ultimo trend proveniente dal mondo delle tecnologie digitali. Oggi possiamo dire che molti si sbagliavano e che nel contesto attuale l'analisi dei Big Data sono effettivamente uno degli elementi per ottenere un vantaggio competitivo e strategico. Tuttavia ci sono 3 miti legati ai Big Data da sfatare, scopri di più scaricando l'ebook gratuito che mettiamo a tua disposizione.

 

Published in News
Boom in Italia dei Big Data Analytics nel 2015: le Aziende italiane decidono di sfruttare la conoscenza proveniente da milioni e milioni di dati.

 

 

Esistono dei cruscotti aziendali che consentono di conoscere le performance aziendali e di formulare decisioni strategiche, non resta che migliorare la conoscenza di essi.

 

Big Data è una di quelle espressioni che si sente utilizzare sempre più spesso, a volte in modo improprio. Da una ricerca dell’ Osservatorio Big Data Analytics &Business Intelligence della School Management  del Politecnico di Milano, è emerso che nel 2015 vi è stato un importante balzo in avanti del mercato italiano dei Big Data Analytics. Nel nostro Paese il mercato è infatti cresciuto del 14% raggiungendo un valore complessivo di 790 milioni di euro. Nel 2016 gli Analytics saranno la principale priorità d’ investimento (44%) per i manager italiani responsabili delle tecnologie dell'informazione nelle aziende e le competenze per la gestione dei Big data. La crescita che si prevede per l’anno che è appena iniziato dovrebbe essere intorno al 30%.

Ma la domanda che ci si pone è la seguente: che cosa sono i Big Data? Le notizie tecnologiche in rete riportano spesso questo termine, senza mai darne una reale spiegazione. Colpa anche nostra che diamo per scontato un trend del settore che è in realtà molto articolato e presenta dei punti poco chiari.

Si potrebbe utilizzare una fortunata definizione di Doug Laney che individua i Big Data come quei dati caratterizzati dalle Tre V: volume, velocità, varietà.

 

Volume: l’elemento più vistoso nel distinguere big data e dati tradizionali è la quantità, un tempo impensabile, di dati che aziende anche di dimensioni modeste possono avere a disposizione: è perfettamente normale, infatti, che una qualsiasi azienda disponga di più terabyte di dati, creando spesso problemi di gestione e di immagazzinamento. Si consideri poi che il dato non è più semplicemente una stringa di testo, ma può essere contenuto in formati molto diversi, come un’immagine o un video.

Velocità: un tempo un dato continuava a essere recente per un periodo di tempo prolungato: in un giornale cartaceo, per esempio, il dato di ieri è ancora un dato relativamente attuale. Nel mondo dei big data l’aggiornamento è continuo, e l’unico dato veramente recente è quel dato che in tempo reale descrive la realtà. Se è difficile immaginare che la raccolta di dati possa diventare ancora più veloce (non si può avere qualcosa più attuale di un aggiornamento in tempo reale), diventerà però sempre minore il tempo necessario per effettuarne l’analisi.

Varietà: la diversità delle tipologie di dato non condiziona solo il volume dei dati disponibili, ma anche la varietà e quindi la compatibilità nell’utilizzo. Oltre ai diversi formati tradizionali (excel, csv etc.) i dati possono essere video o immagini: questo crea evidentemente notevoli problemi di utilizzo. Riuscire a ridurre i dati in un formato coerente che ne permetta l’analisi è una delle principali sfide che un’azienda si trova ad affrontare.

 

Oggi, insomma, per guidare un’azienda così come per guidare un’auto c’è bisogno di conoscere i segnali e nell’azienda questi segnali possono essere molteplici e si estraggono da milioni e milioni di dati che derivano da fonti interne ed esterne.

 

Esistono dei veri cruscotti aziendali che indicano se l’azienda è performante, strumenti di cui oggi le Aziende non possono più fare a meno per gestire quest’enorme mole di dati in tempo reale. Ormai, gestire o non gestire i big data genera un’enorme differenza competitiva oltre che strategica.

 

Scopri come gestire i Big Data

 

 

 

 

 

 

 

 

Published in Blog
Analytics, BI, Data Management, i 5 trends del 2015

Secondo una survey dell’InformationWeek 2015 sugli Analytics, BI, Data Management, pubblicato alla fine del mese scorso sulla base delle risposte di 384 professionisti della Business Technology sono 5 i trends a cui fare attenzione nel 2015: 

1. La standardizzazione degli Analytics e BI è in calo

Dieci anni fa, il mercato della BI era consolidato e le aziende cercavano di standardizzare su un minor numero di prodotti di BI, che potevano essere introdotti in tutta l’organizzazione. I tempi stanno cambiando. Le innovazioni Cloud e Mobile favoriscono la sperimentazione di una nuova generazione di strumenti. L’indagine 2015 rivela che solo il 28% delle imprese intervistate ora dicono che stanno standardizzando, rispetto al 35% nel 2014. E il 21% dei rispondenti dicono che usano “molti prodotti Analytics e BI” rispetto al 16% del 2014.

2. Il Data warehousing Cloud Based è in aumento

I servizi di Data Warehousing rappresentano il maggiore incremento nell’adozione di qualsiasi categoria di information-management, saltando ad un 34% rispetto ad un solo 24% del 2014. Il manifesto è Amazon Redshift, il servizio di Data Warehousing lanciato nel 2013. L’anno scorso, il CTO di Amazon web Services, ha descritto Redshift come la più rapida crescita di servizi web di sempre della società. IBM ha risposto nel 2014 con il Netezza-based DashDB. Il prossimo sarà HP, che ha annunciato l’intenzione di lanciare una versione online del proprio database di Vertica all’inizio di quest’anno.

3. La tecnologia in tempo reale sta vedendo dei guadagni reali

I fornitori del CEP hanno previsto per più di un decennio che la tecnologia sta andando in mainstream. Il CEP, lo ricordiamo, è una tecnologia che consente di “catturare” e analizzare in tempo reale una serie di eventi correlati tra loro, individuando opportunità o criticità utili al business per prendere decisioni più appropriate (il tutto in modo automatizzato). Vi è un ampio uso di CEP, anche se è ancora una rarità al di fuori dei servizi finanziari, sicurezza, telecomunicazioni, e agenzie di intelligence. Ma l’adozione mostra un +8% rispetto al 2014, posizionandosi al 35% dei rispondenti. L’uso è ampio per il 12% degli intervistati, mentre il 23 % dichiara di usare CEP “ su una base limitata”.

4. L’adozione del Hadoop e NoSQL sono in crescita

Nessuna sorpresa qui; NoSQL e Hadoop entrambi mostrano una crescita del 7% rispetto all’indagine del 2014, usato rispettivamente dal 26% e il 22 % degli intervistati. I fattori che guidano l’interesse nei database NoSQL sono “ la maggiore velocità, maggiore flessibilità di sviluppo realizzabile con i database relazionali”, citata dal 24% degli intervistati, e “costi di software e di sviluppo inferiori”, citato dal 21%. Le motivazioni per usare Hadoop comprendono la “capacità di memorizzare ed elaborare dati semi strutturati, non strutturati, e variabili”, citato dal 31% degli intervistati, e “costi di scala dell’hardware e di storage sono inferiori ai prodotti commerciali”, citato dal 25% degli intervistati. In linea con i risultati dello scorso anno, circa la metà di tutti gli intervistati dicono ancora che NoSQL e Hadoop “non sono una priorità per la mia organizzazione in questo momento”.

5. Le preoccupazioni riguardo la qualità dei dati si allentano

Non è che la qualità dei dati non è più importante; anzi, sono considerati ancora la "barriera al successo". Ma la preoccupazione è in diminuzione - almeno per quanto riguarda gli Analytics - con solo il 51% che pone la qualità dei dati nella loro "barriers" list, contro il 59% del 2014.

Published in Blog