Il mondo dei big data dovrebbe raggiungere l'incredibile cifra di 163 zettabyte, ovvero 163 trilioni di gigabyte, entro il 2025. Curioso di sapere quanto è grande uno zettabyte? Potrebbe contenere circa 2 miliardi di anni di musica.
Ci sono molti concetti e idee per applicare i big data, alcuni esempi includono la creazione di modelli di apprendimento personalizzati per gli studenti o l'offerta di cure sanitarie più personalizzate. Tuttavia, i big data sono ancora generalmente difficili e dispendiosi in termini di tempo da elaborare e analizzare, e vengono generati più velocemente di quanto possiamo tenere il passo. Fortunatamente, al ritmo con cui le tecnologie dei big data stanno avanzando, queste difficoltà potrebbero essere mitigate nei prossimi tre anni.
In effetti, sempre più aziende stanno elaborando piani per adottare i big data per il successo futuro. I big data sveleranno in definitiva nuove opportunità ed efficienze che potrebbero cambiare la nostra vita quotidiana – ed è giusto aspettarsi che alcuni di questi cambiamenti si concretizzino entro il 2021. Quindi, abbiamo chiesto a sette esperti di tecnologia quali fossero le loro previsioni triennali per i big data. Ecco cosa hanno detto:
1. La domanda di data scientist continuerà a crescere
Harry Dewhirst, Presidente di Blis.
“Ho recentemente letto che la Harvard Business Review ha definito questo ruolo il ‘lavoro più sexy del 21° secolo.’ Non si può negare che i dati diventeranno la valuta che alimenterà la nostra economia in futuro; siamo già ben avviati su questa strada. Il che significa che i data scientist continueranno a guidare il futuro.
È fondamentale che le aziende inizino a pianificare l'integrazione dei data scientist nelle loro strutture organizzative ora, e forse ancor di più per i college e altri educatori fornire più opportunità ai futuri lavoratori di esplorare questo campo. I dati hanno una forza duratura, non scompariranno presto.”
Harry ha certamente ragione. La scienza dei dati è uno dei campi in più rapida crescita oggi grazie al suo ruolo importante nel dare senso ai big data.
In effetti, un rapporto di IBM, intitolato The Quant Crunch, stima che fino a 2,72 milioni di posti di lavoro che richiedono competenze in scienza dei dati saranno pubblicati entro il 2020.
Skipper Seabold, Co-Lead di Data Science R&D presso Civis Analytics.
“Il ruolo di 'data scientist' cesserà di essere una posizione specializzata per cui si assume personale. La cassetta degli attrezzi della scienza dei dati diventerà un insieme di competenze che le persone in vari ruoli funzionali all'interno di un'organizzazione saranno tenute ad avere.
La maggior parte dei data scientist non dovrà più pensare ai sistemi distribuiti – Hadoop, Spark o HPC. Le vecchie tecnologie, come i tradizionali database relazionali, raggiungeranno le prestazioni e le capacità di queste tecnologie, e la necessità di pensare e programmare per più macchine connesse su una rete sarà eliminata dagli strumenti disponibili attraverso i grandi fornitori di cloud.”
Vuoi saperne di più su Software di analisi dei Big Data? Esplora i prodotti Analisi dei Big Data.
2. I big data saranno più accessibili
Sam Underwood, VP di Business Strategy presso Futurety.
“Entro il 2021, i big data diventeranno molto più accessibili, e quindi molto più utili. Una sfida chiave per molte imprese oggi è unificare tutti questi dati; per definizione, è un grande lavoro!
Costruire data lake e altri ambienti di archiviazione flessibili è una priorità importante nel 2018, e prevediamo che entro il 2021, molti di questi dati critici saranno ospitati in sistemi che sono molto più accessibili dagli strumenti che li utilizzeranno (visualizzazione, analisi, modellazione predittiva). Questo apre possibilità illimitate per ogni aspetto delle operazioni aziendali di essere puramente guidato dai dati.”
L'intuizione di Sam è perfetta. Non sarà sufficiente raccogliere e elaborare i big data. Se i dati non possono essere facilmente compresi dagli utenti finali aziendali e dai decisori all'interno delle aziende, sarà difficile trovare valore.
Jeff Houpt, Presidente di DocInfusion.
“Vedo il panorama dei big data evolversi da altamente tecnico e costoso a metodi più self-service e on-demand dove le risorse di cui hai bisogno si attivano automaticamente e paghi solo per ciò che usi.
In realtà, nel panorama odierno per analizzare i big data hai bisogno di un'infrastruttura massiccia o costosa per catturare, catalogare e preparare i dati per l'uso. Poi, per interrogare e analizzare i dati, devi avere le competenze di un programmatore/matematico molto tecnico o di un data scientist.
Penso che ci saranno piattaforme e app che continueranno a rendere questi compiti più facili e intuitivi, e entro 3 anni arriveremo a un punto in cui inserisci i dati direttamente in un'unica applicazione che gestirà tutti i dettagli rimanenti per te – e lo farà su larga scala.
Penso anche che attraverso l'uso di intelligenza artificiale (AI) e concetti di apprendimento automatico le applicazioni saranno in grado di comprendere automaticamente i tuoi obiettivi utilizzando la conoscenza ottenuta da utenti passati che hanno svolto un compito simile. Questo permetterà ai sistemi di ottimizzare i dati per scopi specifici con pochissimo feedback dall'utente.”
3. L'NLP sarà utilizzato per il recupero delle informazioni
KG Charles-Harris, CEO di Quarrio.
“La previsione più fondamentale per i big data è che entro il 2021, il recupero delle informazioni dai repository di big data sarà effettuato utilizzando il linguaggio naturale e sarà istantaneo. Le persone faranno semplicemente domande in linguaggio normale e il sistema risponderà in linguaggio ordinario, con grafici e diagrammi generati automaticamente quando applicabile.”
4. I fornitori di DBaaS abbracceranno l'analisi dei big data
Ben Bromhead, CTO e Co-Fondatore di Instaclustr.
“Ci aspettiamo di vedere i fornitori di Database-as-a-Service (DBaaS) abbracciare davvero le soluzioni di analisi dei big data nei prossimi tre anni, mentre si adattano a servire un bisogno crescente dei clienti. Le aziende enterprise hanno raccolto e memorizzato sempre più dati, e continuano a cercare modi per setacciare quei dati nel modo più efficiente possibile e farli funzionare per loro.
Integrando soluzioni di analisi dei big data nelle loro piattaforme, i fornitori di DBaaS non solo ospiteranno e gestiranno i dati, ma aiuteranno anche i clienti enterprise a sfruttarli meglio. Ad esempio, Elasticsearch è una potente tecnologia open source con cui abbiamo acquisito una certa familiarità che consente agli sviluppatori di cercare e analizzare i dati in tempo reale.
Aspettati che questa e tecnologie simili che mettono gli sviluppatori al comando dei loro dati diventino sempre più prominenti all'interno dei repertori di DBaaS.”
5. La pulizia dei dati sarà automatizzata
Jomel Alos, Online PR Lead di Spiralytics Performance Marketing.
“Uno dei problemi più grandi in questo momento per i big data è il disordine e i dati errati. La maggior parte delle aziende in questo momento ha il proprio framework di pulizia o lo sta ancora sviluppando. Alla fine, la pulizia e l'organizzazione saranno automatizzate con l'aiuto di vari strumenti. Poiché i big data non sono statici, ci si aspetta che questi strumenti automatizzino anche il processo di pulizia su base regolare.”
Jomel solleva un ottimo punto. Perché il recupero rapido dei dati avvenga, i big data dovranno essere puliti per qualità e rilevanza. In effetti, gli Stati Uniti hanno perso una stima di 3,1 trilioni di dollari a causa della scarsa qualità dei dati nel 2016. Questo è il motivo per cui "ripulire" i dati elaborati è così importante quando si tratta di strutturare i big data.
I processi attuali di pulizia dei dati non sono esattamente sensibili al tempo. Al momento, richiedono quasi il 60 percento del tempo di un data scientist. Una volta che questi processi potranno essere automatizzati attraverso l'uso di AI e apprendimento automatico, verranno fatti veri progressi.
Scopri come comprendere efficacemente grandi set di dati con l'analisi dei big data e sbloccare opportunità nascoste.

Devin Pickell
Devin is a former senior content specialist at G2. Prior to G2, he helped scale early-stage startups out of Chicago's booming tech scene. Outside of work, he enjoys watching his beloved Cubs, playing baseball, and gaming. (he/him/his)
