La storia del primo computer aziendale non potrebbe essere più britannica di così.
L'operatore di negozi di tè e catering britannico J. Lyons & Co. mise al lavoro il Lyons Electronic Office (LEO) nel 1951, eseguendo calcoli sul costo degli ingredienti utilizzati nei suoi prodotti da forno. LEO assunse presto le responsabilità di gestire le buste paga per la forza lavoro dell'azienda (LEO lavorava anche per il Ministero della Difesa del Regno Unito, calcolando le traiettorie dei missili). LEO è ampiamente riconosciuto come la prima applicazione d'ufficio in tempo reale al mondo e, secondo l'opinione di questo analista, non solo ha dato il via all'era moderna dell'informatica aziendale, ma è stato il primo passo verso l'interesse delle imprese nell'analizzare i dati per ottenere intuizioni azionabili che aggiungono valore.
La logica per analizzare quei dati era ed è ancora estremamente semplice: comprendere le operazioni di un'azienda utilizzando i dati rende migliori le decisioni prese su quell'azienda. Questo è vero sia per i registri contabili scritti a mano che per i massicci sistemi ERP che aiutano le corporazioni aziendali globali—è più facile con un computer.
L'intelligenza aziendale emerge ma non serve a molti
Avanti veloce alla fine degli anni '70 e all'inizio degli anni '80, quando emersero i sistemi di supporto alle decisioni. Questo software mirava ad aiutare i dirigenti a fare scelte migliori sulle loro attività utilizzando i dati; questo rappresentava probabilmente le prime capacità analitiche confezionate. Più riconoscibile fu l'emergere dell'intelligenza aziendale (BI) negli anni '90, con nomi importanti come Business Objects, Cognos, Hyperion (acquisiti rispettivamente da SAP, IBM e Oracle) e SAS (ancora di proprietà privata) che offrivano capacità di analisi dei dati aziendali più standardizzate.
Presto emerse un problema. Ogni decisore a ogni livello può beneficiare di intuizioni basate sui dati, eppure il software BI era solo nelle mani di dirigenti di alto livello. Di conseguenza, un vasto numero di potenziali beneficiari, inclusi analisti aziendali e professionisti delle operazioni di vendita, ha aumentato la domanda di software di analisi dei dati; questo ha portato all'ascesa della BI self-service alla fine degli anni '90 e all'inizio degli anni 2000. Fornitori come Tableau e Qlik rappresentano al meglio il mercato self-service. Hanno messo gli strumenti di analisi dei dati nelle mani di nuovi utenti, mostrando i risultati in modo visivo, un approccio ampiamente riconosciuto per aver reso l'analisi dei dati più accessibile agli utenti non esperti.

Il lato negativo del self-service è emerso rapidamente in quello che è diventato noto come IT ombra. L'IT ombra è l'ascesa di soluzioni tecnologiche non autorizzate (dall'IT), spesso acquistate da stakeholder delle linee di business che cercano di risolvere un'esigenza insoddisfatta senza fare riferimento alle pratiche di acquisto IT regolari. Nel contesto della BI self-service, l'impatto principale dell'IT ombra è stato il danno ai programmi di governance dei dati aziendali, solitamente consentendo agli utenti di (in molti casi inconsapevolmente) aggirare i controlli sull'accesso ai dati.
Vuoi saperne di più su Strumenti di Visualizzazione dei Dati? Esplora i prodotti Visualizzazione dei dati.
Consolidare decenni di capacità di analisi dei dati con piattaforme di analisi
Dalle grandi piattaforme BI aziendali degli anni '90 a oggi, vediamo l'emergere delle piattaforme di analisi. Una piattaforma di analisi consolida la funzionalità di ogni era di analisi dei dati, portando con sé abilità per servire molti casi d'uso e persone che beneficiano di intuizioni basate sui dati. Queste piattaforme moderne forniscono capacità critiche che realizzano correttamente la promessa originale dell'analisi dei dati: più intuizioni per un numero maggiore di persone. Le soluzioni moderne si adattano perfettamente al mondo attuale dell'IT, che include il supporto per opzioni di distribuzione cloud e tecnologie emergenti come l'IA.
Caratteristiche distintive di una piattaforma di analisi
Ecco alcune delle caratteristiche:
I dati sono ovunque, incluso nel cloud
Per molti, il cloud è un complemento naturale per l'archiviazione e l'elaborazione dei dati, data la sua crescente scala e le opportunità di analizzarlo per ottenere più intuizioni. Le aziende sfruttano l'economia del cloud che sostituisce le spese in conto capitale con spese operative, un approccio generalmente favorito. Questi strumenti offrono archiviazione e calcolo infinitamente scalabili per affrontare le sfide dei big data; eseguire analisi nel cloud è una scelta logica. Tuttavia, i percorsi delle imprese verso il cloud sono ancora in corso, progredendo a velocità diverse a seconda delle dimensioni aziendali, delle industrie e dei tipi di IT, e tutto nel contesto di requisiti di conformità variabili.
Di conseguenza, i carichi di lavoro IT e i dati sottostanti vengono eseguiti e archiviati in molti luoghi diversi—dalle soluzioni on-premises ai cloud pubblici e privati e talvolta attraverso scenari di cloud ibrido. Una piattaforma di analisi deve essere in grado di lavorare con i dati su tutte queste piattaforme per riflettere la realtà dei casi d'uso. Come la maggior parte è ben consapevole, le soluzioni devono essere in grado di soddisfare una gamma variata (e crescente) di requisiti di conformità, come il GDPR dell'Unione Europea e il nuovo Consumer Privacy Act della California.
Le funzionalità potenziate dall'IA aumentano l'accessibilità
Le applicazioni pratiche per l'IA si sentono nelle piattaforme di analisi attraverso funzionalità che aiutano a affrontare i problemi di accessibilità e usabilità associati alla BI tradizionale. Queste includono la funzionalità di analizzare automaticamente i set di dati per le relazioni, portare alla luce intuizioni agli utenti senza lavoro manuale e suggerire automaticamente le migliori visualizzazioni per i risultati. Ciascuno di questi esempi significa che l'utente finale non deve più sottoporsi a una formazione tecnica sostanziale per accedere alle intuizioni dai dati. Questo apre l'analisi a una massa di potenziali nuovi beneficiari.
Parla di analisi con la macchina
Le piattaforme di analisi stanno anche cambiando il modo in cui gli utenti interagiscono con l'analisi. Questo cambiamento è guidato dalle interfacce utente conversazionali (UI) che abilitano la funzionalità di domanda e risposta alimentata da capacità di linguaggio naturale che consentono all'utente di porre una domanda in linguaggio semplice o di avere dati e intuizioni spiegati in termini semplici. I bot intelligenti che si integrano con le comuni suite per ufficio e software di comunicazione interna come Microsoft Teams e Slack sono una caratteristica in crescita, fornendo accesso sempre presente alle intuizioni nelle app in cui le persone lavorano e collaborano.
Analisi più accessibile significa dati più accessibili
Insieme al problema delle competenze tecniche che bloccano l'accesso all'analisi, c'è il problema della disponibilità dei dati. Gli approcci tradizionali alla gestione dei dati, come l'estrazione, la trasformazione e il caricamento pesanti (ETL) abbinati alla conoscenza necessaria per pulire e combinare efficacemente le fonti di dati in un formato adatto all'analisi non si adattano bene all'era attuale del consumo di intuizioni di massa. Sebbene esistano molte soluzioni autonome di preparazione dei dati, mi aspetto un'accelerazione di una tendenza a legare strettamente, o addirittura integrare completamente, queste capacità nelle piattaforme di analisi.
Incorporare intuizioni basate sui dati in altre app
Ho sempre detto che la migliore tecnologia è quella che non ti rendi conto di utilizzare. Questo è vero per l'analisi come per qualsiasi altra tecnologia, e il concetto di incorporare l'analisi in altre applicazioni non è diverso. Simile all'uso delle funzionalità potenziate dall'IA, l'analisi incorporata migliora l'accessibilità per gli utenti non esperti, che ricevono intuizioni basate sui dati nelle app che usano ogni giorno, senza dover utilizzare la soluzione di analisi o passare da un'app all'altra. Ad esempio, il software di gestione delle relazioni con i clienti è spesso uno dei punti di partenza per i fornitori di applicazioni.
La scienza dei dati è la nuova frontiera dell'analisi nell'impresa
La scienza dei dati e la scienza dei dati sono alcuni degli argomenti più discussi nel business tecnologico di oggi. Sebbene in scarsa disponibilità, rappresentano l'ultima iterazione di utenti esperti che una volta dominavano l'uso delle soluzioni analitiche e BI. Questi esperti siedono nei centri di eccellenza e servono l'impresa più ampia con le loro rare capacità. Alcune di queste capacità sono disponibili da molto tempo, come le soluzioni di analisi predittiva. Tuttavia, come discusso in una colonna precedente, solo di recente il volume di dati e la potenza di calcolo disponibile sono stati sufficienti per rendere i casi d'uso su larga scala una realtà.
È opinione di G2 che man mano che le piattaforme di analisi continuano a svilupparsi, le capacità di scienza dei dati saranno il prossimo grande set di funzionalità che verrà incorporato. All'inizio, queste saranno capacità "leggere", in gran parte preconfezionate con opportunità limitate di personalizzazioni. Alla fine, ci si aspetta che la scienza dei dati diventi parte della cassetta degli attrezzi analitica dell'impresa, probabilmente migliorata con molte delle caratteristiche distintive delle piattaforme di analisi discusse sopra. Queste piattaforme forniranno funzioni analitiche avanzate con la complessità sottostante della tecnologia nascosta all'utente finale.
Scopri come la scoperta dei dati aiuta a trovare schemi per raggiungere obiettivi e rimanere competitivi

Tom Pringle
Tom is Vice President of Market Research at G2, and leads our analyst team. Tom's entire professional experience has been in information technology where he has worked in both consulting and research roles. His personal research has focused on data and analytics technologies; more recently, this has led to a practical and philosophical interest in artificial intelligence and automation. Prior to G2, Tom held research, consulting, and management roles at Datamonitor, Deloitte, BCG, and Ovum. Tom received a BSc. from the London School of Economics.
