Introducing G2.ai, the future of software buying.Try now

Quando le piattaforme si scontrano, l'analisi si evolve

Luglio 30, 2020
da Tom Pringle

Nell'ambito della tecnologia aziendale, l'evoluzione apparentemente infinita delle intuizioni basate sui dati continua a ritmo sostenuto—ma quando finirà? 

(Quando i dati non saranno più utili, quindi, mai.)

In precedenti colonne, ho discusso la trasformazione dei sistemi di supporto decisionale del passato verso le attuali piattaforme di analisi. L'ultima espansione nel 2020 è alimentata dall'intelligenza artificiale, o almeno è etichettata come tale. In realtà, è il machine learning—un ramo dell'IA che fornisce la maggior parte dei casi d'uso attuali dell'IA—che ha portato alla ribalta un termine sempre più popolare: analisi aumentata. 

L'industria è desiderosa di mettere nuove parole davanti ad analytics—business, dati, edge, distribuito, in tempo reale—e io sono colpevole quanto il prossimo analista di cedere a questa tentazione. Ma difenderò l'uso di analisi aumentata (anche se non l'ho inventato io) perché è fondamentale per le imprese diventare veramente guidate dai dati.

L'analisi aumentata è l'ultima aggiunta al continuum delle analisi

Quindi come definiamo l'analisi aumentata? Una rapida ricerca su internet fornirà molte possibilità. In poche parole, l'analisi aumentata è l'uso del machine learning per automatizzare la creazione e la consegna di intuizioni basate sui dati. Pensatela come un lavoro in tre aree chiave del percorso dei dati:

1. Trovare e gestire i dati

Il machine learning (ML) può essere utilizzato in molteplici aree della gestione dei dati, dall'aiuto con la formattazione iniziale, alla scansione delle connessioni tra diversi set di dati, alla valutazione della qualità dei dati, e così via. La gestione dei dati è stata una delle maggiori barriere per più persone che lavorano con i dati—poiché la maggior parte non ha le competenze necessarie. Automatizzare parte di questa sfida è un grande progresso.

2. Esperienza di scoperta 

Ok, i dati sono pronti: E allora? Molte persone parlano di scoperta come se richiedesse competenze limitate o nulle. La maggior parte delle esperienze di scoperta dei dati ha richiesto significative competenze di analisi e dati per iniziare a generare intuizioni. Aumentare la scoperta dei dati significa aiutare gli utenti a capire cosa sono i dati a cui hanno accesso e come si collegano ad altri set di dati, oltre a fornire guide per aiutarli a unire e analizzare i dati in un modo che abbia senso analitico.

3. Presentazione delle intuizioni 

La visualizzazione di un nuovo rapporto sulle vendite regionali funziona in un grafico a torta, o sarebbe meglio in un grafico a barre impilate? Un utente potrebbe non rendersi conto che i dati potrebbero essere posizionati su una mappa e codificati a colori, ma uno strumento di analisi aumentata potrebbe. Aiutare le persone a consumare informazioni nel modo più semplice è fondamentale, e non tutti possono essere esperti di visualizzazione. Dal suggerire come le informazioni sono presentate, agli avvisi intelligenti all'interno di un'altra app—l'aumento della consegna dell'analisi aiuta più persone a ottenere di più dai dati.

Nomi familiari come IBM, Oracle, Salesforce, SAP, Tableau, e Qlik, tra gli altri, sono stati impegnati ad aumentare l'esperienza utente dei loro prodotti di analisi. Questa è una buona notizia sia per gli utenti esperti che per quelli novizi di analisi. Ma, questo significa che l'analisi aumentata rappresenta lo stato finale e maturo dell'analisi dei dati? Certo che no!

La scienza dei dati si sta spostando dal laboratorio al piano di produzione

Arricchire le piattaforme di analisi con l'IA è il primo passo in un lungo viaggio avanti: l'incontro e l'eventuale fusione di analisi e l'attuale scienza dei dati

L'uso del machine learning per aumentare e automatizzare le funzionalità di analisi è analogo allo sviluppo delle auto a guida autonoma. Prima sono arrivati i sensori di parcheggio e i computer di bordo, poi l'assistenza al parcheggio e la frenata automatica; gli sviluppi continueranno fino a quando non potremo consegnare il veicolo completamente autonomo. Allo stesso modo, man mano che l'analisi aumentata diventa più intelligente, la sua quota di casi d'uso di creazione di intuizioni crescerà, e o le scienze dei dati si ritireranno—o, più probabilmente, troveranno modi nuovi e sempre più complessi per interrogare i dati. In altre parole, strumenti e tecniche analitiche dal laboratorio scientifico faranno il loro ingresso nell'uso regolare sul piano di produzione.

La scienza dei dati sta subendo la propria trasformazione, da una vasta collezione di strumenti disparati ma interdipendenti a una piattaforma integrata. Qui a G2, abbiamo recentemente aggiornato la nostra tassonomia per affrontare questi cambiamenti, aggiungendo una nuova categoria, piattaforme di scienza dei dati e machine learning, alla nostra tassonomia del software di IA.

Collegare il percorso dei dati nella scienza dei dati è simile a quello nelle analisi—partendo dalla costruzione e test del modello, addestrando il modello sui dati rilevanti, e passando attraverso l'operazionalizzazione e il monitoraggio e la gestione del modello. Molti fornitori nel settore stanno unendo strumenti e funzionalità in un'unica piattaforma, che aiuta gli utenti finali a migliorare l'efficienza dei loro progetti. Inoltre, queste piattaforme aiutano a garantire che il lavoro degli scienziati dei dati sia compatibile e comparabile, e portano funzionalità come governance integrata, tracciabilità e caratteristiche di riproducibilità che aumentano la fiducia nei modelli creati.

Leggi di più: Il G2 su Enterprise AI & Analytics: IA — Cos'è veramente e perché è importante?

Utilizzare la necessità di investire nei dati per abilitare migliori analisi

L'appetito crescente per l'analisi dei dati ha innescato molteplici evoluzioni software—quello che io chiamo il continuum delle analisi. Come discusso in uno dei miei articoli recenti, ci sono decenni di storia qui, e prevedo fermamente che man mano che le piattaforme di scienza dei dati e machine learning si consolidano e standardizzano le funzionalità, la loro orbita attorno alle piattaforme di analisi si avvicinerà sempre di più. Agire come un freno a questi sviluppi continuerà ad essere, beh, ciò che ha sempre ostacolato le analisi: la disponibilità dei dati.

Le organizzazioni raramente sono a corto di dati; di solito il problema è piuttosto inverso, e molte lottano per gestire sia il volume di dati disponibili che ciò che dovrebbe essere conservato. Tuttavia, la disponibilità di dati che soddisfano il caso d'uso—cioè, trovarli, accedervi fisicamente, garantire che la loro qualità sia sufficiente e formattarli a uno standard consumabile per le analisi—è stata una questione costante. Inoltre, ottenere supporto per gli investimenti necessari a fornire competenze di gestione dei dati, software e un programma continuo di governance è stato tradizionalmente difficile, e lo è ancora. Le innumerevoli opzioni di archiviazione e formattazione dei dati ora disponibili non fanno che aumentare questa sfida, con dati archiviati in tutto, dai dispositivi connessi e cloud pubblici, ai mainframe mission-critical.

Quindi come risolvere il dilemma dei dati? Ci sono diverse opzioni per le organizzazioni che devono investire nei loro dati, e forse non sorprende che la regolamentazione sia uno dei principali motori. Le leggi sulla conservazione dei dati—il GDPR dell'UE e il CCPA della California, già in vigore, sono tra una gamma crescente di legislazioni simili—stanno aggiungendo una seria potenza di fuoco al caso per investire nelle capacità di gestione dei dati, come la qualità dei dati, i cataloghi dei dati, la gestione dei dati master, e nuovi archivi di dati cloud. 

Ma investire perché si deve per minimizzare il rischio non è certo la prospettiva più eccitante (anche se estremamente importante). Per rafforzare questi casi, G2 suggerisce di concentrarsi su ciò che l'accesso a dati migliori consente. Da un'analisi più approfondita che porta a migliori risultati aziendali, attraverso l'automazione alimentata dal machine learning—le opzioni presentate dalle piattaforme di analisi che consumano questi dati, abbinate alle emergenti piattaforme di scienza dei dati, sono sostanziali.

Vuoi saperne di più su Software di Intelligenza Artificiale? Esplora i prodotti Intelligenza Artificiale.

Tom Pringle
TP

Tom Pringle

Tom is Vice President of Market Research at G2, and leads our analyst team. Tom's entire professional experience has been in information technology where he has worked in both consulting and research roles. His personal research has focused on data and analytics technologies; more recently, this has led to a practical and philosophical interest in artificial intelligence and automation. Prior to G2, Tom held research, consulting, and management roles at Datamonitor, Deloitte, BCG, and Ovum. Tom received a BSc. from the London School of Economics.