Introducing G2.ai, the future of software buying.Try now

Une brève histoire des données et la naissance des plateformes d'analyse

9 Octobre 2019
par Tom Pringle

L'histoire du premier ordinateur d'entreprise ne pourrait pas être plus britannique, même si elle essayait.

Le gérant de salons de thé et traiteur britannique J. Lyons & Co. a mis en service le Lyons Electronic Office (LEO) en 1951, effectuant des calculs sur le coût des ingrédients utilisés dans ses produits de boulangerie. LEO a rapidement assumé les responsabilités de gestion de la paie pour les employés de l'entreprise (LEO a également travaillé pour le ministère de la Défense du Royaume-Uni, calculant les trajectoires de missiles). LEO est largement reconnu comme la première application de bureau en temps réel au monde, et selon cet analyste, non seulement il a lancé l'ère moderne de l'informatique d'entreprise, mais il a été le premier pas vers l'intérêt des entreprises pour l'analyse des données afin d'obtenir des informations exploitables à valeur ajoutée.

La raison d'analyser ces données était et est toujours extrêmement simple : comprendre les opérations d'une entreprise en utilisant des données rend les décisions prises à propos de cette entreprise meilleures. Cela est vrai tant pour les registres comptables manuscrits que pour les systèmes ERP massifs qui aident les grandes entreprises mondiales — c'est plus facile avec un ordinateur.

L'intelligence d'affaires émerge mais ne sert pas beaucoup

Avançons jusqu'à la fin des années 70 et au début des années 80, lorsque les systèmes d'aide à la décision ont émergé. Ce logiciel visait à aider les dirigeants à faire de meilleurs choix concernant leurs entreprises en utilisant des données ; cela représentait sans doute les premières capacités analytiques packagées. Plus reconnaissable était l'émergence de l'intelligence d'affaires (BI) dans les années 1990, avec des noms majeurs tels que Business Objects, Cognos, Hyperion (acquis par SAP, IBM, et Oracle, respectivement), et SAS (toujours détenu en privé) offrant des capacités d'analyse de données d'entreprise plus standardisées.

Un problème est rapidement apparu. Chaque décideur à chaque niveau peut bénéficier d'informations basées sur les données, mais le logiciel BI était uniquement entre les mains des cadres supérieurs et des dirigeants. En conséquence, un grand nombre de bénéficiaires potentiels, y compris les analystes d'affaires et les professionnels des opérations de vente, ont augmenté la demande de logiciels d'analyse de données ; cela a conduit à l'essor du BI en libre-service à la fin des années 90 et au début des années 2000. Des fournisseurs tels que Tableau et Qlik représentent le mieux le marché du libre-service. Ils ont mis des outils d'analyse de données entre les mains de nouveaux utilisateurs, affichant les résultats de manière visuelle, une approche largement reconnue pour avoir rendu l'analyse de données plus accessible aux utilisateurs non experts.

analytics in a simple interface

L'inconvénient du libre-service est rapidement apparu dans ce qui est devenu connu sous le nom de shadow IT. Le shadow IT est la montée de solutions technologiques non sanctionnées (par l'informatique), souvent achetées par des parties prenantes des lignes de métier cherchant à résoudre un besoin non satisfait sans se référer aux pratiques d'achat informatiques régulières. Dans le contexte du BI en libre-service, l'impact principal du shadow IT a été de nuire aux programmes de gouvernance des données d'entreprise, généralement en permettant aux utilisateurs de contourner (dans de nombreux cas involontairement) les contrôles d'accès aux données.

Vous voulez en savoir plus sur Outils de visualisation de données ? Découvrez les produits Visualisation des données.

Consolider des décennies de capacités d'analyse de données avec des plateformes analytiques

Des grandes plateformes BI d'entreprise des années 90 à aujourd'hui, nous voyons l'émergence de plateformes analytiques. Une plateforme analytique consolide les fonctionnalités de chaque ère d'analyse de données, apportant avec elle des capacités pour servir de nombreux cas d'utilisation et des personas qui bénéficient d'informations basées sur les données. Ces plateformes modernes fournissent des capacités critiques qui réalisent correctement la promesse originale de l'analyse de données : plus d'informations pour un plus grand nombre de personnes. Les solutions modernes s'intègrent parfaitement dans le monde actuel de l'informatique, qui inclut le support des options de déploiement dans le cloud et des technologies émergentes telles que l'IA.

Caractéristiques définissant une plateforme analytique

Voici quelques-unes des caractéristiques :

Les données sont partout, y compris dans le cloud

Pour beaucoup, le cloud est un complément naturel au stockage et au traitement des données, compte tenu de son échelle croissante et des opportunités d'analyse pour obtenir plus d'informations. Les entreprises profitent de l'économie du cloud qui remplace les dépenses en capital par des dépenses opérationnelles, une approche généralement favorisée. Ces outils offrent un stockage et une capacité de calcul infiniment évolutifs pour relever les défis des big data ; exécuter des analyses dans le cloud est un choix logique. Cependant, les parcours des entreprises vers le cloud sont encore en cours, progressant à des vitesses différentes selon les tailles d'entreprise, les industries et les types d'informatique, et tout cela dans le contexte de diverses exigences de conformité.

En conséquence, les charges de travail informatiques et les données sous-jacentes sont exécutées et stockées dans de nombreux endroits différents — des solutions sur site aux clouds publics et privés et parfois à travers des scénarios de cloud hybride. Une plateforme analytique doit être capable de travailler avec des données sur toutes ces plateformes pour refléter la réalité des cas d'utilisation. Comme la plupart en sont bien conscients, les solutions doivent être capables de s'adapter à une gamme variée (et croissante) d'exigences de conformité, telles que le RGPD de l'Union européenne et la nouvelle Loi sur la protection de la vie privée des consommateurs de Californie.

Les fonctionnalités alimentées par l'IA augmentent l'accessibilité

Les applications pratiques de l'IA se font sentir dans les plateformes analytiques à travers des fonctionnalités qui aident à résoudre les problèmes d'accessibilité et d'utilisabilité associés au BI traditionnel. Celles-ci incluent la fonctionnalité d'analyser automatiquement les ensembles de données pour les relations, de présenter des informations aux utilisateurs sans travail manuel, et de suggérer automatiquement les meilleures visualisations pour les résultats. Chacun de ces exemples signifie que l'utilisateur final n'a plus besoin de suivre une formation technique substantielle pour accéder aux informations à partir des données. Cela ouvre l'analyse à une masse de nouveaux bénéficiaires potentiels.

Ayez une conversation sur l'analyse avec la machine

Les plateformes analytiques changent également la façon dont les utilisateurs interagissent avec l'analyse. Ce changement est motivé par des interfaces utilisateur conversationnelles (UIs) qui permettent une fonctionnalité de question-réponse alimentée par des capacités de langage naturel qui permettent soit à l'utilisateur de poser une question en langage clair, soit d'avoir des données et des informations expliquées en termes simples. Les bots intelligents qui s'intègrent aux suites bureautiques et aux logiciels de communication interne tels que Microsoft Teams et Slack sont une fonctionnalité en croissance, offrant un accès toujours présent aux informations dans les applications où les gens travaillent et collaborent.

Des analyses plus accessibles signifient des données plus accessibles

Avec le problème des compétences techniques bloquant l'accès aux analyses, se pose également la question de la disponibilité des données. Les approches traditionnelles de gestion des données, telles que l'extraction, la transformation et le chargement lourds (ETL) associées à la connaissance nécessaire pour nettoyer et combiner efficacement les sources de données dans un format adapté à l'analyse, ne s'adaptent pas bien à l'ère actuelle de la consommation massive d'informations. Bien que de nombreuses solutions de préparation des données autonomes existent, je m'attends à une accélération d'une tendance à lier étroitement, voire à intégrer pleinement, ces capacités dans les plateformes analytiques.

Intégrer des informations basées sur les données dans d'autres applications

J'ai longtemps dit que la meilleure technologie est celle que vous ne réalisez pas que vous utilisez. Cela est aussi vrai pour l'analyse que pour toute autre technologie, et le concept d'intégrer l'analyse dans d'autres applications n'est pas différent. Similaire à l'utilisation de fonctionnalités alimentées par l'IA, l'analyse intégrée améliore l'accessibilité pour les utilisateurs non experts, qui reçoivent des informations basées sur les données dans les applications qu'ils utilisent tous les jours, sans avoir à utiliser la solution d'analyse, ou à passer d'une application à l'autre. Par exemple, le logiciel de gestion de la relation client est le plus souvent l'un des points de départ pour les fournisseurs d'applications.

La science des données est la nouvelle frontière de l'analyse dans l'entreprise

La science des données et la science des données sont parmi les sujets les plus discutés dans le secteur technologique aujourd'hui. Bien qu'en quantité limitée, elles représentent la dernière itération des utilisateurs avancés qui dominaient autrefois l'utilisation des solutions analytiques et BI. Ces experts siègent dans des centres d'excellence et servent l'entreprise au sens large avec leurs capacités rares. Certaines de ces capacités sont disponibles depuis longtemps, telles que les solutions d'analyse prédictive. Cependant, comme discuté dans une chronique précédente, ce n'est que récemment que le volume de données et la puissance de calcul disponible ont été suffisants pour rendre les cas d'utilisation à grande échelle une réalité.

C'est l'opinion de G2 que, à mesure que les plateformes analytiques continuent de se développer, les capacités de science des données seront le prochain grand ensemble de fonctionnalités à être incorporé. Au début, celles-ci seront des capacités "légères", largement préconstruites avec peu d'opportunités de personnalisation. En fin de compte, attendez-vous à ce que la science des données devienne partie intégrante de la boîte à outils analytique de l'entreprise, probablement améliorée avec bon nombre des caractéristiques définissant les plateformes analytiques discutées ci-dessus. Ces plateformes offriront des fonctions analytiques avancées avec la complexité sous-jacente de la technologie cachée à l'utilisateur final.

Découvrez comment la découverte de données aide à trouver des modèles pour atteindre des objectifs et rester compétitif

Tom Pringle
TP

Tom Pringle

Tom is Vice President of Market Research at G2, and leads our analyst team. Tom's entire professional experience has been in information technology where he has worked in both consulting and research roles. His personal research has focused on data and analytics technologies; more recently, this has led to a practical and philosophical interest in artificial intelligence and automation. Prior to G2, Tom held research, consulting, and management roles at Datamonitor, Deloitte, BCG, and Ovum. Tom received a BSc. from the London School of Economics.