Introducing G2.ai, the future of software buying.Try now

Eine kurze Geschichte der Daten und die Geburt von Analyseplattformen

9. Oktober 2019
von Tom Pringle

Die Geschichte des ersten Business-Computers könnte nicht britischer sein, selbst wenn sie es versuchen würde.

Der britische Teeladenbetreiber und Caterer J. Lyons & Co. setzte 1951 das Lyons Electronic Office (LEO) ein, um Berechnungen zu den Kosten der in seinen Backwaren verwendeten Zutaten durchzuführen. LEO übernahm bald die Verantwortung für die Lohnabrechnung der Belegschaft des Unternehmens (LEO arbeitete auch für das britische Verteidigungsministerium und berechnete Flugbahnen von Raketen). LEO wird weithin als die erste Echtzeitanwendung im Büro anerkannt und hat nach Meinung dieses Analysten nicht nur die moderne Ära der Unternehmensinformatik eingeläutet, sondern war auch der erste Schritt in Richtung des Interesses von Unternehmen, Daten für wertschöpfende, umsetzbare Erkenntnisse zu analysieren.

Die Begründung für die Analyse dieser Daten war und ist nach wie vor äußerst einfach: Das Verständnis der Abläufe eines Unternehmens durch die Nutzung von Daten verbessert die Entscheidungen, die über dieses Unternehmen getroffen werden. Dies gilt sowohl für handgeschriebene Buchhaltungsbücher als auch für massive ERP-Systeme, die globalen Geschäftskonzernen helfen – mit einem Computer ist es einfacher.

Business Intelligence entsteht, scheitert aber daran, vielen zu dienen

Springen wir in die späten 70er und frühen 80er Jahre, als Entscheidungshilfesysteme aufkamen. Diese Software zielte darauf ab, Führungskräften zu helfen, bessere Entscheidungen über ihre Unternehmen zu treffen, indem sie Daten nutzten; dies stellte wohl die ersten verpackten analytischen Fähigkeiten dar. Erkennbarer war das Aufkommen von Business Intelligence (BI) in den 1990er Jahren, mit großen Namen wie Business Objects, Cognos, Hyperion (übernommen von SAP, IBM und Oracle), und SAS (noch immer in Privatbesitz), die standardisiertere Unternehmensdatenanalysefähigkeiten lieferten.

Ein Problem tauchte bald auf. Jeder Entscheidungsträger auf jeder Ebene kann von datengestützten Erkenntnissen profitieren, doch BI-Software war nur in den Händen von hochrangigen Managern und Führungskräften. Infolgedessen erhöhte die große Zahl potenzieller Nutznießer, darunter Geschäftsanalysten und Vertriebsmitarbeiter, die Nachfrage nach Datenanalysesoftware; dies führte zum Aufstieg von Self-Service-BI in den späten 90er und frühen 2000er Jahren. Anbieter wie Tableau und Qlik repräsentieren am besten den Self-Service-Markt. Sie stellten Datenanalysetools neuen Nutzern zur Verfügung und zeigten die Ergebnisse auf visuelle Weise, ein Ansatz, der weithin dafür anerkannt wird, die Datenanalyse für nicht-expertische Nutzer zugänglicher zu machen.

Analytik in einer einfachen Benutzeroberfläche

Der Nachteil des Self-Service trat schnell in dem auf, was als Schatten-IT bekannt wurde. Schatten-IT ist der Aufstieg von nicht genehmigten (von der IT) technischen Lösungen, die oft von Geschäftsbereichsverantwortlichen gekauft werden, die versuchen, ein unbefriedigtes Bedürfnis zu lösen, ohne sich auf reguläre IT-Kaufpraktiken zu beziehen. Im Kontext von Self-Service-BI war der primäre Einfluss der Schatten-IT die Schädigung von Unternehmensdaten-Governance-Programmen, indem sie es den Nutzern (in vielen Fällen unwissentlich) ermöglichte, Kontrollen des Datenzugriffs zu umgehen.

Möchten Sie mehr über Datenvisualisierungswerkzeuge erfahren? Erkunden Sie Datenvisualisierung Produkte.

Konsolidierung von Jahrzehnten der Datenanalysefähigkeiten mit Analyseplattformen

Von den großen BI-Plattformen der 90er Jahre bis heute sehen wir das Aufkommen von Analyseplattformen. Eine Analyseplattform konsolidiert die Funktionalität jeder Ära der Datenanalyse und bringt Fähigkeiten mit sich, um viele Anwendungsfälle und Personas zu bedienen, die von datengestützten Erkenntnissen profitieren. Diese modernen Plattformen bieten kritische Fähigkeiten, die das ursprüngliche Versprechen der Datenanalyse richtig einlösen: mehr Erkenntnisse für eine größere Anzahl von Menschen. Moderne Lösungen passen sich nahtlos in die heutige IT-Welt ein, die Cloud-Bereitstellungsoptionen und aufkommende Technologien wie KI unterstützt.

Definierende Merkmale einer Analyseplattform

Hier sind einige der Merkmale:

Daten sind überall, auch in der Cloud

Für viele ist die Cloud eine natürliche Ergänzung zur Datenspeicherung und -verarbeitung, angesichts ihrer wachsenden Skalierung und der Möglichkeiten, sie für mehr Erkenntnisse zu analysieren. Unternehmen nutzen die Cloud-Ökonomie, die Kapitalausgaben durch Betriebsausgaben ersetzt, ein allgemein bevorzugter Ansatz. Diese Tools bieten unendlich skalierbaren Speicher und Rechenleistung, um Big-Data-Herausforderungen zu bewältigen; Analysen in der Cloud durchzuführen, ist eine logische Wahl. Allerdings sind die Reisen der Unternehmen in die Cloud noch im Gange, sie schreiten mit unterschiedlichen Geschwindigkeiten über Unternehmensgrößen, Branchen und IT-Typen hinweg voran, und das alles im Kontext unterschiedlicher Compliance-Anforderungen.

Infolgedessen werden IT-Workloads und zugrunde liegende Daten an vielen verschiedenen Orten ausgeführt und gespeichert – von On-Premises-Lösungen bis hin zu öffentlichen und privaten Clouds und manchmal über hybride Cloud-Szenarien hinweg. Eine Analyseplattform muss in der Lage sein, mit Daten auf all diesen Plattformen zu arbeiten, um die Realität der Anwendungsfälle widerzuspiegeln. Wie die meisten nur zu gut wissen, müssen Lösungen in der Lage sein, eine vielfältige (und wachsende) Palette von Compliance-Anforderungen zu erfüllen, wie die Datenschutz-Grundverordnung der Europäischen Union (DSGVO) und das neue California Consumer Privacy Act.

KI-gestützte Funktionen erhöhen die Zugänglichkeit

Praktische Anwendungen für KI sind in Analyseplattformen durch Funktionen zu spüren, die helfen, die Zugänglichkeits- und Nutzbarkeitsprobleme traditioneller BI anzugehen. Dazu gehören die Funktionalität, Datensätze automatisch auf Beziehungen zu analysieren, Erkenntnisse den Nutzern ohne manuelle Arbeit zu präsentieren und die besten Visualisierungen für Ergebnisse automatisch vorzuschlagen. Jedes dieser Beispiele bedeutet, dass der Endnutzer keine umfangreiche technische Schulung mehr durchlaufen muss, um Erkenntnisse aus Daten zu gewinnen. Dies öffnet die Analytik für eine Masse potenzieller neuer Nutznießer.

Führen Sie ein Gespräch über Analytik mit der Maschine

Analyseplattformen verändern auch die Art und Weise, wie Nutzer mit Analytik interagieren. Dieser Wandel wird durch konversationelle Benutzeroberflächen (UIs) vorangetrieben, die Frage-und-Antwort-Funktionalität ermöglichen, die durch natürliche Sprachfähigkeiten unterstützt wird, die es dem Nutzer entweder ermöglichen, eine Frage in einfacher Sprache zu stellen oder Daten und Erkenntnisse in Laiensprache erklärt zu bekommen. Intelligente Bots, die sich in gängige Office-Suiten und interne Kommunikationssoftware wie Microsoft Teams und Slack integrieren, sind ein wachsendes Merkmal, das immerwährenden Zugang zu Erkenntnissen in den Apps bietet, in denen Menschen arbeiten und zusammenarbeiten.

Mehr zugängliche Analytik bedeutet mehr zugängliche Daten

Zusätzlich zu dem Problem, dass technische Fähigkeiten den Zugang zur Analytik blockieren, gibt es das Problem der Datenverfügbarkeit. Traditionelle Ansätze zum Datenmanagement, wie schwerfällige Extraktions-, Transformations- und Ladeprozesse (ETL), gepaart mit dem notwendigen Wissen, um Datenquellen effektiv zu bereinigen und in ein analysenfreundliches Format zu kombinieren, skalieren nicht gut für die aktuelle Ära des Massenkonsums von Erkenntnissen. Während viele eigenständige Datenvorbereitungslösungen existieren, erwarte ich eine Beschleunigung des Trends, diese Fähigkeiten eng mit Analyseplattformen zu verknüpfen oder sogar vollständig zu integrieren.

Einbettung datengestützter Erkenntnisse in andere Apps

Ich habe lange gesagt, dass die beste Technologie diejenige ist, die man nicht bemerkt, dass man sie benutzt. Dies gilt für Analytik genauso wie für jede andere Technologie, und das Konzept der Einbettung von Analytik in andere Anwendungen ist nicht anders. Ähnlich wie bei der Nutzung von KI-gestützten Funktionen verbessern eingebettete Analysen die Zugänglichkeit für nicht-expertische Nutzer, die datengestützte Erkenntnisse in den Apps erhalten, die sie täglich verwenden, ohne die Analyselösung nutzen oder zwischen Apps wechseln zu müssen. Zum Beispiel ist Kundenbeziehungsmanagement-Software oft einer der Ausgangspunkte für Anwendungsanbieter.

Datenwissenschaft ist die neue Grenze der Analytik im Unternehmen

Datenwissenschaft und Datenwissenschaft sind einige der am meisten diskutierten Themen im Technologiebereich heute. Obwohl sie knapp sind, stellen sie die neueste Iteration von Power-Usern dar, die einst die Nutzung von analytischen und BI-Lösungen dominierten. Diese Experten sitzen in Zentren der Exzellenz und dienen dem breiteren Unternehmen mit ihren seltenen Fähigkeiten. Einige dieser Fähigkeiten sind schon lange verfügbar, wie prädiktive Analyselösungen. Allerdings, wie in einer früheren Kolumne diskutiert, ist erst kürzlich das Volumen an Daten und die verfügbare Rechenleistung ausreichend, um Anwendungsfälle im großen Maßstab zu realisieren.

Es ist die Meinung von G2, dass, während Analyseplattformen weiter ausgebaut werden, Datenwissenschaftsfähigkeiten das nächste große Feature-Set sein werden, das integriert wird. Zunächst werden dies „leichte“ Fähigkeiten sein, die weitgehend vorgefertigt sind und nur begrenzte Anpassungsmöglichkeiten bieten. Letztendlich wird erwartet, dass Datenwissenschaft Teil des Analysewerkzeugsatzes des Unternehmens wird, wahrscheinlich verbessert mit vielen der oben diskutierten definierenden Merkmale von Analyseplattformen. Diese Plattformen werden fortschrittliche analytische Funktionen liefern, wobei die zugrunde liegende Komplexität der Technologie vor dem Endnutzer verborgen bleibt.

Erfahren Sie, wie Datenentdeckung hilft, Muster zu finden, um Ziele zu erreichen und wettbewerbsfähig zu bleiben

Tom Pringle
TP

Tom Pringle

Tom is Vice President of Market Research at G2, and leads our analyst team. Tom's entire professional experience has been in information technology where he has worked in both consulting and research roles. His personal research has focused on data and analytics technologies; more recently, this has led to a practical and philosophical interest in artificial intelligence and automation. Prior to G2, Tom held research, consulting, and management roles at Datamonitor, Deloitte, BCG, and Ovum. Tom received a BSc. from the London School of Economics.