Cloudera Data Platform Funktionen
Berichte (5)
Benutzeroberfläche "Berichte"
Die Berichtsschnittstelle für Standard- und Self-Service-Berichte ist intuitiv und einfach zu bedienen.
Schritte zur Beantwortung
Erfordert eine minimale Anzahl von Schritten/Klicks, um die Geschäftsfrage zu beantworten.
Grafiken und Diagramme
Bietet eine Vielzahl attraktiver Grafik- und Diagrammformate.
Score-Karten
Scorecards verfolgen KPIs visuell.
Armaturenbretter
Bietet Geschäftsanwendern eine Schnittstelle zum einfachen Entwerfen, Verfeinern und Zusammenarbeiten an ihren Dashboards
Selbstbedienung (6)
Berechnete Felder
Mithilfe von Formeln, die auf vorhandenen Datenelementen basieren, können Benutzer neue Feldwerte erstellen und berechnen.
Filtern von Datenspalten
Geschäftsanwender haben die Möglichkeit, Daten in einem Bericht basierend auf vordefinierten oder automatisch modellierten Parametern zu filtern.
Datenermittlung
Benutzer können Daten aufschlüsseln und untersuchen, um neue Erkenntnisse zu gewinnen.
Suchen
Möglichkeit, einen globalen Datensatz zu durchsuchen, um Daten zu finden und zu ermitteln.
Kollaboration / Workflow
Möglichkeit für Benutzer, Daten und Berichte, die sie innerhalb des BI-Tools erstellt haben, und außerhalb des Tools über andere Kollaborationsplattformen freizugeben.
Automatische Modellierung
Das Tool schlägt automatisch Datentypen, Schemata und Hierarchien vor.
Erweiterte Analytik (3)
Prädiktive Analytik
Analysieren Sie aktuelle und historische Trends, um Vorhersagen über zukünftige Ereignisse zu treffen.
Datenvisualisierung
Kommunizieren Sie komplexe Informationen klar und effektiv durch fortschrittliche grafische Techniken.
Big-Data-Dienste
Fähigkeit, große, komplexe und/oder isolierte Datensätze zu verarbeiten.
Gebäude-Berichte (4)
Datentransformation
Konvertiert Datenformate von Quelldaten fehlerfrei in das für das Berichtssystem erforderliche Format.
Datenmodellierung
Fähigkeit, Daten so zu (re)strukturieren, dass Erkenntnisse schnell und genau extrahiert werden können.
Entwurf von WYSIWYG-Berichten
Bietet Geschäftsanwendern eine Schnittstelle zum einfachen Entwerfen und Verfeinern ihrer Dashboards und Berichte. (Was du siehst, ist das, was du bekommst)
Integrations-APIs
Anwendungsprogrammierschnittstelle - Spezifikation für die Kommunikation der Anwendung mit anderer Software. APIs ermöglichen in der Regel die Integration von Daten, Logik, Objekten usw. in andere Softwareanwendungen.
Datenbank-Funktionen (7)
Lagerung
Verfügbarkeit
Stabilität
Skalierbarkeit
Sicherheit
Datenmanipulation
Abfragesprache
Modellentwicklung (5)
Unterstützte Sprachen
Unterstützt Programmiersprachen wie Java, C oder Python. Unterstützt Frontend-Sprachen wie HTML, CSS und JavaScript
Drag-and-Drop
Bietet Entwicklern die Möglichkeit, Codeteile oder Algorithmen beim Erstellen von Modellen per Drag & Drop zu verschieben
Vorgefertigte Algorithmen
Bietet Benutzern vorgefertigte Algorithmen für eine einfachere Modellentwicklung
Modell-Training
Liefert große Datensätze zum Trainieren einzelner Modelle
Feature-Entwicklung
Wandelt Rohdaten in Merkmale um, die das zugrunde liegende Problem für die Vorhersagemodelle besser darstellen
Machine-/Deep-Learning-Dienste (6)
Maschinelles Sehen
Bietet Bilderkennungsdienste an
Verarbeitung natürlicher Sprache
Bietet Dienstleistungen zur Verarbeitung natürlicher Sprache an
Generierung natürlicher Sprache
Bietet Dienstleistungen zur Generierung natürlicher Sprache an
Künstliche neuronale Netze
Bietet künstliche neuronale Netze für Benutzer
Verstehen natürlicher Sprache
Bietet Dienste zum Verstehen natürlicher Sprache
Deep Learning
Bietet Deep-Learning-Funktionen
Einsatz (15)
Managed Service
Verwaltet die intelligente Anwendung für den Benutzer und reduziert den Bedarf an Infrastruktur
Anwendung
Ermöglicht es Benutzern, maschinelles Lernen in Betriebsanwendungen einzubinden
Skalierbarkeit
Bietet leicht skalierbare Anwendungen und Infrastrukturen für maschinelles Lernen
Sprachliche Flexibilität
Ermöglicht Benutzern die Eingabe von Modellen, die in einer Vielzahl von Sprachen erstellt wurden.
Flexibilität des Rahmens
Ermöglicht es Benutzern, das Framework oder die Workbench ihrer Wahl auszuwählen.
Versionsverwaltung
Die Versionsverwaltung von Datensätzen, während Modelle durchlaufen werden.
Einfache Bereitstellung
Bietet eine Möglichkeit zum schnellen und effizienten Bereitstellen von Machine Learning-Modellen.
Skalierbarkeit
Bietet eine Möglichkeit, die Verwendung von Machine Learning-Modellen im gesamten Unternehmen zu skalieren.
On-Premise
Bietet On-Premise-Bereitstellungsoptionen.
Cloud
Bietet Cloud-Bereitstellungsoptionen (Private oder Public Cloud, Hybrid Cloud).
Sprachliche Flexibilität
Ermöglicht Benutzern die Eingabe von Modellen, die in einer Vielzahl von Sprachen erstellt wurden.
Flexibilität des Rahmens
Ermöglicht es Benutzern, das Framework oder die Workbench ihrer Wahl auszuwählen.
Versionsverwaltung
Die Versionsverwaltung von Datensätzen, während Modelle durchlaufen werden.
Einfache Bereitstellung
Bietet eine Möglichkeit zum schnellen und effizienten Bereitstellen von Machine Learning-Modellen.
Skalierbarkeit
Bietet eine Möglichkeit, die Verwendung von Machine Learning-Modellen im gesamten Unternehmen zu skalieren.
Datenbank (3)
Datenerfassung in Echtzeit
Sammelt, speichert und organisiert riesige, unstrukturierte Daten in Echtzeit
Datenverteilung
Erleichtert die Verbreitung der gesammelten Big Data in parallelen Rechenclustern
Data Lake
Erstellt ein Repository zum Sammeln und Speichern von Rohdaten von Sensoren, Geräten, Maschinen, Dateien usw.
Integrationen (2)
Hadoop-Integration
Richtet Verarbeitungs- und Verteilungs-Workflows auf Apache Hadoop aus
Spark-Integration
Richtet Verarbeitungs- und Verteilungs-Workflows auf Apache Hadoop aus
Plattform (3)
Maschinelle Skalierung
Erleichtert die Ausführung und Skalierung der Lösung auf einer großen Anzahl von Maschinen und Systemen
Datenaufbereitung
Kuratiert gesammelte Daten für Big-Data-Analyselösungen, um sie zu analysieren, zu manipulieren und zu modellieren
Spark-Integration
Richtet Verarbeitungs- und Verteilungs-Workflows auf Apache Hadoop aus
Verarbeitung (2)
Cloud-Verarbeitung
Verlagerung der Big-Data-Erfassung und -Verarbeitung in die Cloud
Workload-Verarbeitung
Verarbeitet Batch-, Echtzeit- und Streaming-Daten-Workloads in einzelnen, mandantenfähigen oder Cloud-Systemen
Datentransformation (2)
Echtzeit-Analysen
Erleichtert die Analyse großer Datenmengen in Echtzeit.
Datenabfrage
Ermöglicht es dem Benutzer, Daten über Abfragesprachen wie SQL abzufragen.
Verbindung (4)
Hadoop-Integration
Richtet Verarbeitungs- und Verteilungs-Workflows auf Apache Hadoop aus
Spark-Integration
Richtet Verarbeitungs- und Verteilungsworkflows auf Apache Spark aus
Multi-Source-Analyse
Integriert Daten aus mehreren externen Datenbanken.
Data Lake
Erleichtert die Verbreitung der gesammelten Big Data in parallelen Computing-Clustern.
Transaktionen (7)
Datenvisualisierung
Verarbeitet Daten und stellt Interpretationen in einer Vielzahl von grafischen Formaten dar.
Daten-Workflow
Reiht bestimmte Funktionen und Datasets aneinander, um Analyseiterationen zu automatisieren.
Geregelte Ermittlung
Isoliert bestimmte Datensätze und erleichtert die Verwaltung des Datenzugriffs.
Notizbücher
Verwenden von Notebooks für Aufgaben wie das Erstellen von Dashboards mit vordefinierten, geplanten Abfragen und Visualisierungen
Metriken
Kontrollieren Sie die Modellnutzung und -leistung in der Produktion
Infrastruktur-Management
Stellen Sie geschäftskritische ML-Anwendungen bereit, wo und wann immer Sie sie benötigen
Zusammenarbeit
Vergleichen Sie ganz einfach Experimente – Code, Hyperparameter, Metriken, Vorhersagen, Abhängigkeiten, Systemmetriken und mehr –, um Unterschiede in der Modellleistung zu verstehen.
Daten-Governance (3)
Verwaltung des Benutzerzugriffs
Ermöglicht Administratoren die Zuweisung von rollenbasiertem Benutzerzugriff für bestimmte Datensätze
Dynamische Datenmaskierung
Automatisches Ausblenden und Maskieren sensibler Daten basierend auf Benutzerberechtigungen
Datenherkunft
Bietet historische Einblicke in ursprüngliche Datenquellen und Transformationen, die an Datensätzen vorgenommen wurden
Datenaufbereitung (6)
Suchen
Bietet einfache Suchfunktionen, um bestimmte Datensätze zu entdecken
Datenqualität und -bereinigung
Ermöglicht Benutzern und Administratoren die einfache Bereinigung von Daten, um Qualität und Integrität zu erhalten
Datentransformation
Konvertiert Datenformate von Quelldaten fehlerfrei in das für das Berichtswesen erforderliche Format
Datenmodellierung
Tools zur (Neu-)Strukturierung von Daten in einer Weise, die es ermöglicht, Erkenntnisse schnell und genau zu extrahieren
Verbinder
Möglichkeit, die Analyseplattform mit einer Vielzahl von Konnektoroptionen für gängige Datenquellen, einschließlich gängiger Unternehmensanwendungen, zu verbinden.
Daten-Governance
Stellt eine Verbindung zu Unternehmens-Data-Governance-Software her oder bietet integrierte Data-Governance-Funktionen, um Datenmissbrauch zu vermeiden
Zusammenarbeit (4)
Kommentierend
Ermöglicht es Benutzern, Datensätze zu kommentieren, um zukünftigen Benutzern zu helfen, besser zu interagieren und die Daten zu interpretieren
Profiling und Klassifizierung
Ermöglicht die Profilerstellung von Datensätzen für eine bessere Organisation, sowohl durch Benutzer als auch durch maschinelles Lernen
Business- und Daten-Glossar
Erstellt ein Business-Glossar für ein schnelleres Verständnis durch den durchschnittlichen Geschäftsanwender
Metadaten-Management
Indiziert Metadatenbeschreibungen für eine einfachere Suche und bessere Einblicke
künstliche intelligenz (3)
Empfehlungen für maschinelles Lernen
Automatisiert Empfehlungen für Benutzer auf der Grundlage von Machine-Learning-Funktionen
Abfrage in natürlicher Sprache
Bietet Abfragefunktionen in natürlicher Sprache für nicht-technische Benutzer
Automatische Datenbereinigung
Bereinigung von Daten, um die Qualität durch Automatisierung zu verbessern
Verwaltung (4)
Datenmodellierung
Tools zur (Neu-)Strukturierung von Daten in einer Weise, die es ermöglicht, Erkenntnisse schnell und genau zu extrahieren
Empfehlungen
Analysiert Daten, um die wertvollsten Kundensegmentierungen zu finden und zu empfehlen.
Workflow-Verwaltung
Tools zum Erstellen und Anpassen von Workflows, um Konsistenz zu gewährleisten.
Dashboards und Visualisierungen
Präsentiert Informationen und Analysen auf verständliche, intuitive und visuell ansprechende Weise.
Beachtung (4)
Einhaltung sensibler Daten
Unterstützt die Einhaltung von PII, DSGVO, HIPPA, PCI und anderen regulatorischen Standards.
Schulungen und Richtlinien
Bietet Richtlinien oder Schulungen im Zusammenhang mit den Anforderungen an die Einhaltung sensibler Daten,
Durchsetzung von Richtlinien
Administratoren können Richtlinien für Sicherheit und Data Governance festlegen
Überwachung der Einhaltung der Vorschriften
Überwacht die Datenqualität und sendet Warnmeldungen bei Verstößen oder Missbrauch
Datenqualität (3)
Datenaufbereitung
Kuratiert gesammelte Daten für Big-Data-Analyselösungen, um sie zu analysieren, zu manipulieren und zu modellieren
Datenverteilung
Erleichtert die Verbreitung der gesammelten Big Data in parallelen Rechenclustern
Datenvereinheitlichung
Stellen Sie Daten aus allen Systemen zusammen, damit Benutzer relevante Informationen einfach einsehen können.
Management (23)
Reporting
Zeigen Sie ETL-Prozessdaten über Berichte und Visualisierungen wie Diagramme und Grafiken an.
Rechnungsprüfung
Zeichnen Sie ETL-Verlaufsdaten für Audits und potenzielle Datenkorrekturen auf.
Katalogisierung
Zeichnet alle Machine Learning-Modelle auf und organisiert sie, die im gesamten Unternehmen eingesetzt wurden.
Überwachung
Verfolgt die Leistung und Genauigkeit von Machine Learning-Modellen.
Regierend
Stellt Benutzer basierend auf der Autorisierung bereit, um Machine Learning-Modelle bereitzustellen und zu iterieren.
Modell-Registry
Ermöglicht Benutzern die Verwaltung von Modellartefakten und verfolgt, welche Modelle in der Produktion bereitgestellt werden.
Datenbeschreibungsverzeichnis
Speichert die Metadaten der Datenbank, d.h. die Definitionen von Datenelementen, Typen, Beziehungen usw.
Daten-Replikation
Erstellt eine Kopie der Datenbank, um Konsistenz und Integrität zu gewährleisten.
Abfragesprache
Ermöglicht Benutzern das Erstellen, Aktualisieren und Abrufen von Daten in einer Datenbank.
Datenmodellierung
Definiert den logischen Entwurf der Daten vor dem Erstellen der Schemas.
Performance-Analyse
Überwacht und analysiert kritische Datenbankattribute wie Abfrageleistung, Benutzersitzungen, Deadlock-Details, Systemfehler usw. und visualisiert sie auf einem benutzerdefinierten Dashboard.
Datenschema
Daten sind als eine Reihe von Tabellen mit Spalten und Zeilen wie eine Tabellenstruktur organisiert.
Abfragesprache
Ermöglicht Benutzern das Erstellen, Aktualisieren und Abrufen von Daten in einer Datenbank.
ACID - Beschwerde
Hält sich an ACID (Atomarität, Konsistenz, Isolation, Dauerhaftigkeit), eine Reihe von Datenbanktransaktionseigenschaften.
Daten-Replikation
Bietet protokollbasierte und/oder triggerbasierte Replikation.
Business-Glossar
Ermöglicht es Benutzern, ein Glossar mit Geschäftsbegriffen, Vokabular und Definitionen über mehrere Tools hinweg zu erstellen.
Datenermittlung
Bietet einen integrierten Datenkatalog, der es Benutzern ermöglicht, Daten aus mehreren Quellen einfach zu finden.
Daten-Profilierung
Überwacht und bereinigt Daten mit Hilfe von Geschäftsregeln und analytischen Algorithmen.
Reporting und Visualisierung
Visualisieren Sie Datenflüsse und Herkunft, um die Compliance mit Berichten und Dashboards über eine einzige Konsole nachzuweisen.
Datenherkunft
Bietet eine automatisierte Datenherkunftsfunktion, die Transparenz über die gesamte Datenverschiebung von der Datenentstehung bis zum Ziel bietet.
Katalogisierung
Zeichnet alle Machine Learning-Modelle auf und organisiert sie, die im gesamten Unternehmen eingesetzt wurden.
Überwachung
Verfolgt die Leistung und Genauigkeit von Machine Learning-Modellen.
Regierend
Stellt Benutzer basierend auf der Autorisierung bereit, um Machine Learning-Modelle bereitzustellen und zu iterieren.
Funktionalität (5)
Extraktion
Extrahieren Sie Daten aus den angegebenen Quellen wie relationalen Datenbanken, JSON-Dateien und XML-Dateien.
Transformation
Bereinigen Sie extrahierte Daten und formatieren Sie sie neu in das gewünschte Zielformat.
Laden
Laden Sie neu formatierte Daten in die Zieldatenbank, das Data Warehouse oder einen anderen Speicherort.
Automatisierung
Ordnen Sie ETL-Prozesse so an, dass sie automatisch nach dem erforderlichen Zeitplan ablaufen (z. B. täglich, wöchentlich, monatlich).
Skalierbarkeit
Kann die Rechenleistung basierend auf dem ETL-Volumen nach oben oder unten skalieren.
system (1)
Datenerfassung und -aufbereitung
Bietet dem Benutzer die Möglichkeit, eine Vielzahl von Datenquellen zur sofortigen Verwendung zu importieren
Datenmodellierung und -zusammenführung (3)
Datenabfrage
Mithilfe von Formeln, die auf vorhandenen Datenelementen basieren, können Benutzer neue Feldwerte erstellen und berechnen
Filterung von Daten
Geschäftsanwender haben die Möglichkeit, Daten in einem Bericht basierend auf vordefinierten oder automatisch modellierten Parametern zu filtern.
Daten-Blending
Ermöglicht es dem Benutzer, Daten aus mehreren Quellen zu einem funktionierenden Datensatz zu kombinieren.
Datenmanagement (16)
Datenintegration
Konsolidieren Sie Daten aus verschiedenen unterschiedlichen Quellen in einer einzigen, einheitlichen Ansicht
Datenermittlung
Verstehen Sie den Zustand von Daten, Anwendungen, Systemen und Diensten
Multi - Plattform
Verwalten von Daten in verschiedenen Umgebungen (On-Premises-Cloud, Hybrid und Multi-Cloud)
Metadaten
Bietet Metadaten-Management- und Herkunftsfunktionen
Datenintegration
Konsolidiert, bereinigt und normalisiert Daten aus mehreren unterschiedlichen Quellen.
Datenkompression
Hilft bei der Einsparung von Speicherkapazität und verbessert die Abfrageleistung.
Datenqualität
Eliminiert Dateninkonsistenzen und Duplikate und gewährleistet die Datenintegrität.
Integrierte Datenanalyse
SQL-basierte Analysefunktionen wie Zeitreihen, Musterabgleich, Geodatenanalyse usw.
Maschinelles Lernen in der Datenbank
Bietet integrierte Funktionen wie Algorithmen für maschinelles Lernen, Datenaufbereitungsfunktionen, Modellauswertung und -verwaltung usw.
Data Lake Analytics
Ermöglicht die Datenabfrage über Datenformate wie Parquet, ORC, JSON usw. und die Analyse komplexer Datentypen auf HDFS
Datenmodell
Speichert Daten als Schlüssel-Wert-Paare, wobei key ein eindeutiger Bezeichner ist.
Datentypen
Unterstützt mehrere Datentypen wie Listen, Sets, Hashes (ähnlich wie Map), sortierte Sets usw.
Datenintegration
Integriert Daten und datenbezogene Technologien in einer einzigen Umgebung.
Metadaten
Stellt Funktionen zur Verwaltung von Metadaten bereit.
Selbstbedienung
Befähigt den Benutzer durch eine Self-Service-Funktion, Daten-Workflows zu verwalten.
Automatisierte Workflows
Vollständige Automatisierung von End-to-End-Daten-Workflows über den gesamten Lebenszyklus der Datenintegration.
Analytics (3)
Datenanalyse
Unterstützt fortschrittliche Analyselösungen für eine bessere Geschäftsentscheidungsfindung
Analyse-Funktionen
Bietet eine leistungsstarke, flexible Analyseplattform zur Unterstützung des Datenmanagements und zur datengesteuerten Entscheidungsfindung.
Dasboard-Visualisierungen
Sammeln und zeigen Sie Metriken über die gesamte Datenintegration über ein Dashboard an.
Sicherheit (17)
Beachtung
Regeln und Vorschriften, die von Quellsystemen übernommen oder definiert wurden, um sensible Daten zu schützen
Governance
Gewähren oder Einschränken des Datenzugriffs und der Datenkontrolle
Datenschutz
Integriertes Backup und Disaster Recovery
Datenverschlüsselung
Verschlüsselt und wandelt Daten in der Datenbank von einem lesbaren Zustand in einen Chiffretext mit unlesbaren Zeichen um.
Steuerung des Benutzerzugriffs
Ermöglicht die Änderung des eingeschränkten Benutzerzugriffs in Abhängigkeit von der Zugriffsebene.
Sperren von Datenbanken
Verhindert, dass andere Benutzer und Anwendungen während der Aktualisierung auf Daten zugreifen, um Datenverluste oder -aktualisierungen zu vermeiden.
Zugriffskontrolle
Ermöglicht das Erteilen oder Widerrufen von Berechtigungen auf Datenbank-, Schema- oder Tabellenebene.
Verschlüsselung
Integrierte native Verschlüsselung mit Enterprise-Schlüsselverwaltung.
Authentifizierung
Bietet Multi-Faktor-Authentifizierung mit Zertifikaten.
Rollenbasierte Autorisierung
Stellt vordefinierte Systemrollen, Berechtigungen und benutzerdefinierte Rollen für Benutzer bereit.
Authentifizierung
Ermöglicht die Integration mit externen Sicherheitsmechanismen wie Kerberos, LDAP-Authentifizierung usw.
Verschlüsselung
Bietet Verschlüsselungsfunktionen für alle ruhenden Daten mithilfe von Verschlüsselungsschlüsseln.
Daten-Governance
Richtlinien, Verfahren und Standards für die Verwaltung und den Zugriff auf Daten.
Datensicherheit
Schränkt den Datenzugriff auf Zellebene ein, maskiert oder verbirgt Teile von Zellen und verschlüsselt Daten im Ruhezustand und während der Übertragung
Zugriffskontrolle
Authentifiziert und autorisiert Personen für den Zugriff auf die Daten, die sie sehen und verwenden dürfen.
Rollen-Management
Hilft bei der Identifizierung und Verwaltung der Rollen von Besitzern und Verwaltern von Daten.
Compliance-Management
Hilft bei der Einhaltung von Datenschutzbestimmungen und -normen.
Integration (3)
KI/ML-Integration
Lässt sich in Data-Science-Workflows, maschinelles Lernen und künstliche Intelligenz (KI) integrieren.
Integration von BI-Tools
Lässt sich in BI-Tools integrieren, um Daten in umsetzbare Erkenntnisse umzuwandeln.
Data-Lake-Integration
Bietet Geschwindigkeit bei der Datenverarbeitung und Erfassung von unstrukturierten, halbstrukturierten und Streaming-Daten.
Leistung (6)
Skalierbarkeit
Verwaltet riesige Datenmengen, die je nach Bedarf hoch- oder herunterskaliert werden können.
Notfall-Wiederherstellung
Stellt Datenwiederherstellungsfunktionen zum Schützen und Wiederherstellen von Daten in einer Datenbank bereit.
Parallelität von Daten
Ermöglicht die Steuerung der Parallelität mehrerer Versionen.
Verwaltung der Arbeitsbelastung
Verarbeitet Workloads, von einzelnen Computern bis hin zu Data Warehouses oder Webdiensten mit vielen gleichzeitigen Benutzern.
Erweiterte Indizierung
Ermöglicht Benutzern das schnelle Abrufen von Daten durch verschiedene Arten der Indizierung wie B-Baum, Hash-Tabelle usw.
Abfrageoptimierer
Hilft bei der Interpretation von SQL-Abfragen und der Bestimmung der schnellsten Ausführungsmethode.
Instandhaltung (3)
Daten Migration
Ermöglicht das Verschieben von Daten von einer Datenbank in eine andere.
Backup und Wiederherstellung
Stellt Datensicherungs- und Wiederherstellungsfunktionen zum Schutz und zur Wiederherstellung einer Datenbank bereit.
Multi-User-Umgebung
Ermöglicht Benutzern den gleichzeitigen Zugriff auf und die gleichzeitige Bearbeitung von Daten, wobei mehrere Ansichten der Daten unterstützt werden.
Unterstützen (6)
Textsuche
Bietet Unterstützung für internationale Zeichensätze und Volltextsuche.
Datentypen
Unterstützt mehrere Datentypen wie primitive, strukturierte, dokumentarische usw.
Sprachen
Unterstützt mehrere prozedurale Programmiersprachen wie PL/PGSQL, Perl, Python usw.
Betriebssysteme
Verfügbar auf mehreren Betriebssystemen wie Linux, Windows, MacOS usw.
Multi-Modell
Bietet Unterstützung für den Umgang mit strukturierten, halbstrukturierten und unstrukturierten Daten mit gleicher Wirkung.
Betriebssysteme
Verfügbar auf mehreren Betriebssystemen wie Linux, Windows, MacOS usw.
Verfügbarkeit (3)
Automatisches Sharding
Implementiert eine automatische horizontale Datenpartitionierung, die das Speichern von Daten auf mehr als einem Knoten ermöglicht, um horizontal hochzuskalieren.
Automatische Wiederherstellung
Stellt im Falle eines Fehlers einen korrekten (konsistenten) Zustand einer Datenbank wieder her.
Daten-Replikation
Kopieren Sie Daten über mehrere Server über Master-Slave, Peer-to-Peer-Replikationsarchitektur usw.
Wartung (2)
Daten-Qualitätsmanagement
Definiert, validiert und überwacht Geschäftsregeln, um die Bereitschaft der Stammdaten sicherzustellen.
Verwaltung von Richtlinien
Ermöglicht es Benutzern, Datenrichtlinien zu erstellen und zu überprüfen, um sie in der gesamten Organisation konsistent zu machen.
Überwachung und Verwaltung (2)
Beobachtbarkeit von Daten
Ausschließlich an der Überwachung von Datenpipelines, dem Senden von Warnungen und der Fehlerbehebung von Daten beteiligt.
Testmöglichkeiten
Stellt Testfunktionen bereit, z. B. Berichtstests, Big-Data-Tests, Cloud-Datenmigrationstests, ETL- und Data-Warehouse-Tests.
Cloud-Bereitstellung (2)
Hybrid-Cloud-Unterstützung
Unterstützt analytische Plattformen und Datenpipelines in komplexen hybriden Umgebungen.
Funktionen für die Cloud-Migration
Unterstützt die Migration von Komponenten oder Pipelines in verschiedene Cloud-Umgebungen.
Generative KI (17)
Textgenerierung
Ermöglicht Benutzern das Generieren von Text basierend auf einer Texteingabeaufforderung.
Textzusammenfassung
Fasst lange Dokumente oder Texte zu einer kurzen Zusammenfassung zusammen.
Textgenerierung
Ermöglicht Benutzern das Generieren von Text basierend auf einer Texteingabeaufforderung.
Textzusammenfassung
Fasst lange Dokumente oder Texte zu einer kurzen Zusammenfassung zusammen.
Textgenerierung
Ermöglicht Benutzern das Generieren von Text basierend auf einer Texteingabeaufforderung.
Textzusammenfassung
Fasst lange Dokumente oder Texte zu einer kurzen Zusammenfassung zusammen.
Textgenerierung
Ermöglicht Benutzern das Generieren von Text basierend auf einer Texteingabeaufforderung.
Textzusammenfassung
Fasst lange Dokumente oder Texte zu einer kurzen Zusammenfassung zusammen.
Textgenerierung
Ermöglicht Benutzern das Generieren von Text basierend auf einer Texteingabeaufforderung.
Textzusammenfassung
Fasst lange Dokumente oder Texte zu einer kurzen Zusammenfassung zusammen.
KI-Textgenerierung
Ermöglicht Benutzern das Generieren von Text basierend auf einer Texteingabeaufforderung.
Textzusammenfassung
Fasst lange Dokumente oder Texte zu einer kurzen Zusammenfassung zusammen.
Text-zu-Bild
Bietet die Möglichkeit, Bilder aus einer Texteingabeaufforderung zu generieren.
Textgenerierung
Ermöglicht Benutzern das Generieren von Text basierend auf einer Texteingabeaufforderung.
Textzusammenfassung
Fasst lange Dokumente oder Texte zu einer kurzen Zusammenfassung zusammen.
Textgenerierung
Ermöglicht Benutzern das Generieren von Text basierend auf einer Texteingabeaufforderung.
Textzusammenfassung
Fasst lange Dokumente oder Texte zu einer kurzen Zusammenfassung zusammen.
Agentische KI - Maschinelles Lernen Datenkatalog (5)
Autonome Aufgabenausführung
Fähigkeit, komplexe Aufgaben ohne ständige menschliche Eingabe auszuführen
Mehrstufige Planung
Fähigkeit, mehrstufige Prozesse zu analysieren und zu planen
Systemübergreifende Integration
Funktioniert über mehrere Softwaresysteme oder Datenbanken hinweg
Adaptives Lernen
Verbessert die Leistung basierend auf Feedback und Erfahrung
Entscheidungsfindung
Triff fundierte Entscheidungen basierend auf verfügbaren Daten und Zielen.
Agentische KI - Datenverwaltung (6)
Autonome Aufgabenausführung
Fähigkeit, komplexe Aufgaben ohne ständige menschliche Eingabe auszuführen
Mehrstufige Planung
Fähigkeit, mehrstufige Prozesse zu analysieren und zu planen
Systemübergreifende Integration
Funktioniert über mehrere Softwaresysteme oder Datenbanken hinweg
Adaptives Lernen
Verbessert die Leistung basierend auf Feedback und Erfahrung
Natürliche Sprachinteraktion
Führt menschenähnliche Gespräche zur Aufgabenverteilung
Entscheidungsfindung
Triff fundierte Entscheidungen basierend auf verfügbaren Daten und Zielen.
Agentische KI - Datengeflecht (5)
Autonome Aufgabenausführung
Fähigkeit, komplexe Aufgaben ohne ständige menschliche Eingabe auszuführen
Mehrstufige Planung
Fähigkeit, mehrstufige Prozesse zu analysieren und zu planen
Systemübergreifende Integration
Funktioniert über mehrere Softwaresysteme oder Datenbanken hinweg
Adaptives Lernen
Verbessert die Leistung basierend auf Feedback und Erfahrung
Entscheidungsfindung
Triff fundierte Entscheidungen basierend auf verfügbaren Daten und Zielen.
Agentische KI - DataOps-Plattformen (5)
Autonome Aufgabenausführung
Fähigkeit, komplexe Aufgaben ohne ständige menschliche Eingabe auszuführen
Mehrstufige Planung
Fähigkeit, mehrstufige Prozesse zu analysieren und zu planen
Systemübergreifende Integration
Funktioniert über mehrere Softwaresysteme oder Datenbanken hinweg
Adaptives Lernen
Verbessert die Leistung basierend auf Feedback und Erfahrung
Entscheidungsfindung
Triff fundierte Entscheidungen basierend auf verfügbaren Daten und Zielen.
Agentische KI - Analyseplattformen (7)
Autonome Aufgabenausführung
Fähigkeit, komplexe Aufgaben ohne ständige menschliche Eingabe auszuführen
Mehrstufige Planung
Fähigkeit, mehrstufige Prozesse zu analysieren und zu planen
Systemübergreifende Integration
Funktioniert über mehrere Softwaresysteme oder Datenbanken hinweg
Adaptives Lernen
Verbessert die Leistung basierend auf Feedback und Erfahrung
Natürliche Sprachinteraktion
Führt menschenähnliche Gespräche zur Aufgabenverteilung
Proaktive Unterstützung
Antizipiert Bedürfnisse und bietet Vorschläge ohne Aufforderung an
Entscheidungsfindung
Trifft fundierte Entscheidungen basierend auf verfügbaren Daten und Zielen
Agentic AI - Datenwissenschafts- und maschinelles Lernplattformen (7)
Autonome Aufgabenausführung
Fähigkeit, komplexe Aufgaben ohne ständige menschliche Eingabe auszuführen
Mehrstufige Planung
Fähigkeit, mehrstufige Prozesse zu analysieren und zu planen
Systemübergreifende Integration
Funktioniert über mehrere Softwaresysteme oder Datenbanken hinweg
Adaptives Lernen
Verbessert die Leistung basierend auf Feedback und Erfahrung
Natürliche Sprachinteraktion
Führt menschenähnliche Gespräche zur Aufgabenverteilung
Proaktive Unterstützung
Antizipiert Bedürfnisse und bietet Vorschläge ohne Aufforderung an
Entscheidungsfindung
Triff fundierte Entscheidungen basierend auf verfügbaren Daten und Zielen.
Bereitstellung & Integration - Analyseplattformen (4)
No-Code-Dashboard-Builder
Ermöglicht nicht-technischen Benutzern, Dashboards über intuitive Drag-and-Drop-Oberflächen zu erstellen.
Berichtplanung und Automatisierung
Ermöglicht die automatisierte Berichtserstellung und geplante Zustellung an Stakeholder
Eingebettete Analysen und White-Labeling
Ermöglicht das Einbetten von Dashboards und Analysen in externe Apps mit flexibler Markenanpassung.
Datenquellenkonnektivität
Unterstützt die Integration mit wichtigen Datenquellen wie Cloud-Datenbanken, SQL/NoSQL-Datenbanken und SaaS-Anwendungen.
Leistung & Skalierbarkeit - Analyseplattformen (2)
Große Datenverarbeitung und Abfragegeschwindigkeit
Verarbeitet große Datensätze effizient mit minimaler Verzögerung und gewährleistet hohe Leistung unter Last.
Gleichzeitige Benutzerunterstützung
Hält die Leistung und Betriebszeit bei hohem Datenverkehr von mehreren Benutzern oder Teams aufrecht
Erweiterte Analysen & Modellierung - Analyseplattformen (3)
Datenmodellierung und Governance
Unterstützt semantische Datenschichten, rollenbasierte Zugriffskontrollen und Metadaten-Governance
Notebook- und Skriptintegration
Integriert sich mit Jupyter, Python oder R für benutzerdefinierte Analysen und Modellierung
Eingebaute prädiktive und statistische Modelle
Bietet native Werkzeuge für statistische Analyse, Prognosen und Trendvorhersagen
Agentische KI-Fähigkeiten - Analyseplattformen (4)
Automatisch generierte Einblicke und Erzählungen
Verwendet KI, um textuelle Zusammenfassungen, wichtige Erkenntnisse und Datenberichte aus Dashboards zu erstellen.
Natürliche Sprachabfragen
Ermöglicht es Benutzern, Daten abzufragen und Berichte mit konversationeller oder einfacher Sprache zu erstellen.
Proaktive KPI-Überwachung und Warnungen
Erkennt und benachrichtigt Benutzer über KPI-Anomalien oder signifikante Metrikänderungen in Echtzeit
KI-Agenten für analytische Nachverfolgungen
Empfiehlt nächste Fragen, Analysen oder Erkundungspfade unter Verwendung autonomer KI-Agenten
Personalisierte Intelligenz - Analyseplattformen (3)
Verhaltenslernen zur kontextuellen Abfrageverfeinerung
Lernt aus historischen Benutzerinteraktionen, um die Abfrageergebnisse im Laufe der Zeit zu verbessern und zu personalisieren.
Rollenbasierte Einblick-Personalisierung
Schneidert Dashboard-Ansichten und Vorschläge basierend auf Benutzerrollen, Zugriffsebenen und vergangenem Verhalten.
Konversations- und Prompt-basierte Analysen
Unterstützt KI-gesteuerte Erkundung durch Eingabeaufforderungen oder mehrstufige Gespräche für iterative Abfragen.
Technologie-Glossar Funktionen
Betrachten Sie die Definitionen der Funktionen und entdecken Sie neue Technologiebegriffe.
Data manipulation is the process of organizing, modifying, and transforming data to improve accuracy, usability, and analysis across systems and workflows.
Data modeling is the process of creating visual representations of information systems to better communicate the connections between data points and structures. Learn more about data modeling in this G2 guide.




