Databricks Funktionen
Berichte (5)
Benutzeroberfläche "Berichte"
Die Berichtsschnittstelle für Standard- und Self-Service-Berichte ist intuitiv und einfach zu bedienen.
Schritte zur Beantwortung
Erfordert eine minimale Anzahl von Schritten/Klicks, um die Geschäftsfrage zu beantworten.
Grafiken und Diagramme
Bietet eine Vielzahl attraktiver Grafik- und Diagrammformate.
Score-Karten
Scorecards verfolgen KPIs visuell.
Armaturenbretter
Bietet Geschäftsanwendern eine Schnittstelle zum einfachen Entwerfen, Verfeinern und Zusammenarbeiten an ihren Dashboards
Selbstbedienung (6)
Berechnete Felder
Mithilfe von Formeln, die auf vorhandenen Datenelementen basieren, können Benutzer neue Feldwerte erstellen und berechnen.
Filtern von Datenspalten
Geschäftsanwender haben die Möglichkeit, Daten in einem Bericht basierend auf vordefinierten oder automatisch modellierten Parametern zu filtern.
Datenermittlung
Benutzer können Daten aufschlüsseln und untersuchen, um neue Erkenntnisse zu gewinnen.
Suchen
Möglichkeit, einen globalen Datensatz zu durchsuchen, um Daten zu finden und zu ermitteln.
Kollaboration / Workflow
Möglichkeit für Benutzer, Daten und Berichte, die sie innerhalb des BI-Tools erstellt haben, und außerhalb des Tools über andere Kollaborationsplattformen freizugeben.
Automatische Modellierung
Das Tool schlägt automatisch Datentypen, Schemata und Hierarchien vor.
Erweiterte Analytik (3)
Prädiktive Analytik
Analysieren Sie aktuelle und historische Trends, um Vorhersagen über zukünftige Ereignisse zu treffen.
Datenvisualisierung
Kommunizieren Sie komplexe Informationen klar und effektiv durch fortschrittliche grafische Techniken.
Big-Data-Dienste
Fähigkeit, große, komplexe und/oder isolierte Datensätze zu verarbeiten.
Gebäude-Berichte (4)
Datentransformation
Konvertiert Datenformate von Quelldaten fehlerfrei in das für das Berichtssystem erforderliche Format.
Datenmodellierung
Fähigkeit, Daten so zu (re)strukturieren, dass Erkenntnisse schnell und genau extrahiert werden können.
Entwurf von WYSIWYG-Berichten
Bietet Geschäftsanwendern eine Schnittstelle zum einfachen Entwerfen und Verfeinern ihrer Dashboards und Berichte. (Was du siehst, ist das, was du bekommst)
Integrations-APIs
Anwendungsprogrammierschnittstelle - Spezifikation für die Kommunikation der Anwendung mit anderer Software. APIs ermöglichen in der Regel die Integration von Daten, Logik, Objekten usw. in andere Softwareanwendungen.
Modellentwicklung (5)
Unterstützte Sprachen
Unterstützt Programmiersprachen wie Java, C oder Python. Unterstützt Frontend-Sprachen wie HTML, CSS und JavaScript
Drag-and-Drop
Bietet Entwicklern die Möglichkeit, Codeteile oder Algorithmen beim Erstellen von Modellen per Drag & Drop zu verschieben
Vorgefertigte Algorithmen
Bietet Benutzern vorgefertigte Algorithmen für eine einfachere Modellentwicklung
Modell-Training
Liefert große Datensätze zum Trainieren einzelner Modelle
Feature-Entwicklung
Wandelt Rohdaten in Merkmale um, die das zugrunde liegende Problem für die Vorhersagemodelle besser darstellen
Machine-/Deep-Learning-Dienste (6)
Maschinelles Sehen
Bietet Bilderkennungsdienste an
Verarbeitung natürlicher Sprache
Bietet Dienstleistungen zur Verarbeitung natürlicher Sprache an
Generierung natürlicher Sprache
Bietet Dienstleistungen zur Generierung natürlicher Sprache an
Künstliche neuronale Netze
Bietet künstliche neuronale Netze für Benutzer
Verstehen natürlicher Sprache
Bietet Dienste zum Verstehen natürlicher Sprache
Deep Learning
Bietet Deep-Learning-Funktionen
Einsatz (15)
Managed Service
Verwaltet die intelligente Anwendung für den Benutzer und reduziert den Bedarf an Infrastruktur
Anwendung
Ermöglicht es Benutzern, maschinelles Lernen in Betriebsanwendungen einzubinden
Skalierbarkeit
Bietet leicht skalierbare Anwendungen und Infrastrukturen für maschinelles Lernen
Sprachliche Flexibilität
Ermöglicht Benutzern die Eingabe von Modellen, die in einer Vielzahl von Sprachen erstellt wurden.
Flexibilität des Rahmens
Ermöglicht es Benutzern, das Framework oder die Workbench ihrer Wahl auszuwählen.
Versionsverwaltung
Die Versionsverwaltung von Datensätzen, während Modelle durchlaufen werden.
Einfache Bereitstellung
Bietet eine Möglichkeit zum schnellen und effizienten Bereitstellen von Machine Learning-Modellen.
Skalierbarkeit
Bietet eine Möglichkeit, die Verwendung von Machine Learning-Modellen im gesamten Unternehmen zu skalieren.
On-Premise
Bietet On-Premise-Bereitstellungsoptionen.
Cloud
Bietet Cloud-Bereitstellungsoptionen (Private oder Public Cloud, Hybrid Cloud).
Sprachliche Flexibilität
Ermöglicht Benutzern die Eingabe von Modellen, die in einer Vielzahl von Sprachen erstellt wurden.
Flexibilität des Rahmens
Ermöglicht es Benutzern, das Framework oder die Workbench ihrer Wahl auszuwählen.
Versionsverwaltung
Die Versionsverwaltung von Datensätzen, während Modelle durchlaufen werden.
Einfache Bereitstellung
Bietet eine Möglichkeit zum schnellen und effizienten Bereitstellen von Machine Learning-Modellen.
Skalierbarkeit
Bietet eine Möglichkeit, die Verwendung von Machine Learning-Modellen im gesamten Unternehmen zu skalieren.
Datenbank (3)
Datenerfassung in Echtzeit
Sammelt, speichert und organisiert riesige, unstrukturierte Daten in Echtzeit
Datenverteilung
Erleichtert die Verbreitung der gesammelten Big Data in parallelen Rechenclustern
Data Lake
Erstellt ein Repository zum Sammeln und Speichern von Rohdaten von Sensoren, Geräten, Maschinen, Dateien usw.
Integrationen (2)
Hadoop-Integration
Richtet Verarbeitungs- und Verteilungs-Workflows auf Apache Hadoop aus
Spark-Integration
Richtet Verarbeitungs- und Verteilungs-Workflows auf Apache Hadoop aus
Plattform (3)
Maschinelle Skalierung
Erleichtert die Ausführung und Skalierung der Lösung auf einer großen Anzahl von Maschinen und Systemen
Datenaufbereitung
Kuratiert gesammelte Daten für Big-Data-Analyselösungen, um sie zu analysieren, zu manipulieren und zu modellieren
Spark-Integration
Richtet Verarbeitungs- und Verteilungs-Workflows auf Apache Hadoop aus
Verarbeitung (2)
Cloud-Verarbeitung
Verlagerung der Big-Data-Erfassung und -Verarbeitung in die Cloud
Workload-Verarbeitung
Verarbeitet Batch-, Echtzeit- und Streaming-Daten-Workloads in einzelnen, mandantenfähigen oder Cloud-Systemen
Datentransformation (2)
Echtzeit-Analysen
Erleichtert die Analyse großer Datenmengen in Echtzeit.
Datenabfrage
Ermöglicht es dem Benutzer, Daten über Abfragesprachen wie SQL abzufragen.
Verbindung (4)
Hadoop-Integration
Richtet Verarbeitungs- und Verteilungs-Workflows auf Apache Hadoop aus
Spark-Integration
Richtet Verarbeitungs- und Verteilungsworkflows auf Apache Spark aus
Multi-Source-Analyse
Integriert Daten aus mehreren externen Datenbanken.
Data Lake
Erleichtert die Verbreitung der gesammelten Big Data in parallelen Computing-Clustern.
Transaktionen (8)
Datenvisualisierung
Verarbeitet Daten und stellt Interpretationen in einer Vielzahl von grafischen Formaten dar.
Daten-Workflow
Reiht bestimmte Funktionen und Datasets aneinander, um Analyseiterationen zu automatisieren.
Geregelte Ermittlung
Isoliert bestimmte Datensätze und erleichtert die Verwaltung des Datenzugriffs.
Eingebettete Analytik
Ermöglicht das Big-Data-Tool das Ausführen und Aufzeichnen von Daten in externen Anwendungen.
Notizbücher
Verwenden von Notebooks für Aufgaben wie das Erstellen von Dashboards mit vordefinierten, geplanten Abfragen und Visualisierungen
Metriken
Kontrollieren Sie die Modellnutzung und -leistung in der Produktion
Infrastruktur-Management
Stellen Sie geschäftskritische ML-Anwendungen bereit, wo und wann immer Sie sie benötigen
Zusammenarbeit
Vergleichen Sie ganz einfach Experimente – Code, Hyperparameter, Metriken, Vorhersagen, Abhängigkeiten, Systemmetriken und mehr –, um Unterschiede in der Modellleistung zu verstehen.
Verwaltung (4)
Datenmodellierung
Tools zur (Neu-)Strukturierung von Daten in einer Weise, die es ermöglicht, Erkenntnisse schnell und genau zu extrahieren
Empfehlungen
Analysiert Daten, um die wertvollsten Kundensegmentierungen zu finden und zu empfehlen.
Workflow-Verwaltung
Tools zum Erstellen und Anpassen von Workflows, um Konsistenz zu gewährleisten.
Dashboards und Visualisierungen
Präsentiert Informationen und Analysen auf verständliche, intuitive und visuell ansprechende Weise.
Beachtung (4)
Einhaltung sensibler Daten
Unterstützt die Einhaltung von PII, DSGVO, HIPPA, PCI und anderen regulatorischen Standards.
Schulungen und Richtlinien
Bietet Richtlinien oder Schulungen im Zusammenhang mit den Anforderungen an die Einhaltung sensibler Daten,
Durchsetzung von Richtlinien
Administratoren können Richtlinien für Sicherheit und Data Governance festlegen
Überwachung der Einhaltung der Vorschriften
Überwacht die Datenqualität und sendet Warnmeldungen bei Verstößen oder Missbrauch
Datenqualität (3)
Datenaufbereitung
Kuratiert gesammelte Daten für Big-Data-Analyselösungen, um sie zu analysieren, zu manipulieren und zu modellieren
Datenverteilung
Erleichtert die Verbreitung der gesammelten Big Data in parallelen Rechenclustern
Datenvereinheitlichung
Stellen Sie Daten aus allen Systemen zusammen, damit Benutzer relevante Informationen einfach einsehen können.
Management (19)
Reporting
Zeigen Sie ETL-Prozessdaten über Berichte und Visualisierungen wie Diagramme und Grafiken an.
Rechnungsprüfung
Zeichnen Sie ETL-Verlaufsdaten für Audits und potenzielle Datenkorrekturen auf.
Katalogisierung
Zeichnet alle Machine Learning-Modelle auf und organisiert sie, die im gesamten Unternehmen eingesetzt wurden.
Überwachung
Verfolgt die Leistung und Genauigkeit von Machine Learning-Modellen.
Regierend
Stellt Benutzer basierend auf der Autorisierung bereit, um Machine Learning-Modelle bereitzustellen und zu iterieren.
Modell-Registry
Ermöglicht Benutzern die Verwaltung von Modellartefakten und verfolgt, welche Modelle in der Produktion bereitgestellt werden.
Datenbeschreibungsverzeichnis
Speichert die Metadaten der Datenbank, d.h. die Definitionen von Datenelementen, Typen, Beziehungen usw.
Daten-Replikation
Erstellt eine Kopie der Datenbank, um Konsistenz und Integrität zu gewährleisten.
Abfragesprache
Ermöglicht Benutzern das Erstellen, Aktualisieren und Abrufen von Daten in einer Datenbank.
Datenmodellierung
Definiert den logischen Entwurf der Daten vor dem Erstellen der Schemas.
Performance-Analyse
Überwacht und analysiert kritische Datenbankattribute wie Abfrageleistung, Benutzersitzungen, Deadlock-Details, Systemfehler usw. und visualisiert sie auf einem benutzerdefinierten Dashboard.
Business-Glossar
Ermöglicht es Benutzern, ein Glossar mit Geschäftsbegriffen, Vokabular und Definitionen über mehrere Tools hinweg zu erstellen.
Datenermittlung
Bietet einen integrierten Datenkatalog, der es Benutzern ermöglicht, Daten aus mehreren Quellen einfach zu finden.
Daten-Profilierung
Überwacht und bereinigt Daten mit Hilfe von Geschäftsregeln und analytischen Algorithmen.
Reporting und Visualisierung
Visualisieren Sie Datenflüsse und Herkunft, um die Compliance mit Berichten und Dashboards über eine einzige Konsole nachzuweisen.
Datenherkunft
Bietet eine automatisierte Datenherkunftsfunktion, die Transparenz über die gesamte Datenverschiebung von der Datenentstehung bis zum Ziel bietet.
Katalogisierung
Zeichnet alle Machine Learning-Modelle auf und organisiert sie, die im gesamten Unternehmen eingesetzt wurden.
Überwachung
Verfolgt die Leistung und Genauigkeit von Machine Learning-Modellen.
Regierend
Stellt Benutzer basierend auf der Autorisierung bereit, um Machine Learning-Modelle bereitzustellen und zu iterieren.
Funktionalität (5)
Extraktion
Extrahieren Sie Daten aus den angegebenen Quellen wie relationalen Datenbanken, JSON-Dateien und XML-Dateien.
Transformation
Bereinigen Sie extrahierte Daten und formatieren Sie sie neu in das gewünschte Zielformat.
Laden
Laden Sie neu formatierte Daten in die Zieldatenbank, das Data Warehouse oder einen anderen Speicherort.
Automatisierung
Ordnen Sie ETL-Prozesse so an, dass sie automatisch nach dem erforderlichen Zeitplan ablaufen (z. B. täglich, wöchentlich, monatlich).
Skalierbarkeit
Kann die Rechenleistung basierend auf dem ETL-Volumen nach oben oder unten skalieren.
system (1)
Datenerfassung und -aufbereitung
Bietet dem Benutzer die Möglichkeit, eine Vielzahl von Datenquellen zur sofortigen Verwendung zu importieren
Datenaufbereitung (2)
Verbinder
Möglichkeit, die Analyseplattform mit einer Vielzahl von Konnektoroptionen für gängige Datenquellen, einschließlich gängiger Unternehmensanwendungen, zu verbinden.
Daten-Governance
Stellt eine Verbindung zu Unternehmens-Data-Governance-Software her oder bietet integrierte Data-Governance-Funktionen, um Datenmissbrauch zu vermeiden
Datenmodellierung und -zusammenführung (3)
Datenabfrage
Mithilfe von Formeln, die auf vorhandenen Datenelementen basieren, können Benutzer neue Feldwerte erstellen und berechnen
Filterung von Daten
Geschäftsanwender haben die Möglichkeit, Daten in einem Bericht basierend auf vordefinierten oder automatisch modellierten Parametern zu filtern.
Daten-Blending
Ermöglicht es dem Benutzer, Daten aus mehreren Quellen zu einem funktionierenden Datensatz zu kombinieren.
Datenmanagement (10)
Datenintegration
Konsolidiert, bereinigt und normalisiert Daten aus mehreren unterschiedlichen Quellen.
Datenkompression
Hilft bei der Einsparung von Speicherkapazität und verbessert die Abfrageleistung.
Datenqualität
Eliminiert Dateninkonsistenzen und Duplikate und gewährleistet die Datenintegrität.
Integrierte Datenanalyse
SQL-basierte Analysefunktionen wie Zeitreihen, Musterabgleich, Geodatenanalyse usw.
Maschinelles Lernen in der Datenbank
Bietet integrierte Funktionen wie Algorithmen für maschinelles Lernen, Datenaufbereitungsfunktionen, Modellauswertung und -verwaltung usw.
Data Lake Analytics
Ermöglicht die Datenabfrage über Datenformate wie Parquet, ORC, JSON usw. und die Analyse komplexer Datentypen auf HDFS
Datenintegration
Integriert Daten und datenbezogene Technologien in einer einzigen Umgebung.
Metadaten
Stellt Funktionen zur Verwaltung von Metadaten bereit.
Selbstbedienung
Befähigt den Benutzer durch eine Self-Service-Funktion, Daten-Workflows zu verwalten.
Automatisierte Workflows
Vollständige Automatisierung von End-to-End-Daten-Workflows über den gesamten Lebenszyklus der Datenintegration.
Integration (3)
KI/ML-Integration
Lässt sich in Data-Science-Workflows, maschinelles Lernen und künstliche Intelligenz (KI) integrieren.
Integration von BI-Tools
Lässt sich in BI-Tools integrieren, um Daten in umsetzbare Erkenntnisse umzuwandeln.
Data-Lake-Integration
Bietet Geschwindigkeit bei der Datenverarbeitung und Erfassung von unstrukturierten, halbstrukturierten und Streaming-Daten.
Leistung (1)
Skalierbarkeit
Verwaltet riesige Datenmengen, die je nach Bedarf hoch- oder herunterskaliert werden können.
Instandhaltung (3)
Daten Migration
Ermöglicht das Verschieben von Daten von einer Datenbank in eine andere.
Backup und Wiederherstellung
Stellt Datensicherungs- und Wiederherstellungsfunktionen zum Schutz und zur Wiederherstellung einer Datenbank bereit.
Multi-User-Umgebung
Ermöglicht Benutzern den gleichzeitigen Zugriff auf und die gleichzeitige Bearbeitung von Daten, wobei mehrere Ansichten der Daten unterstützt werden.
Sicherheit (7)
Datenverschlüsselung
Verschlüsselt und wandelt Daten in der Datenbank von einem lesbaren Zustand in einen Chiffretext mit unlesbaren Zeichen um.
Steuerung des Benutzerzugriffs
Ermöglicht die Änderung des eingeschränkten Benutzerzugriffs in Abhängigkeit von der Zugriffsebene.
Daten-Governance
Richtlinien, Verfahren und Standards für die Verwaltung und den Zugriff auf Daten.
Datensicherheit
Schränkt den Datenzugriff auf Zellebene ein, maskiert oder verbirgt Teile von Zellen und verschlüsselt Daten im Ruhezustand und während der Übertragung
Zugriffskontrolle
Authentifiziert und autorisiert Personen für den Zugriff auf die Daten, die sie sehen und verwenden dürfen.
Rollen-Management
Hilft bei der Identifizierung und Verwaltung der Rollen von Besitzern und Verwaltern von Daten.
Compliance-Management
Hilft bei der Einhaltung von Datenschutzbestimmungen und -normen.
Wartung (2)
Daten-Qualitätsmanagement
Definiert, validiert und überwacht Geschäftsregeln, um die Bereitschaft der Stammdaten sicherzustellen.
Verwaltung von Richtlinien
Ermöglicht es Benutzern, Datenrichtlinien zu erstellen und zu überprüfen, um sie in der gesamten Organisation konsistent zu machen.
Analytics (2)
Analyse-Funktionen
Bietet eine leistungsstarke, flexible Analyseplattform zur Unterstützung des Datenmanagements und zur datengesteuerten Entscheidungsfindung.
Dasboard-Visualisierungen
Sammeln und zeigen Sie Metriken über die gesamte Datenintegration über ein Dashboard an.
Überwachung und Verwaltung (2)
Beobachtbarkeit von Daten
Ausschließlich an der Überwachung von Datenpipelines, dem Senden von Warnungen und der Fehlerbehebung von Daten beteiligt.
Testmöglichkeiten
Stellt Testfunktionen bereit, z. B. Berichtstests, Big-Data-Tests, Cloud-Datenmigrationstests, ETL- und Data-Warehouse-Tests.
Cloud-Bereitstellung (2)
Hybrid-Cloud-Unterstützung
Unterstützt analytische Plattformen und Datenpipelines in komplexen hybriden Umgebungen.
Funktionen für die Cloud-Migration
Unterstützt die Migration von Komponenten oder Pipelines in verschiedene Cloud-Umgebungen.
Generative KI (13)
Textgenerierung
Ermöglicht Benutzern das Generieren von Text basierend auf einer Texteingabeaufforderung.
Textzusammenfassung
Fasst lange Dokumente oder Texte zu einer kurzen Zusammenfassung zusammen.
Textgenerierung
Ermöglicht Benutzern das Generieren von Text basierend auf einer Texteingabeaufforderung.
Textzusammenfassung
Fasst lange Dokumente oder Texte zu einer kurzen Zusammenfassung zusammen.
Textgenerierung
Ermöglicht Benutzern das Generieren von Text basierend auf einer Texteingabeaufforderung.
Textzusammenfassung
Fasst lange Dokumente oder Texte zu einer kurzen Zusammenfassung zusammen.
KI-Textgenerierung
Ermöglicht Benutzern das Generieren von Text basierend auf einer Texteingabeaufforderung.
Textzusammenfassung
Fasst lange Dokumente oder Texte zu einer kurzen Zusammenfassung zusammen.
Text-zu-Bild
Bietet die Möglichkeit, Bilder aus einer Texteingabeaufforderung zu generieren.
Textgenerierung
Ermöglicht Benutzern das Generieren von Text basierend auf einer Texteingabeaufforderung.
Textzusammenfassung
Fasst lange Dokumente oder Texte zu einer kurzen Zusammenfassung zusammen.
Textgenerierung
Ermöglicht Benutzern das Generieren von Text basierend auf einer Texteingabeaufforderung.
Textzusammenfassung
Fasst lange Dokumente oder Texte zu einer kurzen Zusammenfassung zusammen.
Skalierbarkeit und Leistung - Generative KI-Infrastruktur (3)
Hohe Verfügbarkeit
Stellt sicher, dass der Service zuverlässig und bei Bedarf verfügbar ist, wodurch Ausfallzeiten und Serviceunterbrechungen minimiert werden.
Skalierbarkeit des Modelltrainings
Ermöglicht es dem Benutzer, das Training von Modellen effizient zu skalieren, was den Umgang mit größeren Datensätzen und komplexeren Modellen erleichtert.
Inferenz-Geschwindigkeit
Bietet dem Benutzer die Möglichkeit, während der Inferenzphase schnelle Antworten mit geringer Latenz zu erhalten, was für Echtzeitanwendungen von entscheidender Bedeutung ist.
Kosten und Effizienz - Generative KI-Infrastruktur (3)
Kosten pro API-Aufruf
Bietet dem Benutzer ein transparentes Preismodell für API-Aufrufe, das eine bessere Budgetplanung und Kostenkontrolle ermöglicht.
Flexibilität bei der Ressourcenzuweisung
Bietet dem Benutzer die Möglichkeit, Rechenressourcen bedarfsgerecht zuzuweisen, wodurch es kostengünstig wird.
Energieeffizienz
Ermöglicht es dem Benutzer, den Energieverbrauch sowohl während des Trainings als auch während der Inferenz zu minimieren, was für einen nachhaltigen Betrieb immer wichtiger wird.
Integration und Erweiterbarkeit - Generative KI-Infrastruktur (3)
Multi-Cloud-Unterstützung
Bietet dem Benutzer die Flexibilität, über mehrere Cloud-Anbieter hinweg bereitzustellen und so das Risiko einer Anbieterbindung zu verringern.
Integration von Datenpipelines
Bietet dem Benutzer die Möglichkeit, sich nahtlos mit verschiedenen Datenquellen und Pipelines zu verbinden und so die Datenerfassung und -vorverarbeitung zu vereinfachen.
API-Unterstützung und Flexibilität
Ermöglicht es dem Benutzer, die generativen KI-Modelle über APIs einfach in bestehende Workflows und Systeme zu integrieren.
Sicherheit und Compliance - Generative KI-Infrastruktur (3)
DSGVO und Einhaltung gesetzlicher Vorschriften
Hilft dem Benutzer, die Einhaltung der DSGVO und anderer Datenschutzbestimmungen aufrechtzuerhalten, was für weltweit tätige Unternehmen von entscheidender Bedeutung ist.
Rollenbasierte Zugriffskontrolle
Ermöglicht es dem Benutzer, Zugriffssteuerungen basierend auf Rollen innerhalb der Organisation einzurichten und so die Sicherheit zu erhöhen.
Datenverschlüsselung
Stellt sicher, dass Daten während der Übertragung und im Ruhezustand verschlüsselt werden, und bietet so eine zusätzliche Sicherheitsebene.
Benutzerfreundlichkeit und Unterstützung - Generative KI-Infrastruktur (2)
Qualität der Dokumentation
Bietet dem Benutzer eine umfassende und übersichtliche Dokumentation, die eine schnellere Einführung und Fehlerbehebung ermöglicht.
Community-Aktivitäten
Ermöglicht es dem Benutzer, den Grad der Community-Unterstützung und der verfügbaren Erweiterungen von Drittanbietern zu messen, was für die Problemlösung und die Erweiterung der Funktionalität nützlich sein kann.
Anpassung - KI-Agenten-Ersteller (3)
Natürliche Sprachkonfiguration
Unterstützt die Konfiguration mit Anweisungen in natürlicher Sprache.
Tonanpassung
Benutzern die Anpassung des Tons des Agenten.
Sicherheitsleitplanken
Ermöglicht die Definition klarer Sicherheitsleitplanken für Agentenaktionen.
Funktionalität - KI-Agenten-Ersteller (4)
Omni-Kanal-Support
Bietet Unterstützung über Web, Mobilgeräte, Messaging-Apps und andere Kanäle.
Agentenmarke
Ermöglicht die Anpassung des Agenten-Brandings, einschließlich des visuellen Erscheinungsbildes und des Gesprächsstils.
Proaktive Reaktionsfähigkeiten
Rüstet Agenten mit proaktiven Reaktionsfähigkeiten basierend auf vordefinierten Auslösern aus.
Nahtlose menschliche Eskalation
Ermöglicht nahtlose Eskalation an menschliche Mitarbeiter für komplexe Probleme.
Daten und Analytik - KI-Agentenentwickler (3)
Analytik & Berichterstattung
Bietet Analysen und Berichte über die Leistung und Interaktionen von Agenten.
Kontextbewusstsein
Bietet Agenten die Möglichkeit, das kontextuelle Bewusstsein über Interaktionen hinweg aufrechtzuerhalten.
Datenschutzkonformität
Gewährleistet die Einhaltung von Datenschutz- und Governance-Anforderungen.
Integration - KI-Agentenbauer (4)
Arbeitsablaufautomatisierung
Automatisiert Workflows und Aktionen basierend auf Agentenantworten.
API-Nutzung
die Verwendung von APIs für die erweiterte Agentenkonfiguration.
Plattform-Interoperabilität
Ermöglicht Interoperabilität mit mehreren Plattformen für einheitliche Erlebnisse.
CRM-Datenintegration
Ermöglicht die Integration mit CRM-Daten, um Agentenantworten im Geschäftskontext zu verankern.
Agentische KI - Datenverwaltung (6)
Autonome Aufgabenausführung
Fähigkeit, komplexe Aufgaben ohne ständige menschliche Eingabe auszuführen
Mehrstufige Planung
Fähigkeit, mehrstufige Prozesse zu analysieren und zu planen
Systemübergreifende Integration
Funktioniert über mehrere Softwaresysteme oder Datenbanken hinweg
Adaptives Lernen
Verbessert die Leistung basierend auf Feedback und Erfahrung
Natürliche Sprachinteraktion
Führt menschenähnliche Gespräche zur Aufgabenverteilung
Entscheidungsfindung
Triff fundierte Entscheidungen basierend auf verfügbaren Daten und Zielen.
Agentische KI - DataOps-Plattformen (5)
Autonome Aufgabenausführung
Fähigkeit, komplexe Aufgaben ohne ständige menschliche Eingabe auszuführen
Mehrstufige Planung
Fähigkeit, mehrstufige Prozesse zu analysieren und zu planen
Systemübergreifende Integration
Funktioniert über mehrere Softwaresysteme oder Datenbanken hinweg
Adaptives Lernen
Verbessert die Leistung basierend auf Feedback und Erfahrung
Entscheidungsfindung
Triff fundierte Entscheidungen basierend auf verfügbaren Daten und Zielen.
Agentische KI - Analyseplattformen (7)
Autonome Aufgabenausführung
Fähigkeit, komplexe Aufgaben ohne ständige menschliche Eingabe auszuführen
Mehrstufige Planung
Fähigkeit, mehrstufige Prozesse zu analysieren und zu planen
Systemübergreifende Integration
Funktioniert über mehrere Softwaresysteme oder Datenbanken hinweg
Adaptives Lernen
Verbessert die Leistung basierend auf Feedback und Erfahrung
Natürliche Sprachinteraktion
Führt menschenähnliche Gespräche zur Aufgabenverteilung
Proaktive Unterstützung
Antizipiert Bedürfnisse und bietet Vorschläge ohne Aufforderung an
Entscheidungsfindung
Trifft fundierte Entscheidungen basierend auf verfügbaren Daten und Zielen
Agentic AI - Datenwissenschafts- und maschinelles Lernplattformen (7)
Autonome Aufgabenausführung
Fähigkeit, komplexe Aufgaben ohne ständige menschliche Eingabe auszuführen
Mehrstufige Planung
Fähigkeit, mehrstufige Prozesse zu analysieren und zu planen
Systemübergreifende Integration
Funktioniert über mehrere Softwaresysteme oder Datenbanken hinweg
Adaptives Lernen
Verbessert die Leistung basierend auf Feedback und Erfahrung
Natürliche Sprachinteraktion
Führt menschenähnliche Gespräche zur Aufgabenverteilung
Proaktive Unterstützung
Antizipiert Bedürfnisse und bietet Vorschläge ohne Aufforderung an
Entscheidungsfindung
Triff fundierte Entscheidungen basierend auf verfügbaren Daten und Zielen.
Bereitstellung & Integration - Analyseplattformen (4)
No-Code-Dashboard-Builder
Ermöglicht nicht-technischen Benutzern, Dashboards über intuitive Drag-and-Drop-Oberflächen zu erstellen.
Berichtplanung und Automatisierung
Ermöglicht die automatisierte Berichtserstellung und geplante Zustellung an Stakeholder
Eingebettete Analysen und White-Labeling
Ermöglicht das Einbetten von Dashboards und Analysen in externe Apps mit flexibler Markenanpassung.
Datenquellenkonnektivität
Unterstützt die Integration mit wichtigen Datenquellen wie Cloud-Datenbanken, SQL/NoSQL-Datenbanken und SaaS-Anwendungen.
Leistung & Skalierbarkeit - Analyseplattformen (2)
Große Datenverarbeitung und Abfragegeschwindigkeit
Verarbeitet große Datensätze effizient mit minimaler Verzögerung und gewährleistet hohe Leistung unter Last.
Gleichzeitige Benutzerunterstützung
Hält die Leistung und Betriebszeit bei hohem Datenverkehr von mehreren Benutzern oder Teams aufrecht
Erweiterte Analysen & Modellierung - Analyseplattformen (3)
Datenmodellierung und Governance
Unterstützt semantische Datenschichten, rollenbasierte Zugriffskontrollen und Metadaten-Governance
Notebook- und Skriptintegration
Integriert sich mit Jupyter, Python oder R für benutzerdefinierte Analysen und Modellierung
Eingebaute prädiktive und statistische Modelle
Bietet native Werkzeuge für statistische Analyse, Prognosen und Trendvorhersagen
Agentische KI-Fähigkeiten - Analyseplattformen (4)
Automatisch generierte Einblicke und Erzählungen
Verwendet KI, um textuelle Zusammenfassungen, wichtige Erkenntnisse und Datenberichte aus Dashboards zu erstellen.
Natürliche Sprachabfragen
Ermöglicht es Benutzern, Daten abzufragen und Berichte mit konversationeller oder einfacher Sprache zu erstellen.
Proaktive KPI-Überwachung und Warnungen
Erkennt und benachrichtigt Benutzer über KPI-Anomalien oder signifikante Metrikänderungen in Echtzeit
KI-Agenten für analytische Nachverfolgungen
Empfiehlt nächste Fragen, Analysen oder Erkundungspfade unter Verwendung autonomer KI-Agenten
Personalisierte Intelligenz - Analyseplattformen (3)
Verhaltenslernen zur kontextuellen Abfrageverfeinerung
Lernt aus historischen Benutzerinteraktionen, um die Abfrageergebnisse im Laufe der Zeit zu verbessern und zu personalisieren.
Rollenbasierte Einblick-Personalisierung
Schneidert Dashboard-Ansichten und Vorschläge basierend auf Benutzerrollen, Zugriffsebenen und vergangenem Verhalten.
Konversations- und Prompt-basierte Analysen
Unterstützt KI-gesteuerte Erkundung durch Eingabeaufforderungen oder mehrstufige Gespräche für iterative Abfragen.
Verkehrsmanagement & Leistung - KI-Gateways (3)
Token-bewusste Ratenbegrenzung
Erzwingt strikte Anfragen- und Token-Kontingente pro Benutzer, Mandant oder Anwendung, um Systemüberlastungen zu verhindern und API-Budgetgrenzen zu verwalten.
Semantisches Caching
Zwischenspeichert Antworten für identische oder semantisch ähnliche Eingaben, um die API-Latenz erheblich zu reduzieren und redundante Token-Kosten zu eliminieren.
Multi-Modell-Routing & Fallbacks
Leitet API-Anfragen an verschiedene LLM-Anbieter über eine einzige einheitliche API weiter und wechselt automatisch zu Backup-Modellen, wenn Ausfallzeiten auftreten.
Governance & Beobachtbarkeit - KI-Gateways (3)
Datenschutz
Fängt den Datenverkehr ab, um personenbezogene Daten (PII) zu erkennen und zu maskieren oder bösartige Eingabeaufforderungsinjektionen zu blockieren, bevor die Anfrage das externe Modell erreicht.
Kostenverfolgung
Bietet detaillierte Dashboards zur Überwachung des Tokenverbrauchs und zur genauen Berechnung der monetären Kosten, aufgeschlüsselt nach Anwendung, Team oder spezifischem Modell.
Zentralisierte API-Schlüsselsicherheit
Sichert und verwaltet externe LLM-API-Schlüssel innerhalb des Gateways, sodass Entwickler keine Anmeldeinformationen in ihre Anwendungen hartcodieren müssen.





