Snowflake Funktionen
Modellentwicklung (5)
Unterstützte Sprachen
Unterstützt Programmiersprachen wie Java, C oder Python. Unterstützt Frontend-Sprachen wie HTML, CSS und JavaScript
Drag-and-Drop
Bietet Entwicklern die Möglichkeit, Codeteile oder Algorithmen beim Erstellen von Modellen per Drag & Drop zu verschieben
Vorgefertigte Algorithmen
Bietet Benutzern vorgefertigte Algorithmen für eine einfachere Modellentwicklung
Modell-Training
Liefert große Datensätze zum Trainieren einzelner Modelle
Feature-Entwicklung
Wandelt Rohdaten in Merkmale um, die das zugrunde liegende Problem für die Vorhersagemodelle besser darstellen
Machine-/Deep-Learning-Dienste (6)
Maschinelles Sehen
Bietet Bilderkennungsdienste an
Verarbeitung natürlicher Sprache
Bietet Dienstleistungen zur Verarbeitung natürlicher Sprache an
Generierung natürlicher Sprache
Bietet Dienstleistungen zur Generierung natürlicher Sprache an
Künstliche neuronale Netze
Bietet künstliche neuronale Netze für Benutzer
Verstehen natürlicher Sprache
Bietet Dienste zum Verstehen natürlicher Sprache
Deep Learning
Bietet Deep-Learning-Funktionen
Einsatz (15)
Managed Service
Verwaltet die intelligente Anwendung für den Benutzer und reduziert den Bedarf an Infrastruktur
Anwendung
Ermöglicht es Benutzern, maschinelles Lernen in Betriebsanwendungen einzubinden
Skalierbarkeit
Bietet leicht skalierbare Anwendungen und Infrastrukturen für maschinelles Lernen
Sprachliche Flexibilität
Ermöglicht Benutzern die Eingabe von Modellen, die in einer Vielzahl von Sprachen erstellt wurden.
Flexibilität des Rahmens
Ermöglicht es Benutzern, das Framework oder die Workbench ihrer Wahl auszuwählen.
Versionsverwaltung
Die Versionsverwaltung von Datensätzen, während Modelle durchlaufen werden.
Einfache Bereitstellung
Bietet eine Möglichkeit zum schnellen und effizienten Bereitstellen von Machine Learning-Modellen.
Skalierbarkeit
Bietet eine Möglichkeit, die Verwendung von Machine Learning-Modellen im gesamten Unternehmen zu skalieren.
On-Premise
Bietet On-Premise-Bereitstellungsoptionen.
Cloud
Bietet Cloud-Bereitstellungsoptionen (Private oder Public Cloud, Hybrid Cloud).
Sprachliche Flexibilität
Ermöglicht Benutzern die Eingabe von Modellen, die in einer Vielzahl von Sprachen erstellt wurden.
Flexibilität des Rahmens
Ermöglicht es Benutzern, das Framework oder die Workbench ihrer Wahl auszuwählen.
Versionsverwaltung
Die Versionsverwaltung von Datensätzen, während Modelle durchlaufen werden.
Einfache Bereitstellung
Bietet eine Möglichkeit zum schnellen und effizienten Bereitstellen von Machine Learning-Modellen.
Skalierbarkeit
Bietet eine Möglichkeit, die Verwendung von Machine Learning-Modellen im gesamten Unternehmen zu skalieren.
Datenbank (3)
Datenerfassung in Echtzeit
Sammelt, speichert und organisiert riesige, unstrukturierte Daten in Echtzeit
Datenverteilung
Erleichtert die Verbreitung der gesammelten Big Data in parallelen Rechenclustern
Data Lake
Erstellt ein Repository zum Sammeln und Speichern von Rohdaten von Sensoren, Geräten, Maschinen, Dateien usw.
Integrationen (2)
Hadoop-Integration
Richtet Verarbeitungs- und Verteilungs-Workflows auf Apache Hadoop aus
Spark-Integration
Richtet Verarbeitungs- und Verteilungs-Workflows auf Apache Hadoop aus
Plattform (3)
Maschinelle Skalierung
Erleichtert die Ausführung und Skalierung der Lösung auf einer großen Anzahl von Maschinen und Systemen
Datenaufbereitung
Kuratiert gesammelte Daten für Big-Data-Analyselösungen, um sie zu analysieren, zu manipulieren und zu modellieren
Spark-Integration
Richtet Verarbeitungs- und Verteilungs-Workflows auf Apache Hadoop aus
Verarbeitung (2)
Cloud-Verarbeitung
Verlagerung der Big-Data-Erfassung und -Verarbeitung in die Cloud
Workload-Verarbeitung
Verarbeitet Batch-, Echtzeit- und Streaming-Daten-Workloads in einzelnen, mandantenfähigen oder Cloud-Systemen
Datentransformation (2)
Echtzeit-Analysen
Erleichtert die Analyse großer Datenmengen in Echtzeit.
Datenabfrage
Ermöglicht es dem Benutzer, Daten über Abfragesprachen wie SQL abzufragen.
Verbindung (4)
Hadoop-Integration
Richtet Verarbeitungs- und Verteilungs-Workflows auf Apache Hadoop aus
Spark-Integration
Richtet Verarbeitungs- und Verteilungsworkflows auf Apache Spark aus
Multi-Source-Analyse
Integriert Daten aus mehreren externen Datenbanken.
Data Lake
Erleichtert die Verbreitung der gesammelten Big Data in parallelen Computing-Clustern.
Transaktionen (8)
Datenvisualisierung
Verarbeitet Daten und stellt Interpretationen in einer Vielzahl von grafischen Formaten dar.
Daten-Workflow
Reiht bestimmte Funktionen und Datasets aneinander, um Analyseiterationen zu automatisieren.
Geregelte Ermittlung
Isoliert bestimmte Datensätze und erleichtert die Verwaltung des Datenzugriffs.
Eingebettete Analytik
Ermöglicht das Big-Data-Tool das Ausführen und Aufzeichnen von Daten in externen Anwendungen.
Notizbücher
Verwenden von Notebooks für Aufgaben wie das Erstellen von Dashboards mit vordefinierten, geplanten Abfragen und Visualisierungen
Metriken
Kontrollieren Sie die Modellnutzung und -leistung in der Produktion
Infrastruktur-Management
Stellen Sie geschäftskritische ML-Anwendungen bereit, wo und wann immer Sie sie benötigen
Zusammenarbeit
Vergleichen Sie ganz einfach Experimente – Code, Hyperparameter, Metriken, Vorhersagen, Abhängigkeiten, Systemmetriken und mehr –, um Unterschiede in der Modellleistung zu verstehen.
Verwaltung (4)
Datenmodellierung
Tools zur (Neu-)Strukturierung von Daten in einer Weise, die es ermöglicht, Erkenntnisse schnell und genau zu extrahieren
Empfehlungen
Analysiert Daten, um die wertvollsten Kundensegmentierungen zu finden und zu empfehlen.
Workflow-Verwaltung
Tools zum Erstellen und Anpassen von Workflows, um Konsistenz zu gewährleisten.
Dashboards und Visualisierungen
Präsentiert Informationen und Analysen auf verständliche, intuitive und visuell ansprechende Weise.
Beachtung (4)
Einhaltung sensibler Daten
Unterstützt die Einhaltung von PII, DSGVO, HIPPA, PCI und anderen regulatorischen Standards.
Schulungen und Richtlinien
Bietet Richtlinien oder Schulungen im Zusammenhang mit den Anforderungen an die Einhaltung sensibler Daten,
Durchsetzung von Richtlinien
Administratoren können Richtlinien für Sicherheit und Data Governance festlegen
Überwachung der Einhaltung der Vorschriften
Überwacht die Datenqualität und sendet Warnmeldungen bei Verstößen oder Missbrauch
Datenqualität (3)
Datenaufbereitung
Kuratiert gesammelte Daten für Big-Data-Analyselösungen, um sie zu analysieren, zu manipulieren und zu modellieren
Datenverteilung
Erleichtert die Verbreitung der gesammelten Big Data in parallelen Rechenclustern
Datenvereinheitlichung
Stellen Sie Daten aus allen Systemen zusammen, damit Benutzer relevante Informationen einfach einsehen können.
Management (17)
Katalogisierung
Zeichnet alle Machine Learning-Modelle auf und organisiert sie, die im gesamten Unternehmen eingesetzt wurden.
Überwachung
Verfolgt die Leistung und Genauigkeit von Machine Learning-Modellen.
Regierend
Stellt Benutzer basierend auf der Autorisierung bereit, um Machine Learning-Modelle bereitzustellen und zu iterieren.
Modell-Registry
Ermöglicht Benutzern die Verwaltung von Modellartefakten und verfolgt, welche Modelle in der Produktion bereitgestellt werden.
Datenbeschreibungsverzeichnis
Speichert die Metadaten der Datenbank, d.h. die Definitionen von Datenelementen, Typen, Beziehungen usw.
Daten-Replikation
Erstellt eine Kopie der Datenbank, um Konsistenz und Integrität zu gewährleisten.
Abfragesprache
Ermöglicht Benutzern das Erstellen, Aktualisieren und Abrufen von Daten in einer Datenbank.
Datenmodellierung
Definiert den logischen Entwurf der Daten vor dem Erstellen der Schemas.
Performance-Analyse
Überwacht und analysiert kritische Datenbankattribute wie Abfrageleistung, Benutzersitzungen, Deadlock-Details, Systemfehler usw. und visualisiert sie auf einem benutzerdefinierten Dashboard.
Business-Glossar
Ermöglicht es Benutzern, ein Glossar mit Geschäftsbegriffen, Vokabular und Definitionen über mehrere Tools hinweg zu erstellen.
Datenermittlung
Bietet einen integrierten Datenkatalog, der es Benutzern ermöglicht, Daten aus mehreren Quellen einfach zu finden.
Daten-Profilierung
Überwacht und bereinigt Daten mit Hilfe von Geschäftsregeln und analytischen Algorithmen.
Reporting und Visualisierung
Visualisieren Sie Datenflüsse und Herkunft, um die Compliance mit Berichten und Dashboards über eine einzige Konsole nachzuweisen.
Datenherkunft
Bietet eine automatisierte Datenherkunftsfunktion, die Transparenz über die gesamte Datenverschiebung von der Datenentstehung bis zum Ziel bietet.
Katalogisierung
Zeichnet alle Machine Learning-Modelle auf und organisiert sie, die im gesamten Unternehmen eingesetzt wurden.
Überwachung
Verfolgt die Leistung und Genauigkeit von Machine Learning-Modellen.
Regierend
Stellt Benutzer basierend auf der Autorisierung bereit, um Machine Learning-Modelle bereitzustellen und zu iterieren.
system (1)
Datenerfassung und -aufbereitung
Bietet dem Benutzer die Möglichkeit, eine Vielzahl von Datenquellen zur sofortigen Verwendung zu importieren
Datenmanagement (6)
Datenintegration
Konsolidiert, bereinigt und normalisiert Daten aus mehreren unterschiedlichen Quellen.
Datenkompression
Hilft bei der Einsparung von Speicherkapazität und verbessert die Abfrageleistung.
Datenqualität
Eliminiert Dateninkonsistenzen und Duplikate und gewährleistet die Datenintegrität.
Integrierte Datenanalyse
SQL-basierte Analysefunktionen wie Zeitreihen, Musterabgleich, Geodatenanalyse usw.
Maschinelles Lernen in der Datenbank
Bietet integrierte Funktionen wie Algorithmen für maschinelles Lernen, Datenaufbereitungsfunktionen, Modellauswertung und -verwaltung usw.
Data Lake Analytics
Ermöglicht die Datenabfrage über Datenformate wie Parquet, ORC, JSON usw. und die Analyse komplexer Datentypen auf HDFS
Integration (3)
KI/ML-Integration
Lässt sich in Data-Science-Workflows, maschinelles Lernen und künstliche Intelligenz (KI) integrieren.
Integration von BI-Tools
Lässt sich in BI-Tools integrieren, um Daten in umsetzbare Erkenntnisse umzuwandeln.
Data-Lake-Integration
Bietet Geschwindigkeit bei der Datenverarbeitung und Erfassung von unstrukturierten, halbstrukturierten und Streaming-Daten.
Leistung (2)
Skalierbarkeit
Verwaltet riesige Datenmengen, die je nach Bedarf hoch- oder herunterskaliert werden können.
Integrierter Cache
Speichert häufig verwendete Daten schnell im Systemspeicher.
Instandhaltung (3)
Daten Migration
Ermöglicht das Verschieben von Daten von einer Datenbank in eine andere.
Backup und Wiederherstellung
Stellt Datensicherungs- und Wiederherstellungsfunktionen zum Schutz und zur Wiederherstellung einer Datenbank bereit.
Multi-User-Umgebung
Ermöglicht Benutzern den gleichzeitigen Zugriff auf und die gleichzeitige Bearbeitung von Daten, wobei mehrere Ansichten der Daten unterstützt werden.
Sicherheit (11)
Datenverschlüsselung
Verschlüsselt und wandelt Daten in der Datenbank von einem lesbaren Zustand in einen Chiffretext mit unlesbaren Zeichen um.
Steuerung des Benutzerzugriffs
Ermöglicht die Änderung des eingeschränkten Benutzerzugriffs in Abhängigkeit von der Zugriffsebene.
Daten-Governance
Richtlinien, Verfahren und Standards für die Verwaltung und den Zugriff auf Daten.
Datensicherheit
Schränkt den Datenzugriff auf Zellebene ein, maskiert oder verbirgt Teile von Zellen und verschlüsselt Daten im Ruhezustand und während der Übertragung
Rollenbasierte Autorisierung
Stellt vordefinierte Systemrollen, Berechtigungen und benutzerdefinierte Rollen für Benutzer bereit.
Authentifizierung
Ermöglicht die Integration mit externen Sicherheitsmechanismen wie Kerberos, LDAP-Authentifizierung usw.
Überwachungsprotokolle
Stellt ein Überwachungsprotokoll bereit, um den Zugriff und die Vorgänge zu verfolgen, die für Datenbanken ausgeführt werden, um die Einhaltung gesetzlicher Vorschriften zu gewährleisten.
Verschlüsselung
Bietet Verschlüsselungsfunktionen für alle ruhenden Daten mithilfe von Verschlüsselungsschlüsseln.
Zugriffskontrolle
Authentifiziert und autorisiert Personen für den Zugriff auf die Daten, die sie sehen und verwenden dürfen.
Rollen-Management
Hilft bei der Identifizierung und Verwaltung der Rollen von Besitzern und Verwaltern von Daten.
Compliance-Management
Hilft bei der Einhaltung von Datenschutzbestimmungen und -normen.
Lagerung (2)
Datenmodell
Speichert Datentabellen als Spalten.
Datentypen
Unterstützt mehrere Datentypen wie Listen, Sets, Hashes (ähnlich wie Map), sortierte Sets usw.
Verfügbarkeit (3)
Automatisches Sharding
Implementiert eine automatische horizontale Datenpartitionierung, die das Speichern von Daten auf mehr als einem Knoten ermöglicht, um horizontal hochzuskalieren.
Automatische Wiederherstellung
Stellt im Falle eines Fehlers einen korrekten (konsistenten) Zustand einer Datenbank wieder her.
Daten-Replikation
Kopieren Sie Daten über mehrere Server über Master-Slave, Peer-to-Peer-Replikationsarchitektur usw.
Unterstützen (2)
Multi-Modell
Bietet Unterstützung für das Speichern, Indizieren und Abfragen von Daten in mehr als einem Format.
Betriebssysteme
Verfügbar auf mehreren Betriebssystemen wie Linux, Windows, MacOS usw.
Wartung (2)
Daten-Qualitätsmanagement
Definiert, validiert und überwacht Geschäftsregeln, um die Bereitschaft der Stammdaten sicherzustellen.
Verwaltung von Richtlinien
Ermöglicht es Benutzern, Datenrichtlinien zu erstellen und zu überprüfen, um sie in der gesamten Organisation konsistent zu machen.
Zentralisierte Berechnung (1)
Zentralisierte Berechnung
Bietet einen zentralen, neutralen Ort für Parteien, um Datenanalysen durchzuführen.
Lokalisierte Berechnung (1)
Lokalisierte Berechnung
Bietet lokalisierte Berechnungen, bei denen die Daten dort verbleiben, wo sie sich befinden, und von der API aufgerufen werden, um Analysen durchzuführen.
Generative KI (9)
Textgenerierung
Ermöglicht Benutzern das Generieren von Text basierend auf einer Texteingabeaufforderung.
Textzusammenfassung
Fasst lange Dokumente oder Texte zu einer kurzen Zusammenfassung zusammen.
Textgenerierung
Ermöglicht Benutzern das Generieren von Text basierend auf einer Texteingabeaufforderung.
Textzusammenfassung
Fasst lange Dokumente oder Texte zu einer kurzen Zusammenfassung zusammen.
KI-Textgenerierung
Ermöglicht Benutzern das Generieren von Text basierend auf einer Texteingabeaufforderung.
Textzusammenfassung
Fasst lange Dokumente oder Texte zu einer kurzen Zusammenfassung zusammen.
Text-zu-Bild
Bietet die Möglichkeit, Bilder aus einer Texteingabeaufforderung zu generieren.
Textgenerierung
Ermöglicht Benutzern das Generieren von Text basierend auf einer Texteingabeaufforderung.
Textzusammenfassung
Fasst lange Dokumente oder Texte zu einer kurzen Zusammenfassung zusammen.
Agentische KI - Datenverwaltung (6)
Autonome Aufgabenausführung
Fähigkeit, komplexe Aufgaben ohne ständige menschliche Eingabe auszuführen
Mehrstufige Planung
Fähigkeit, mehrstufige Prozesse zu analysieren und zu planen
Systemübergreifende Integration
Funktioniert über mehrere Softwaresysteme oder Datenbanken hinweg
Adaptives Lernen
Verbessert die Leistung basierend auf Feedback und Erfahrung
Natürliche Sprachinteraktion
Führt menschenähnliche Gespräche zur Aufgabenverteilung
Entscheidungsfindung
Triff fundierte Entscheidungen basierend auf verfügbaren Daten und Zielen.
Agentic AI - Datenwissenschafts- und maschinelles Lernplattformen (7)
Autonome Aufgabenausführung
Fähigkeit, komplexe Aufgaben ohne ständige menschliche Eingabe auszuführen
Mehrstufige Planung
Fähigkeit, mehrstufige Prozesse zu analysieren und zu planen
Systemübergreifende Integration
Funktioniert über mehrere Softwaresysteme oder Datenbanken hinweg
Adaptives Lernen
Verbessert die Leistung basierend auf Feedback und Erfahrung
Natürliche Sprachinteraktion
Führt menschenähnliche Gespräche zur Aufgabenverteilung
Proaktive Unterstützung
Antizipiert Bedürfnisse und bietet Vorschläge ohne Aufforderung an
Entscheidungsfindung
Triff fundierte Entscheidungen basierend auf verfügbaren Daten und Zielen.
Top-bewertete Alternativen






