
Die Vielseitigkeit von Databricks ist seine beste Eigenschaft. Die Bandbreite an Sprachen und Funktionalitäten, die Databricks bietet, ist beeindruckend. Bisher habe ich Code in R, Python, SQL und Scala in Databricks geschrieben. Aber ich habe SQL-Code sowohl in R als auch in Python verfasst, der in Databricks ausgeführt wird. Und dann kommen wir zur Interoperabilität. Daten, die in SQL geschrieben wurden, können sowohl von R als auch von Python abgerufen werden. Parameter können über Widgets oder Umgebungsvariablen zwischen SQL, R und Python übergeben werden. Wenn Sie ein unlösbares Daten- oder Analyseproblem haben, wäre Databricks meine erste Wahl, um die Optionen zu maximieren, wie Sie potenziell Ihren Weg unter, um oder über die Hindernisse, die zwischen Ihrem Projekt und der erfolgreichen Ausführung stehen, programmieren könnten. Bewertung gesammelt von und auf G2.com gehostet.
Die Optionen für die Bereitstellung von Databricks-Code von dev >> qa >> uat >> prod sind nicht so intuitiv, wie ich es mir wünschen würde. Dies könnte mehr mit unserer aktuellen Nutzung von Azure Data Factory für die Orchestrierung zu tun haben. Das Einrichten von Workflows nativ in Databricks war ziemlich unkompliziert. Es scheint, dass wir uns möglicherweise Probleme bereiten, wenn wir von Azure Data Factory in dev >> qa >> uat >> prod auf Databricks-Notebooks zugreifen. Vielleicht überhaupt kein Mangel in Databricks. Neugierig, wie Databricks mit AWS anstelle von Azure funktionieren würde. Vielleicht eine bessere Erfahrung? Bewertung gesammelt von und auf G2.com gehostet.
Wir freuen uns zu hören, dass Sie die Vielseitigkeit von Databricks beeindruckend finden! Unsere Plattform ist darauf ausgelegt, eine umfassende Palette an Funktionen bereitzustellen, um den vielfältigen Anforderungen von Datenanalyse-Profis gerecht zu werden. Vielen Dank, dass Sie sich die Zeit genommen haben, eine Bewertung zu hinterlassen!





