
Manchmal ist die Geschwindigkeit, die das PyData-Ökosystem im klassischen Machine Learning bietet, einfach nicht schnell genug. Tools wie Dask und Vaex helfen, und das Ausführen von Jobs auf einem Spark-Cluster ist oft auch eine elegante Lösung, aber manchmal braucht man ein bisschen mehr als das.
Hier kommt Rapids und das gesamte Rapids-Ökosystem ins Spiel. Während sie keine direkten Ersatzlösungen für Pandas, Numpy und Scikit-learn sind, helfen cudf und cuml dabei, tabellarisches Machine Learning auf GPUs sehr effektiv zu gestalten. Ihre API ist größtenteils ähnlich dem PyData-Ökosystem und obwohl die Interoperabilität lückenhaft ist, ist sie durchaus möglich.
Rapids macht auch das Ausführen auf einem verteilten GPU-Cluster, eine schwierige Aufgabe für tabellarische Algorithmen, ziemlich einfach. Und seine Speicherverwaltungstechniken mit Apache Arrow sorgen dafür, dass dieser Aspekt reibungslos funktioniert. Bewertung gesammelt von und auf G2.com gehostet.
Das Einrichten von Rapids außerhalb von verwalteten Clustern ist keine einfache Aufgabe. Während die Installation mit pip möglich ist, ist es ein bisschen ein Glücksspiel. Manchmal funktioniert es, manchmal nicht, und manchmal tut es so, als ob es funktioniert, und scheitert auf katastrophal dumme und unvorhersehbare Weise. Bewertung gesammelt von und auf G2.com gehostet.
Bestätigt durch LinkedIn
Dieser Bewerter erhielt als Dank für das Ausfüllen dieser Bewertung eine symbolische Geschenkkarte.
Einladung von G2. Dieser Bewerter erhielt als Dank für das Ausfüllen dieser Bewertung eine symbolische Geschenkkarte.
Diese Bewertung wurde aus English mit KI übersetzt.

