
Parfois, dans l'apprentissage automatique classique, la vitesse offerte par l'écosystème PyData n'est tout simplement pas assez rapide. Des outils comme Dask et Vaex aident et exécuter des tâches sur un cluster Spark est souvent une solution élégante également, mais parfois vous avez besoin d'un peu plus que cela.
C'est là que Rapids et tout l'écosystème Rapids entrent en jeu. Bien qu'ils ne soient pas des remplaçants directs pour Pandas, Numpy et Scikit-learn, cudf et cuml aident à construire efficacement l'apprentissage automatique tabulaire sur les GPU. Leur API est principalement similaire à l'écosystème PyData et bien que l'interopérabilité soit incertaine, elle est tout à fait possible.
Rapids facilite également l'exécution sur un cluster GPU distribué, une tâche difficile pour les algorithmes tabulaires. Et ses techniques de gestion de la mémoire avec Apache Arrow assurent cet aspect en douceur. Avis collecté par et hébergé sur G2.com.
La configuration de Rapids en dehors des clusters gérés n'est pas une tâche simple. Bien qu'une installation avec pip soit possible, c'est un peu un coup de dés. Parfois, cela fonctionne, parfois non, parfois cela prétend fonctionner et échoue de manière catastrophiquement stupide et imprévisible. Avis collecté par et hébergé sur G2.com.
Validé via LinkedIn
Cet évaluateur s'est vu offrir une carte-cadeau nominale en remerciement pour avoir complété cet avis.
Invitation de la part de G2. Cet évaluateur s'est vu offrir une carte-cadeau nominale en remerciement pour avoir complété cet avis.
Cet avis a été traduit de English à l'aide de l'IA.

