
A veces, en el aprendizaje automático clásico, la velocidad ofrecida por el ecosistema PyData simplemente no es lo suficientemente rápida. Herramientas como Dask y Vaex ayudan y ejecutar trabajos en un clúster de Spark a menudo es una solución ordenada también, pero a veces necesitas un poco más que eso.
Ahí es donde entra Rapids y todo el ecosistema de Rapids. Aunque no son reemplazos directos para Pandas, Numpy y Scikit-learn, cudf y cuml ayudan a construir el aprendizaje automático tabular en GPU de manera muy efectiva. Su API es mayormente similar al ecosistema PyData y, aunque la interoperabilidad es irregular, es muy posible.
Rapids también hace que ejecutar en un clúster de GPU distribuido, una tarea difícil para algoritmos tabulares, sea bastante fácil de hacer. Y sus técnicas de gestión de memoria con Apache Arrow aseguran que ese aspecto funcione sin problemas. Reseña recopilada por y alojada en G2.com.
Configurar Rapids fuera de clústeres gestionados no es una tarea sencilla. Aunque la instalación con pip es posible, es un poco como lanzar una moneda al aire. A veces funciona, a veces no, a veces parece funcionar y falla de maneras catastróficamente estúpidas e impredecibles. Reseña recopilada por y alojada en G2.com.
Validado a través de LinkedIn
A este revisor se le ofreció una tarjeta de regalo nominal como agradecimiento por completar esta reseña.
Invitación de G2. A este revisor se le ofreció una tarjeta de regalo nominal como agradecimiento por completar esta reseña.
Esta reseña ha sido traducida de English usando IA.

