
A volte, nel Machine Learning classico, la velocità offerta dall'ecosistema PyData non è semplicemente abbastanza veloce. Strumenti come Dask e Vaex aiutano e eseguire lavori su un cluster Spark è spesso una soluzione elegante, ma a volte hai bisogno di qualcosa di più.
È qui che entra in gioco Rapids e l'intero ecosistema Rapids. Anche se non sono sostituti diretti per Pandas, Numpy e Scikit-learn, cudf e cuml aiutano a costruire il machine learning tabulare su GPU in modo molto efficace. La loro API è per lo più simile all'ecosistema PyData e, sebbene l'interoperabilità sia incerta, è molto possibile.
Rapids rende anche l'esecuzione su un cluster GPU distribuito, un compito difficile per gli algoritmi tabulari, abbastanza facile da fare. E le sue tecniche di gestione della memoria con Apache Arrow assicurano che questo aspetto funzioni senza problemi. Recensione raccolta e ospitata su G2.com.
Configurare Rapids al di fuori dei cluster gestiti non è un compito semplice. Sebbene l'installazione con pip sia possibile, è un po' un salto nel buio. A volte funziona, a volte no, a volte sembra funzionare e fallisce in modi catastroficamente stupidi e imprevedibili. Recensione raccolta e ospitata su G2.com.
Validato tramite LinkedIn
A questo recensore è stata offerta una carta regalo nominale come ringraziamento per aver completato questa recensione.
Invito da G2. A questo recensore è stata offerta una carta regalo nominale come ringraziamento per aver completato questa recensione.
Questa recensione è stata tradotta da English usando l'IA.

