
Quello che mi piace di più di Vertex AI è che riunisce l'intero flusso di lavoro del machine learning in un'unica piattaforma. Dalla preparazione dei dati e l'addestramento al deployment e al monitoraggio continuo, possiamo gestire tutto senza problemi senza dover destreggiarci tra più strumenti. Lo usiamo da diversi anni per costruire e distribuire modelli di ML in produzione, e la sua integrazione con altri servizi di Google Cloud, come BigQuery e Cloud Storage, rende la gestione e il movimento dei dati molto più semplici. Le funzionalità AutoML e le pipeline pre-costruite risparmiano anche molto tempo, così il nostro team può dedicare più energia alla sperimentazione e al miglioramento delle prestazioni del modello invece di impostare e mantenere l'infrastruttura. Recensione raccolta e ospitata su G2.com.
Una cosa che non mi piace di Vertex AI è che può sembrare opprimente per i nuovi utenti a causa del gran numero di funzionalità e servizi che offre. Anche se è molto potente, configurare pipeline personalizzate o eseguire il debug di flussi di lavoro più complessi può a volte richiedere una conoscenza approfondita di Google Cloud e dei concetti fondamentali di ML. Inoltre, i costi possono aumentare rapidamente se le risorse non vengono gestite con attenzione, specialmente quando si addestrano modelli di grandi dimensioni o si eseguono più esperimenti in parallelo. Recensione raccolta e ospitata su G2.com.
Per G2, preferiamo recensioni fresche e ci piace seguire i revisori. Potrebbero non aver aggiornato il testo della loro recensione, ma hanno aggiornato la loro valutazione.
Il revisore ha caricato uno screenshot o inviato la recensione in-app verificandosi come utente attuale.
Validato tramite LinkedIn
A questo recensore è stata offerta una carta regalo nominale come ringraziamento per aver completato questa recensione.
Invito da G2. A questo recensore è stata offerta una carta regalo nominale come ringraziamento per aver completato questa recensione.
Questa recensione è stata tradotta da English usando l'IA.






