L'identità di questo recensore è stata verificata dal nostro team di moderazione delle recensioni. Hanno chiesto di non mostrare il loro nome, titolo di lavoro o immagine.
ScaleOps è stato facile da configurare nei nostri 6 cluster GKE principali, ciascuno con circa ~1k carichi di lavoro unici utilizzando 350 nodi e ~3k core in totale. Abbiamo lavorato a stretto contatto con il team di ScaleOps durante l'integrazione, e hanno fornito supporto rapidamente. Abbiamo risparmiato circa 30k USD al mese nei costi di calcolo con l'ottimizzazione del dimensionamento di ScaleOps da quando lo abbiamo installato. Oltre ai risparmi sui costi, abbiamo visto un enorme miglioramento nella frequenza degli OOM kills nella piattaforma. Il dimensionamento automatico è molto più facile da scalare nella nostra organizzazione con centinaia di sviluppatori rispetto alle soluzioni precedenti per il dimensionamento dei carichi di lavoro. Le politiche personalizzate di ScaleOps rendono facile controllare il dimensionamento per le diverse esigenze di latenza, affidabilità e tecniche dei carichi di lavoro, dandoci la flessibilità di guidare un'ottimizzazione aggressiva dei costi dove possiamo, lasciando al contempo un ampio margine per i carichi di lavoro più critici e impegnativi. Utilizzando la loro configurazione in stile GitOps delle politiche e collegando i carichi di lavoro a queste politiche, possiamo controllare questo su larga scala nonostante abbiamo 6k carichi di lavoro distinti da configurare. Recensione raccolta e ospitata su G2.com.
Sebbene eseguire ScaleOps all'interno del cluster offra alcuni vantaggi per l'affidabilità e la sicurezza, il deployment richiesto di Prometheus consuma una quantità significativa di CPU e memoria, riducendo i nostri risparmi complessivi sui costi. Inoltre, gestire Prometheus autonomamente significa che dobbiamo sviluppare competenze nel suo funzionamento per mantenere ScaleOps operativo correttamente. Come con il dimensionamento automatico, affidarsi a ScaleOps per mantenere un dimensionamento ottimale dei carichi di lavoro introduce una dipendenza, rendendo ScaleOps stesso un potenziale punto di guasto unico nella nostra infrastruttura. Ci sono anche alcuni bug nell'interfaccia utente. Ad esempio, i CronJobs non applicano le loro politiche configurate tramite GitOps fino a quando non vengono effettivamente eseguiti. L'interfaccia utente è estremamente lenta, probabilmente a causa dell'elevato numero di carichi di lavoro che abbiamo. Sembra che il front-end carichi tutti i carichi di lavoro in memoria e li manipoli durante l'interazione, il che causa risposte lente di JavaScript ad azioni come clic e passaggio del mouse.
Molte delle funzionalità oltre al dimensionamento dei carichi di lavoro sembrano immature e/o non offrono nulla di più di quanto fornito di base da Kubernetes o GKE. Ad esempio, il margine del cluster può essere facilmente realizzato utilizzando la documentazione ufficiale di Kubernetes sull'over-provisioning dei nodi (https://kubernetes.io/docs/tasks/administer-cluster/node-overprovisioning/) con una capacità significativamente maggiore di personalizzare per il tuo caso d'uso. La loro funzione di "ottimizzazione spot" non fornisce alcun valore aggiunto per noi che non otteniamo già dalla funzione di classe di calcolo integrata di GKE. Non sono sicuro dell'uso reale della loro funzione di ottimizzazione delle repliche, ma sembra completamente inutile per noi. Penso che le altre funzionalità oltre al dimensionamento dei carichi di lavoro siano state aggiunte come riempitivo per commercializzare il prodotto alla direzione senza fornire un reale valore tecnico alle aziende che utilizzano ScaleOps. Questo non è un vero problema per noi, poiché non eravamo interessati a nient'altro che al dimensionamento dei carichi di lavoro quando abbiamo acquistato la soluzione. Recensione raccolta e ospitata su G2.com.
Il revisore ha caricato uno screenshot o inviato la recensione in-app verificandosi come utente attuale.
Validato tramite Google utilizzando un account email aziendale
A questo recensore è stato offerto un incentivo nominale come ringraziamento per aver completato questa recensione.
Invito da un venditore o affiliato. A questo recensore è stato offerto un incentivo nominale come ringraziamento per aver completato questa recensione.
Questa recensione è stata tradotta da English usando l'IA.




