VESSL è una piattaforma ML/MLOps end-to-end che consente agli ingegneri del machine learning (MLE) di personalizzare ed eseguire compiti di addestramento, ottimizzazione e inferenza scalabili in pochi secondi. Questi compiti individuali possono poi essere concatenati utilizzando il nostro gestore di workflow per CI/CD. Astraiamo i complessi backend di calcolo necessari per gestire le infrastrutture e le pipeline ML in un'interfaccia web e CLI facile da usare, accelerando così il passaggio dall'addestramento al deployment.
La costruzione, l'addestramento e il deployment di modelli di machine learning in produzione si basano su backend di calcolo complessi e dettagli di sistema. Questo costringe i data scientist e i ricercatori ML a trascorrere la maggior parte del loro tempo a combattere sfide ingegneristiche e infrastrutture oscure invece di sfruttare le loro competenze principali – sviluppare architetture di modelli all'avanguardia.
Le soluzioni esistenti come Kubeflow e Ray sono ancora troppo a basso livello e richiedono mesi di configurazione complessa da parte di un team dedicato di ingegneria di sistema. I migliori team ML di Uber, Deepmind e Netflix hanno un team dedicato di ingegneri MLOps e una piattaforma ML interna. Tuttavia, la maggior parte dei professionisti ML, anche quelli di grandi aziende software come Yahoo, si affida ancora a script improvvisati e file YAML non mantenuti e spreca ore solo per impostare un ambiente di sviluppo.
VESSL aiuta le aziende di qualsiasi dimensione e settore ad adottare pratiche ML/MLOps scalabili istantaneamente. Eliminando i costi generali nei sistemi ML con VESSL, aziende come Hyundai Motors, Samsung e Cognex stanno mettendo in produzione pipeline di machine learning end-to-end nel giro di poche ore.