Ich mag wirklich, wie das Framework von bentoml für die Handhabung eingehender Anfragen gebaut ist. Ich mag besonders die Funktion der Worker, da es für mich als KI-Entwickler, der NLP-Modelle auf skalierbaren Systemen betreibt, entscheidend ist. Bentoml hilft mir, einfach einen Dienst zu erstellen, der mehrere Anfragen mit Hilfe von Workern akzeptieren kann. Ich schätze auch die Funktion des Bento-Bauens und der Dockerisierung. In der traditionellen Methode zur Dockerisierung erstellen wir einen Flask-, Django- oder Gradio-Dienst und schreiben dann eine Dockerfile, um NVIDIA-Unterstützung in Docker zu initialisieren. Dies ist normalerweise die Arbeit eines DevOps-Ingenieurs, aber bentoml kommt hier zur Rettung. Man schreibt einfach eine bentofile.yaml, in der man den Dienst, die CUDA-Version, zu installierende Bibliotheken und Systempakete angibt, und dann einfach bentoml build und bentoml containerize. Boom, bentoml hat es für dich containerisiert, es hat eine Dockerfile für dich geschrieben und die Zeit gespart, eine Dockerfile zu schreiben und zu bauen. Das gefällt mir wirklich an bentoml. Es hat auch einen guten Kundensupport und eine Slack-Umgebung, in der die Entwickler von bentoml stark in die Lösung der Probleme der bentoml-Nutzer eingebunden sind. Bewertung gesammelt von und auf G2.com gehostet.
Die eine Sache bei bentoml ist, dass es kürzlich keine Unterstützung für AWS Sagemaker hat. Ich habe meine Modelle in AWS Sagemaker bereitgestellt, aber bentoml hatte keine Methoden zum Dockerisieren für AWS Sagemaker. Nun, es hatte eine Bibliothek namens bentoctl, aber sie war veraltet. Bewertung gesammelt von und auf G2.com gehostet.
Der Bewerter hat einen Screenshot hochgeladen oder die Bewertung in der App eingereicht und sich als aktueller Benutzer verifiziert.
Bestätigt durch ein Geschäftsemail-Konto
Organische Bewertung. Diese Bewertung wurde vollständig ohne Einladung oder Anreiz von G2, einem Verkäufer oder einem Partnerunternehmen verfasst.
Diese Bewertung wurde aus English mit KI übersetzt.


