J'aime vraiment la façon dont le cadre de bentoml est conçu pour gérer le trafic entrant, j'aime vraiment sa fonctionnalité de travailleurs. En tant que développeur d'IA exécutant des modèles NLP sur une échelle, il est crucial que bentoml m'aide à construire facilement un service qui peut accepter plusieurs demandes à l'aide des travailleurs. J'aime aussi sa fonctionnalité de construction de bento et de dockerisation. Dans la méthode traditionnelle pour dockeriser, nous créons un service flask, django ou gradio... et ensuite écrivons un dockerfile, initialisons un support nvidia dans docker, tout cela est le travail d'un ingénieur devops, mais bentoml vient à la rescousse ici. Il suffit d'écrire un bentofile.yaml où vous spécifiez votre service, la version cuda, les bibliothèques à installer, les paquets système à installer, puis bentoml build et ensuite bentoml containerize, et voilà, bentoml a juste containerisé pour vous, il a écrit un dockerfile pour vous et a économisé le temps d'écrire un dockerfile et de le construire. J'aime vraiment cela à propos de bentoml. Il a également un bon support client avec un environnement slack où les développeurs de bentoml sont profondément engagés dans la résolution des problèmes des utilisateurs de bentoml auxquels ils sont confrontés. Avis collecté par et hébergé sur G2.com.
La seule chose à propos de bentoml est qu'il n'a pas de support pour AWS SageMaker. Récemment, je déployais mes modèles dans AWS SageMaker, mais bentoml n'avait pas de méthodes de dockerisation pour AWS SageMaker. Eh bien, il avait une bibliothèque appelée bentoctl, mais elle était obsolète. Avis collecté par et hébergé sur G2.com.
L'évaluateur a téléchargé une capture d'écran ou a soumis l'évaluation dans l'application pour les vérifier en tant qu'utilisateur actuel.
Validé via un compte e-mail professionnel
Avis organique. Cet avis a été rédigé entièrement sans invitation ni incitation de la part de G2, d'un vendeur ou d'un affilié.
Cet avis a été traduit de English à l'aide de l'IA.


