
Ce que j'aime le plus, c'est que StableLM est ouvert, donc je peux voir comment les choses fonctionnent et cela ne semble pas complètement verrouillé. Il semble également léger et rapide, plutôt que lourd comme certains autres modèles. Pour les expériences et l'apprentissage—surtout si vous êtes technique—c'est un bon choix. J'apprécie aussi de pouvoir l'exécuter localement, donc je n'ai pas toujours à dépendre du cloud. Même lorsque les réponses ne sont pas parfaites, cela semble toujours brut et flexible, et c'est quelque chose que j'aime vraiment. Pour moi, c'est finalement plus une question de liberté que de finition. Avis collecté par et hébergé sur G2.com.
Parfois, les réponses ne sont pas entièrement précises, donc je me retrouve encore à les vérifier. Il a également tendance à perdre le fil du contexte dans les conversations plus longues, ce qui peut fausser la réponse et la rendre moins fiable. Dans l'ensemble, les réponses semblent moins soignées et un peu brutes. Avis collecté par et hébergé sur G2.com.

