G2 est fier de présenter des avis impartiaux sur la satisfaction des user dans nos évaluations et rapports. Nous n'autorisons pas les placements payés dans nos évaluations, classements ou rapports. Découvrez nos de notation.
Mistral-7B-v0.1 est un modèle petit mais puissant, adaptable à de nombreux cas d'utilisation. Mistral 7B est meilleur que Llama 2 13B sur tous les benchmarks, possède des capacités de codage naturelle
BLOOM-560m est un modèle de langage basé sur un transformateur développé par BigScience, conçu pour faciliter la recherche sur les grands modèles de langage (LLM). Il sert de modèle de base pré-entraî
Granite-3.1-3B-A800M-Base est un modèle de langage de pointe développé par IBM, conçu pour gérer des tâches complexes de traitement du langage naturel avec une grande efficacité. Ce modèle utilise une
Le modèle Phi 3 de Microsoft Azure redéfinit les capacités des modèles de langage à grande échelle dans le cloud.
BLOOM-1b1 est un modèle de langage multilingue développé par le BigScience Workshop, conçu pour générer du texte de manière humaine dans 48 langues. En tant que modèle basé sur un transformateur, il u
BLOOM-1b7 est un modèle de langage basé sur un transformateur développé par le BigScience Workshop, conçu pour générer du texte de manière humaine dans 48 langues. En tant que variante réduite du modè
BLOOM-3B est un modèle de langage multilingue de 3 milliards de paramètres développé par l'initiative BigScience. En tant que version réduite du modèle BLOOM plus grand, il maintient la même architect
BLOOM-7B1 est un modèle de langage multilingue développé par BigScience, conçu pour générer du texte de manière humaine dans 48 langues. Avec plus de 7 milliards de paramètres, il utilise une architec
Granite-3.1-1B-A400M-Base est un modèle de langage développé par l'équipe Granite d'IBM, conçu pour gérer des longueurs de contexte étendues jusqu'à 128K tokens. Ce modèle est basé sur une architectur
Granite-3.2-2B-Instruct est un modèle de langage de 2 milliards de paramètres développé par l'équipe Granite d'IBM, conçu pour gérer un large éventail de tâches de suivi d'instructions. Construit sur
Granite-3.2-8B-Instruct est un modèle d'IA de 8 milliards de paramètres affiné pour les tâches de raisonnement avancé. Construit sur son prédécesseur, Granite-3.1-8B-Instruct, il a été entraîné en uti
Granite-3.3-2B-Instruct est un modèle de langage de 2 milliards de paramètres développé par l'équipe Granite d'IBM, conçu pour améliorer les capacités de raisonnement et de suivi des instructions. Ave
Granite-3.3-8B-Instruct est un modèle de langage avancé développé par l'équipe Granite d'IBM, doté de 8 milliards de paramètres et d'une longueur de contexte de 128K. Affiné pour des capacités de rais
Granite-4.0-Tiny-Preview est un modèle de mélange d'experts hybride à grain fin de 7 milliards de paramètres, développé par l'équipe Granite d'IBM. Affiné à partir du Granite-4.0-Tiny-Base-Preview, il
Granite-4.0-Tiny-Base-Preview est un modèle de langage hybride mélange d'experts (MoE) de 7 milliards de paramètres développé par l'équipe Granite d'IBM. Il dispose d'une fenêtre de contexte de 128 00