A G2 se orgulha de mostrar avaliações imparciais sobre a satisfação com user em nossas classificações e relatórios. Não permitimos colocações pagas em nenhuma de nossas classificações, rankings ou relatórios. Saiba mais sobre nossas metodologias de pontuação.
Mistral-7B-v0.1 é um modelo pequeno, mas poderoso, adaptável a muitos casos de uso. Mistral 7B é melhor que Llama 2 13B em todos os benchmarks, possui habilidades naturais de codificação e comprimento
BLOOM-560m é um modelo de linguagem baseado em transformadores desenvolvido pela BigScience, projetado para facilitar a pesquisa em grandes modelos de linguagem (LLMs). Ele serve como um modelo base p
Granite-3.1-3B-A800M-Base é um modelo de linguagem de última geração desenvolvido pela IBM, projetado para lidar com tarefas complexas de processamento de linguagem natural com alta eficiência. Este m
O modelo Phi 3 da Microsoft Azure está redefinindo as capacidades dos modelos de linguagem em larga escala na nuvem.
BLOOM-1b1 é um modelo de linguagem multilíngue desenvolvido pelo BigScience Workshop, projetado para gerar texto semelhante ao humano em 48 idiomas. Como um modelo baseado em transformador, ele utiliz
BLOOM-1b7 é um modelo de linguagem baseado em transformador desenvolvido pelo BigScience Workshop, projetado para gerar texto semelhante ao humano em 48 idiomas. Como uma variante reduzida do modelo B
BLOOM-3B é um modelo de linguagem multilíngue com 3 bilhões de parâmetros desenvolvido pela iniciativa BigScience. Como uma versão reduzida do modelo maior BLOOM, ele mantém a mesma arquitetura e obje
BLOOM-7B1 é um modelo de linguagem multilíngue desenvolvido pela BigScience, projetado para gerar texto semelhante ao humano em 48 idiomas. Com mais de 7 bilhões de parâmetros, ele utiliza uma arquite
Granite-3.1-1B-A400M-Base é um modelo de linguagem desenvolvido pela Equipe Granite da IBM, projetado para lidar com comprimentos de contexto extensos de até 128K tokens. Este modelo é baseado em uma
Granite-3.2-2B-Instruct é um modelo de linguagem com 2 bilhões de parâmetros desenvolvido pela Equipe Granite da IBM, projetado para lidar com uma ampla gama de tarefas de seguimento de instruções. Co
Granite-3.2-8B-Instruct é um modelo de IA com 8 bilhões de parâmetros, ajustado para tarefas de raciocínio avançado. Construído sobre seu predecessor, Granite-3.1-8B-Instruct, foi treinado usando uma
Granite-3.3-2B-Instruct é um modelo de linguagem com 2 bilhões de parâmetros desenvolvido pela equipe Granite da IBM, projetado para aprimorar as capacidades de raciocínio e de seguir instruções. Com
Granite-3.3-8B-Instruct é um modelo de linguagem avançado desenvolvido pela equipe Granite da IBM, com 8 bilhões de parâmetros e um comprimento de contexto de 128K. Ajustado para capacidades aprimorad
Granite-4.0-Tiny-Preview é um modelo de instrução híbrido de mistura de especialistas (MoE) de 7 bilhões de parâmetros desenvolvido pela equipe Granite da IBM. Ajustado a partir do Granite-4.0-Tiny-Ba
Granite-4.0-Tiny-Base-Preview é um modelo de linguagem híbrido de mistura de especialistas (MoE) com 7 bilhões de parâmetros desenvolvido pela equipe Granite da IBM. Ele possui uma janela de contexto