  # Melhor Modelos de Linguagem Pequenos (SLMs) - Página 2

  *By [Jeffrey Lin](https://research.g2.com/insights/author/jeffrey-lin)*

   Modelos de linguagem pequenos (SLMs) são modelos de linguagem de IA otimizados para eficiência, especialização e implantação em ambientes com recursos limitados, projetados para entender, interpretar e gerar saídas semelhantes às humanas, mantendo a eficiência computacional, tempos de inferência rápidos e flexibilidade de implantação em dispositivos de borda, plataformas móveis e sistemas offline.

### Capacidades Principais do Software SLM

Para se qualificar para inclusão na categoria de Modelos de Linguagem Pequenos (SLM), um produto deve:

- Oferecer um modelo de linguagem compacto otimizado para eficiência de recursos e tarefas especializadas, capaz de compreender e gerar saídas semelhantes às humanas
- Conter 10 bilhões de parâmetros ou menos, distinguindo-se dos LLMs que excedem esse limite
- Proporcionar flexibilidade de implantação para ambientes com recursos limitados, como dispositivos de borda, plataformas móveis ou hardware de computação limitado
- Ser projetado para otimização específica de tarefas através de ajuste fino, especialização de domínio ou treinamento direcionado para aplicações de negócios específicas
- Manter eficiência computacional com tempos de inferência rápidos, requisitos de memória reduzidos e menor consumo de energia em comparação com LLMs

### Casos de Uso Comuns para Software SLM

Desenvolvedores e organizações usam SLMs onde LLMs seriam muito intensivos em recursos ou caros para implantar. Casos de uso comuns incluem:

- Implantar capacidades de linguagem especializadas em dispositivos de borda ou plataformas móveis sem dependência da nuvem
- Executar tarefas de IA específicas de domínio, como classificação de documentos, reconhecimento de entidades nomeadas ou sumarização com recursos de computação mínimos
- Ajustar modelos compactos para aplicações de negócios direcionadas que requerem implantação de IA econômica e rápida

### Como os SLMs Diferem de Outras Ferramentas

Os SLMs diferem dos [modelos de linguagem grandes (LLMs)](https://www.g2.com/categories/large-language-models-llms) principalmente em escala, com tamanhos de parâmetros variando tipicamente de alguns milhões a 10 bilhões, em comparação com LLMs que variam de 10 bilhões a trilhões de parâmetros. Enquanto os LLMs se concentram em tarefas de linguagem abrangentes e de propósito geral em vários domínios, os SLMs são projetados para aplicações direcionadas que priorizam eficiência de recursos e especialização. Os SLMs também diferem dos [chatbots de IA](https://www.g2.com/categories/ai-chatbots), que fornecem a plataforma voltada para o usuário em vez dos modelos fundamentais em si.

### Insights da G2 sobre Software SLM

Com base nas tendências de categoria na G2, a flexibilidade de implantação e o desempenho específico de tarefas se destacam como capacidades notáveis. Custos de inferência mais baixos e tempo de implantação mais rápido para casos de uso especializados se destacam como benefícios primários da adoção de SLM.




  ## How Many Modelos de Linguagem Pequenos (SLMs) Products Does G2 Track?
**Total Products under this Category:** 40

  
## How Does G2 Rank Modelos de Linguagem Pequenos (SLMs) Products?

**Por que você pode confiar nos rankings de software do G2:**

- 30 Analistas e Especialistas em Dados
- 0+ Avaliações Autênticas
- 40+ Produtos
- Rankings Imparciais

Os rankings de software da G2 são baseados em avaliações de usuários verificadas, moderação rigorosa e uma metodologia de pesquisa consistente mantida por uma equipe de analistas e especialistas em dados. Cada produto é medido usando os mesmos critérios transparentes, sem colocação paga ou influência de fornecedores. Embora as avaliações reflitam experiências reais dos usuários, que podem ser subjetivas, elas oferecem insights valiosos sobre como o software funciona nas mãos de profissionais. Juntos, esses dados alimentam o G2 Score, uma maneira padronizada de comparar ferramentas dentro de cada categoria.

  
## Which Modelos de Linguagem Pequenos (SLMs) Is Best for Your Use Case?


  
  ## What Are the Top-Rated Modelos de Linguagem Pequenos (SLMs) Products in 2026?
### 1. [Ministral 3B 24.10](https://www.g2.com/pt/products/ministral-3b-24-10/reviews)
  Codestral é um modelo de IA generativa de peso aberto desenvolvido pela Mistral AI, especificamente projetado para tarefas de geração de código. Ele auxilia desenvolvedores na escrita e interação com código através de um ponto de extremidade unificado de instrução e conclusão de API. Proficiente em mais de 80 linguagens de programação — incluindo Python, Java, C, C++, JavaScript e Bash — Codestral também suporta linguagens menos comuns como Swift e Fortran, tornando-o versátil em vários ambientes de codificação. Características e Funcionalidades Principais: - Suporte Multilíngue: Treinado em um conjunto de dados diversificado que abrange mais de 80 linguagens de programação, garantindo adaptabilidade a diferentes projetos de desenvolvimento. - Conclusão e Geração de Código: Capaz de completar funções de codificação, escrever testes e preencher código parcial usando um mecanismo de preenchimento no meio, agilizando assim o processo de codificação. - Integração com Ambientes de Desenvolvimento: Acessível através de um ponto de extremidade dedicado (`codestral.mistral.ai`), facilitando a integração perfeita em vários Ambientes de Desenvolvimento Integrado (IDEs). Valor Principal e Soluções para Usuários: Codestral melhora significativamente a produtividade dos desenvolvedores ao automatizar tarefas rotineiras de codificação, reduzindo o tempo e o esforço necessários para a conclusão de código e geração de testes. Seu amplo suporte a linguagens e compreensão avançada de código minimizam erros e bugs, permitindo que os desenvolvedores se concentrem na resolução de problemas complexos e inovação. Ao integrar-se suavemente aos fluxos de trabalho existentes, Codestral democratiza a codificação, tornando o desenvolvimento assistido por IA avançada acessível a um público mais amplo.



**Who Is the Company Behind Ministral 3B 24.10?**

- **Vendedor:** [Mistral](https://www.g2.com/pt/sellers/mistral)
- **Ano de Fundação:** 2023
- **Localização da Sede:** Paris, Île-de-France, France
- **Twitter:** @MistralAI (182,308 seguidores no Twitter)
- **Página do LinkedIn®:** https://www.linkedin.com/company/mistralai/ (787 funcionários no LinkedIn®)



### 2. [Ministral 8B 24.10](https://www.g2.com/pt/products/ministral-8b-24-10/reviews)
  Codestral é um modelo de IA generativa de peso aberto desenvolvido pela Mistral AI, especificamente projetado para tarefas de geração de código. Ele auxilia desenvolvedores na escrita e interação com código através de um ponto de extremidade unificado de instrução e conclusão de API. Proficiente em mais de 80 linguagens de programação — incluindo Python, Java, C, C++, JavaScript e Bash — Codestral também suporta linguagens menos comuns como Swift e Fortran, tornando-o versátil em vários ambientes de codificação. Características e Funcionalidades Principais: - Suporte Multilíngue: Treinado em um conjunto de dados diversificado que abrange mais de 80 linguagens de programação, garantindo adaptabilidade a diferentes projetos de desenvolvimento. - Conclusão e Geração de Código: Capaz de completar funções de codificação, escrever testes e preencher código parcial usando um mecanismo de preenchimento no meio, agilizando assim o processo de codificação. - Integração com Ambientes de Desenvolvimento: Acessível através de um ponto de extremidade dedicado (`codestral.mistral.ai`), facilitando a integração perfeita em vários Ambientes de Desenvolvimento Integrado (IDEs). Valor Principal e Soluções para Usuários: Codestral melhora significativamente a produtividade dos desenvolvedores ao automatizar tarefas rotineiras de codificação, reduzindo o tempo e o esforço necessários para a conclusão de código e geração de testes. Seu amplo suporte a linguagens e compreensão avançada de código minimizam erros e bugs, permitindo que os desenvolvedores se concentrem na resolução de problemas complexos e inovação. Ao integrar-se suavemente aos fluxos de trabalho existentes, Codestral democratiza a codificação, tornando o desenvolvimento assistido por IA avançada acessível a um público mais amplo.



**Who Is the Company Behind Ministral 8B 24.10?**

- **Vendedor:** [Mistral](https://www.g2.com/pt/sellers/mistral)
- **Ano de Fundação:** 2023
- **Localização da Sede:** Paris, Île-de-France, France
- **Twitter:** @MistralAI (182,308 seguidores no Twitter)
- **Página do LinkedIn®:** https://www.linkedin.com/company/mistralai/ (787 funcionários no LinkedIn®)



### 3. [Mistral Saba](https://www.g2.com/pt/products/mistral-saba/reviews)
  Codestral é um modelo de IA generativa de peso aberto desenvolvido pela Mistral AI, especificamente projetado para tarefas de geração de código. Ele auxilia desenvolvedores na escrita e interação com código através de um ponto de extremidade unificado de instrução e conclusão de API. Proficiente em mais de 80 linguagens de programação — incluindo Python, Java, C, C++, JavaScript e Bash — Codestral também suporta linguagens menos comuns como Swift e Fortran, tornando-o versátil em vários ambientes de codificação. Principais Características e Funcionalidades: - Suporte Multilíngue: Treinado em um conjunto de dados diversificado que abrange mais de 80 linguagens de programação, garantindo adaptabilidade a diferentes projetos de desenvolvimento. - Conclusão e Geração de Código: Capaz de completar funções de codificação, escrever testes e preencher código parcial usando um mecanismo de preenchimento no meio, agilizando assim o processo de codificação. - Integração com Ambientes de Desenvolvimento: Acessível através de um ponto de extremidade dedicado (`codestral.mistral.ai`), facilitando a integração perfeita em vários Ambientes de Desenvolvimento Integrado (IDEs). Valor Principal e Soluções para Usuários: Codestral melhora significativamente a produtividade dos desenvolvedores ao automatizar tarefas rotineiras de codificação, reduzindo o tempo e o esforço necessários para a conclusão de código e geração de testes. Seu extenso suporte a linguagens e compreensão avançada de código minimizam erros e bugs, permitindo que os desenvolvedores se concentrem na resolução de problemas complexos e inovação. Ao integrar-se suavemente aos fluxos de trabalho existentes, Codestral democratiza a codificação, tornando o desenvolvimento assistido por IA avançada acessível a um público mais amplo.



**Who Is the Company Behind Mistral Saba?**

- **Vendedor:** [Mistral](https://www.g2.com/pt/sellers/mistral)
- **Ano de Fundação:** 2023
- **Localização da Sede:** Paris, Île-de-France, France
- **Twitter:** @MistralAI (182,308 seguidores no Twitter)
- **Página do LinkedIn®:** https://www.linkedin.com/company/mistralai/ (787 funcionários no LinkedIn®)



### 4. [Mistral Small 3.2](https://www.g2.com/pt/products/mistral-small-3-2/reviews)
  Codestral é um modelo de IA generativa de peso aberto desenvolvido pela Mistral AI, especificamente projetado para tarefas de geração de código. Ele auxilia desenvolvedores na escrita e interação com código através de um ponto de extremidade unificado de instrução e conclusão de API. Proficiente em mais de 80 linguagens de programação — incluindo Python, Java, C, C++, JavaScript e Bash — Codestral também suporta linguagens menos comuns como Swift e Fortran, tornando-o versátil em vários ambientes de codificação. Características e Funcionalidades Principais: - Suporte Multilíngue: Treinado em um conjunto de dados diversificado que abrange mais de 80 linguagens de programação, garantindo adaptabilidade a diferentes projetos de desenvolvimento. - Conclusão e Geração de Código: Capaz de completar funções de codificação, escrever testes e preencher código parcial usando um mecanismo de preenchimento no meio, agilizando assim o processo de codificação. - Integração com Ambientes de Desenvolvimento: Acessível através de um ponto de extremidade dedicado (`codestral.mistral.ai`), facilitando a integração perfeita em vários Ambientes de Desenvolvimento Integrado (IDEs). Valor Principal e Soluções para Usuários: Codestral melhora significativamente a produtividade dos desenvolvedores ao automatizar tarefas rotineiras de codificação, reduzindo o tempo e o esforço necessários para a conclusão de código e geração de testes. Seu amplo suporte a linguagens e compreensão avançada de código minimizam erros e bugs, permitindo que os desenvolvedores se concentrem na resolução de problemas complexos e inovação. Ao integrar-se suavemente aos fluxos de trabalho existentes, Codestral democratiza a codificação, tornando o desenvolvimento assistido por IA avançada acessível a um público mais amplo.



**Who Is the Company Behind Mistral Small 3.2?**

- **Vendedor:** [Mistral](https://www.g2.com/pt/sellers/mistral)
- **Ano de Fundação:** 2023
- **Localização da Sede:** Paris, Île-de-France, France
- **Twitter:** @MistralAI (182,308 seguidores no Twitter)
- **Página do LinkedIn®:** https://www.linkedin.com/company/mistralai/ (787 funcionários no LinkedIn®)



### 5. [MPT-7B](https://www.g2.com/pt/products/mpt-7b/reviews)
  MPT-7B é um transformer no estilo decodificador pré-treinado do zero em 1T tokens de texto e código em inglês. Este modelo foi treinado pela MosaicML. MPT-7B faz parte da família de modelos MosaicPretrainedTransformer (MPT), que utilizam uma arquitetura de transformer modificada e otimizada para treinamento e inferência eficientes. Essas mudanças arquitetônicas incluem implementações de camadas otimizadas para desempenho e a eliminação de limites de comprimento de contexto, substituindo embeddings posicionais por Atenção com Viés Linear (ALiBi). Graças a essas modificações, os modelos MPT podem ser treinados com alta eficiência de rendimento e convergência estável. Os modelos MPT também podem ser servidos de forma eficiente com os pipelines padrão do HuggingFace e o FasterTransformer da NVIDIA.



**Who Is the Company Behind MPT-7B?**

- **Vendedor:** [MosaicML](https://www.g2.com/pt/sellers/mosaicml)
- **Ano de Fundação:** 2021
- **Localização da Sede:** San Francisco, US
- **Página do LinkedIn®:** https://www.linkedin.com/company/databricks (13,148 funcionários no LinkedIn®)



### 6. [NVIDIA Nemotron Nano 9b](https://www.g2.com/pt/products/nvidia-nemotron-nano-9b/reviews)
  NVIDIA Nemotron-Nano-9B-v2 é um modelo de linguagem compacto e de código aberto, projetado para oferecer capacidades de raciocínio de alto desempenho e agentes. Utilizando uma arquitetura híbrida Mamba-Transformer, processa eficientemente sequências de longo contexto de até 128.000 tokens, tornando-o adequado para tarefas complexas que exigem compreensão extensiva de contexto. O modelo suporta múltiplos idiomas, incluindo inglês, alemão, francês, italiano, espanhol e japonês, e se destaca em tarefas de seguimento de instruções e geração de código. Características e Funcionalidades Principais: - Arquitetura Híbrida: Combina camadas de espaço de estado Mamba-2 com camadas de atenção Transformer, melhorando o rendimento e a precisão em tarefas de raciocínio. - Processamento Eficiente de Longo Contexto: Capaz de lidar com sequências de até 128.000 tokens em uma única GPU NVIDIA A10G, facilitando o raciocínio escalável de longo contexto. - Suporte Multilíngue: Treinado em dados que abrangem 15 idiomas e 43 linguagens de programação, permitindo ampla fluência multilíngue e em codificação. - Recurso de Raciocínio Alternável: Permite que os usuários controlem o processo de raciocínio do modelo usando comandos simples como &quot;/think&quot; ou &quot;/no\_think&quot;, equilibrando precisão e velocidade de resposta. - Controle de Orçamento de Raciocínio: Introduz um mecanismo de &quot;orçamento de pensamento&quot;, permitindo que os desenvolvedores definam o número de tokens usados durante o processo de raciocínio, otimizando para latência ou custo. Valor Principal e Soluções para Usuários: NVIDIA Nemotron-Nano-9B-v2 atende à necessidade de modelos de linguagem eficientes e de alto desempenho, capazes de lidar com contexto extenso e tarefas de raciocínio complexas. Sua arquitetura híbrida e recursos avançados fornecem aos desenvolvedores e pesquisadores uma ferramenta versátil para construir aplicações de IA que requerem compreensão profunda e processamento rápido de dados textuais em larga escala. A natureza de código aberto do modelo e a licença permissiva facilitam a adoção e personalização em larga escala, capacitando os usuários a implantar soluções de IA sofisticadas em diversos domínios.



**Who Is the Company Behind NVIDIA Nemotron Nano 9b?**

- **Vendedor:** [NVIDIA](https://www.g2.com/pt/sellers/nvidia)
- **Ano de Fundação:** 1993
- **Localização da Sede:** Santa Clara, CA
- **Twitter:** @nvidia (2,502,870 seguidores no Twitter)
- **Página do LinkedIn®:** https://www.linkedin.com/company/3608/ (46,612 funcionários no LinkedIn®)
- **Propriedade:** NVDA



### 7. [Phi 3.5 mini](https://www.g2.com/pt/products/phi-3-5-mini/reviews)
  Phi-3.5-mini é um modelo de linguagem leve e de última geração desenvolvido pela Microsoft, projetado para oferecer capacidades de raciocínio de alta qualidade dentro de uma arquitetura compacta. Baseando-se nos conjuntos de dados usados para o Phi-3, ele se concentra em dados de altíssima qualidade e densos em raciocínio, incluindo dados sintéticos e sites públicos filtrados. O modelo suporta um comprimento de contexto de 128K tokens, permitindo que ele lide efetivamente com entradas extensas. Através de processos rigorosos de aprimoramento, como ajuste fino supervisionado, otimização de política proximal e otimização de preferência direta, o Phi-3.5-mini garante adesão precisa às instruções e medidas de segurança robustas. Características e Funcionalidades Principais: - Manipulação de Contexto Estendido: Suporta até 128K tokens, facilitando tarefas que exigem o processamento de documentos ou conversas longas. - Raciocínio de Alta Qualidade: Treinado em dados densos em raciocínio para aprimorar as capacidades de resolução de problemas e análise. - Desempenho Eficiente: Oferece resultados de última geração dentro de um tamanho de modelo compacto, tornando-o adequado para ambientes com recursos limitados. - Medidas de Segurança Robustas: Incorpora técnicas avançadas de otimização para garantir saídas seguras e confiáveis. Valor Principal e Soluções para Usuários: O Phi-3.5-mini atende à necessidade de um modelo de linguagem poderoso, mas eficiente, capaz de lidar com comprimentos de contexto extensos e tarefas de raciocínio complexas. Seu tamanho compacto permite a implantação em ambientes com recursos computacionais limitados sem comprometer o desempenho. Ao focar em dados de alta qualidade e densos em raciocínio, ele fornece aos usuários saídas precisas e contextualmente relevantes, tornando-o ideal para aplicações em compreensão de linguagem natural, geração de conteúdo e IA conversacional.



**Who Is the Company Behind Phi 3.5 mini?**

- **Vendedor:** [Microsoft](https://www.g2.com/pt/sellers/microsoft)
- **Ano de Fundação:** 1975
- **Localização da Sede:** Redmond, Washington
- **Twitter:** @microsoft (13,115,342 seguidores no Twitter)
- **Página do LinkedIn®:** https://www.linkedin.com/company/microsoft/ (227,697 funcionários no LinkedIn®)
- **Propriedade:** MSFT



### 8. [Phi 3 mini 4k](https://www.g2.com/pt/products/phi-3-mini-4k/reviews)
  O Phi-3 Mini-4K-Instruct é um modelo de linguagem leve e de última geração desenvolvido pela Microsoft, com 3,8 bilhões de parâmetros. Faz parte da família de modelos Phi-3 e é projetado para suportar um comprimento de contexto de 4.000 tokens. Treinado em uma combinação de dados sintéticos e sites públicos filtrados, o modelo enfatiza conteúdo de alta qualidade e rico em raciocínio. Melhorias pós-treinamento, incluindo ajuste fino supervisionado e otimização de preferência direta, foram aplicadas para melhorar a adesão às instruções e medidas de segurança. O Phi-3 Mini-4K-Instruct demonstra desempenho robusto em benchmarks que avaliam senso comum, compreensão de linguagem, matemática, codificação, compreensão de contexto longo e raciocínio lógico, posicionando-o como um modelo líder entre aqueles com menos de 13 bilhões de parâmetros. Características e Funcionalidades Principais: - Arquitetura Compacta: Com 3,8 bilhões de parâmetros, o modelo oferece um equilíbrio entre desempenho e eficiência de recursos. - Comprimento de Contexto Estendido: Suporta o processamento de até 4.000 tokens, permitindo o manuseio eficaz de entradas mais longas. - Dados de Treinamento de Alta Qualidade: Utiliza um conjunto de dados curado que combina dados sintéticos e conteúdo web filtrado, focando em informações de alta qualidade e intensivas em raciocínio. - Acompanhamento de Instruções Aprimorado: Processos pós-treinamento, incluindo ajuste fino supervisionado e otimização de preferência direta, melhoram a capacidade do modelo de seguir instruções com precisão. - Desempenho Versátil: Sobressai em várias tarefas, como raciocínio de senso comum, compreensão de linguagem, resolução de problemas matemáticos, codificação e raciocínio lógico. Valor Primário e Soluções para Usuários: O Phi-3 Mini-4K-Instruct atende à necessidade de um modelo de linguagem poderoso, mas eficiente, adequado para ambientes com memória e recursos computacionais limitados. Seu tamanho compacto e capacidades de contexto estendido o tornam ideal para aplicações que requerem baixa latência e fortes habilidades de raciocínio. Ao oferecer desempenho de última geração em um pacote eficiente em termos de recursos, ele permite que desenvolvedores e pesquisadores integrem recursos avançados de compreensão e geração de linguagem em suas aplicações sem a sobrecarga associada a modelos maiores.



**Who Is the Company Behind Phi 3 mini 4k?**

- **Vendedor:** [Microsoft](https://www.g2.com/pt/sellers/microsoft)
- **Ano de Fundação:** 1975
- **Localização da Sede:** Redmond, Washington
- **Twitter:** @microsoft (13,115,342 seguidores no Twitter)
- **Página do LinkedIn®:** https://www.linkedin.com/company/microsoft/ (227,697 funcionários no LinkedIn®)
- **Propriedade:** MSFT



### 9. [Phi 3 small 128k](https://www.g2.com/pt/products/phi-3-small-128k/reviews)
  O Phi-3-Small-128K-Instruct é um modelo de linguagem de última geração com 7 bilhões de parâmetros desenvolvido pela Microsoft. Faz parte da família Phi-3 e é projetado para lidar com um comprimento de contexto de até 128.000 tokens. Treinado em uma combinação de dados sintéticos e conteúdo da web publicamente disponível e filtrado, o modelo enfatiza propriedades de alta qualidade e densas em raciocínio. Processos pós-treinamento, incluindo ajuste fino supervisionado e otimização de preferência direta, foram aplicados para melhorar suas capacidades de seguir instruções e medidas de segurança. O Phi-3-Small-128K-Instruct demonstra desempenho robusto em benchmarks que testam senso comum, compreensão de linguagem, matemática, codificação, compreensão de contexto longo e raciocínio lógico, posicionando-o de forma competitiva entre modelos de tamanhos semelhantes e maiores. Características e Funcionalidades Principais: - Manipulação Extensiva de Contexto: Suporta um comprimento de contexto de até 128.000 tokens, permitindo o processamento de entradas longas e complexas. - Dados de Treinamento de Alta Qualidade: Utiliza uma mistura de dados sintéticos e dados da web curados, focando em conteúdo rico em raciocínio e qualidade. - Técnicas Avançadas de Pós-Treinamento: Incorpora ajuste fino supervisionado e otimização de preferência direta para melhorar a adesão a instruções e segurança. - Desempenho Versátil: Sobressai em tarefas que requerem senso comum, compreensão de linguagem, raciocínio matemático, proficiência em codificação e análise lógica. Valor Primário e Soluções para Usuários: O modelo Phi-3-Small-128K-Instruct oferece a desenvolvedores e pesquisadores uma ferramenta poderosa para construir sistemas de IA que requerem raciocínio profundo e a capacidade de processar informações contextuais extensas. Sua arquitetura eficiente o torna adequado para ambientes com restrições de memória e computação, enquanto seu forte desempenho em várias tarefas de raciocínio atende às necessidades de aplicações que exigem altos níveis de compreensão e análise. Ao fornecer uma base robusta para recursos de IA generativa, o modelo acelera o desenvolvimento de aplicações avançadas de linguagem e multimodais.



**Who Is the Company Behind Phi 3 small 128k?**

- **Vendedor:** [Microsoft](https://www.g2.com/pt/sellers/microsoft)
- **Ano de Fundação:** 1975
- **Localização da Sede:** Redmond, Washington
- **Twitter:** @microsoft (13,115,342 seguidores no Twitter)
- **Página do LinkedIn®:** https://www.linkedin.com/company/microsoft/ (227,697 funcionários no LinkedIn®)
- **Propriedade:** MSFT



### 10. [Phi 3 Small 8k](https://www.g2.com/pt/products/phi-3-small-8k/reviews)
  Variante menor do modelo Phi-3 com contexto estendido de 8k tokens e capacidades de instrução.



**Who Is the Company Behind Phi 3 Small 8k?**

- **Vendedor:** [Microsoft](https://www.g2.com/pt/sellers/microsoft)
- **Ano de Fundação:** 1975
- **Localização da Sede:** Redmond, Washington
- **Twitter:** @microsoft (13,115,342 seguidores no Twitter)
- **Página do LinkedIn®:** https://www.linkedin.com/company/microsoft/ (227,697 funcionários no LinkedIn®)
- **Propriedade:** MSFT



### 11. [Phi 4 mini](https://www.g2.com/pt/products/phi-4-mini/reviews)
  O Phi-3 Mini-4K-Instruct é um modelo de linguagem leve e de última geração desenvolvido pela Microsoft, com 3,8 bilhões de parâmetros. Faz parte da família de modelos Phi-3 e é projetado para suportar um comprimento de contexto de 4.000 tokens. Treinado em uma combinação de dados sintéticos e sites públicos filtrados, o modelo enfatiza conteúdo de alta qualidade e rico em raciocínio. Melhorias pós-treinamento, incluindo ajuste fino supervisionado e otimização de preferência direta, foram aplicadas para melhorar a adesão às instruções e medidas de segurança. O Phi-3 Mini-4K-Instruct demonstra desempenho robusto em benchmarks que avaliam senso comum, compreensão de linguagem, matemática, codificação, compreensão de contexto longo e raciocínio lógico, posicionando-o como um modelo líder entre aqueles com menos de 13 bilhões de parâmetros. Características e Funcionalidades Principais: - Arquitetura Compacta: Com 3,8 bilhões de parâmetros, o modelo oferece um equilíbrio entre desempenho e eficiência de recursos. - Comprimento de Contexto Estendido: Suporta o processamento de até 4.000 tokens, permitindo o manuseio eficaz de entradas mais longas. - Dados de Treinamento de Alta Qualidade: Utiliza um conjunto de dados curado que combina dados sintéticos e conteúdo web filtrado, focando em informações de alta qualidade e intensivas em raciocínio. - Acompanhamento de Instruções Aprimorado: Processos pós-treinamento, incluindo ajuste fino supervisionado e otimização de preferência direta, melhoram a capacidade do modelo de seguir instruções com precisão. - Desempenho Versátil: Sobressai em várias tarefas, como raciocínio de senso comum, compreensão de linguagem, resolução de problemas matemáticos, codificação e raciocínio lógico. Valor Primário e Soluções para Usuários: O Phi-3 Mini-4K-Instruct atende à necessidade de um modelo de linguagem poderoso, mas eficiente, adequado para ambientes com memória e recursos computacionais limitados. Seu tamanho compacto e capacidades de contexto estendido o tornam ideal para aplicações que requerem baixa latência e fortes habilidades de raciocínio. Ao oferecer desempenho de última geração em um pacote eficiente em termos de recursos, ele permite que desenvolvedores e pesquisadores integrem recursos avançados de compreensão e geração de linguagem em suas aplicações sem a sobrecarga associada a modelos maiores.



**Who Is the Company Behind Phi 4 mini?**

- **Vendedor:** [Microsoft](https://www.g2.com/pt/sellers/microsoft)
- **Ano de Fundação:** 1975
- **Localização da Sede:** Redmond, Washington
- **Twitter:** @microsoft (13,115,342 seguidores no Twitter)
- **Página do LinkedIn®:** https://www.linkedin.com/company/microsoft/ (227,697 funcionários no LinkedIn®)
- **Propriedade:** MSFT



### 12. [Phi 4 mini reasoning](https://www.g2.com/pt/products/phi-4-mini-reasoning/reviews)
  Phi-4-mini-reasoning é um modelo de linguagem compacto baseado em transformadores desenvolvido pela Microsoft, especificamente otimizado para tarefas de raciocínio matemático. Com 3,8 bilhões de parâmetros e suporte para um comprimento de contexto de 128K tokens, ele oferece capacidades de resolução de problemas de alta qualidade, passo a passo, em ambientes onde os recursos computacionais ou a latência são limitados. Ajustado usando dados matemáticos sintéticos gerados por um modelo mais avançado, o Phi-4-mini-reasoning se destaca em cenários de resolução de problemas multi-etapas e intensivos em lógica, tornando-o adequado para aplicações como geração de provas formais, computação simbólica e problemas avançados de palavras. Características e Funcionalidades Principais: - Otimizado para Raciocínio Matemático: Projetado para lidar com problemas matemáticos complexos e de múltiplas etapas com lógica estruturada e pensamento analítico. - Arquitetura Compacta: Equilibra a capacidade de raciocínio com eficiência, permitindo a implantação em ambientes com recursos limitados. - Comprimento de Contexto Estendido: Suporta até 128K tokens, permitindo uma retenção abrangente de contexto ao longo das etapas de resolução de problemas. - Ajustado com Dados Sintéticos: Treinado em um conjunto diversificado de mais de um milhão de problemas matemáticos, aprimorando seu desempenho em raciocínio. Valor Primário e Resolução de Problemas: Phi-4-mini-reasoning atende à necessidade de raciocínio matemático eficiente e de alta qualidade em cenários onde os recursos computacionais são limitados. Seu tamanho compacto e desempenho otimizado o tornam ideal para aplicações educacionais, sistemas de tutoria embutidos e implantações em dispositivos de borda ou móveis. Ao manter o contexto em várias etapas e aplicar lógica estruturada, ele fornece soluções precisas e confiáveis para problemas matemáticos complexos, melhorando assim as experiências de aprendizado e apoiando tarefas analíticas avançadas.



**Who Is the Company Behind Phi 4 mini reasoning?**

- **Vendedor:** [Microsoft](https://www.g2.com/pt/sellers/microsoft)
- **Ano de Fundação:** 1975
- **Localização da Sede:** Redmond, Washington
- **Twitter:** @microsoft (13,115,342 seguidores no Twitter)
- **Página do LinkedIn®:** https://www.linkedin.com/company/microsoft/ (227,697 funcionários no LinkedIn®)
- **Propriedade:** MSFT



### 13. [StableLM 2 1.6b](https://www.g2.com/pt/products/stablelm-2-1-6b/reviews)
  StableLM 2 1.6B é um modelo de linguagem de decodificador único com 1,6 bilhões de parâmetros desenvolvido pela Stability AI. Ele é pré-treinado em 2 trilhões de tokens de conjuntos de dados diversos, multilíngues e de código, ao longo de duas épocas. O modelo é projetado para gerar texto coerente e contextualmente relevante, tornando-o adequado para uma ampla gama de tarefas de processamento de linguagem natural. Características e Funcionalidades Principais: - Arquitetura de Decodificador Transformer: StableLM 2 1.6B utiliza uma arquitetura de transformer apenas de decodificador, semelhante ao LLaMA, com modificações específicas para melhorar o desempenho. - Embeddings de Posição Rotativa: Incorpora Embeddings de Posição Rotativa aplicados aos primeiros 25% das dimensões de embedding de cabeçalho, melhorando o rendimento. - Normalização de Camada: Emprega LayerNorm com termos de viés aprendidos, diferindo do RMSNorm, para estabilizar o treinamento e melhorar a convergência. - Configuração de Viés: Remove todos os termos de viés das redes feed-forward e camadas de auto-atenção multi-cabeça, exceto pelos vieses das projeções de consulta, chave e valor, otimizando a eficiência computacional. - Tokenização Avançada: Utiliza o tokenizador Arcade100k, um tokenizador BPE estendido do tiktoken.cl100k\_base da OpenAI, com divisão de dígitos em tokens individuais para melhorar a compreensão numérica. Valor Primário e Soluções para Usuários: StableLM 2 1.6B oferece uma solução robusta para desenvolvedores e pesquisadores que buscam um modelo de linguagem poderoso capaz de gerar texto de alta qualidade em várias aplicações. Seu extenso pré-treinamento em conjuntos de dados diversos garante versatilidade no manuseio de múltiplas linguagens e códigos, tornando-o ideal para tarefas como criação de conteúdo, geração de código e tradução multilíngue. A arquitetura e as metodologias de treinamento do modelo proporcionam um equilíbrio entre desempenho e eficiência computacional, atendendo à necessidade de modelos de linguagem escaláveis e eficazes na comunidade de IA.



**Who Is the Company Behind StableLM 2 1.6b?**

- **Vendedor:** [Stability AI](https://www.g2.com/pt/sellers/stability-ai)
- **Localização da Sede:** London
- **Twitter:** @StabilityAI (255,324 seguidores no Twitter)
- **Página do LinkedIn®:** https://www.linkedin.com/company/stability-ai (188 funcionários no LinkedIn®)



### 14. [step-1 8k](https://www.g2.com/pt/products/step-1-8k/reviews)
  Step-1 8k é um modelo de linguagem em larga escala desenvolvido pela StepFun, projetado para entender e gerar texto em linguagem natural em vários domínios. Com um comprimento de contexto de 8.000 tokens, ele pode processar entradas e saídas substanciais, tornando-o adequado para tarefas como criação de conteúdo, comunicação multilíngue, resposta a perguntas e raciocínio lógico. Além disso, o Step-1 8k exibe fortes capacidades matemáticas e de codificação, apoiando aplicações em computação científica e desenvolvimento de software. Características e Funcionalidades Principais: - Processamento Extensivo de Contexto: Lida com até 8.000 tokens, permitindo uma compreensão e geração abrangente de textos longos. - Tarefas de Linguagem Versáteis: Sobressai na geração de conteúdo, tradução, sumarização e IA conversacional. - Proficiência Matemática e de Codificação: Capaz de realizar cálculos complexos e gerar trechos de código, auxiliando em tarefas científicas e de programação. - Alta Relação Custo-Desempenho: Oferece um equilíbrio entre desempenho e custo, tornando-o acessível para várias aplicações. Valor Primário e Soluções para Usuários: O Step-1 8k aumenta a produtividade automatizando e simplificando tarefas relacionadas à linguagem. Sua capacidade de processar um contexto extenso garante saídas coerentes e contextualmente relevantes, beneficiando profissionais na criação de conteúdo, desenvolvimento de software e análise de dados. Ao integrar o Step-1 8k, os usuários podem alcançar resultados eficientes e precisos em seus respectivos campos.



**Who Is the Company Behind step-1 8k?**

- **Vendedor:** [StepFun](https://www.g2.com/pt/sellers/stepfun)
- **Localização da Sede:** N/A
- **Página do LinkedIn®:** https://www.linkedin.com/company/stepfun-ai/ (35 funcionários no LinkedIn®)



### 15. [Sutra](https://www.g2.com/pt/products/two-ai-sutra/reviews)
  Modelo Multilingual Mixture-of-Experts que suporta mais de 50 idiomas com melhor desempenho em MMLU e redução de alucinações usando conhecimento online.



**Who Is the Company Behind Sutra?**

- **Vendedor:** [Two AI](https://www.g2.com/pt/sellers/two-ai)
- **Ano de Fundação:** 2021
- **Localização da Sede:** Silicon Valley, US
- **Página do LinkedIn®:** https://www.linkedin.com/company/2wo (49 funcionários no LinkedIn®)




    ## What Is Modelos de Linguagem Pequenos (SLMs)?
  [Software de IA Generativa](https://www.g2.com/pt/categories/generative-ai)

  
    
