  # Mejor Modelos de Lenguaje Pequeños (SLMs) - Página 2

  *By [Jeffrey Lin](https://research.g2.com/insights/author/jeffrey-lin)*

   Los modelos de lenguaje pequeños (SLMs) son modelos de lenguaje de IA optimizados para la eficiencia, especialización y despliegue en entornos con recursos limitados, diseñados para entender, interpretar y generar salidas similares a las humanas mientras mantienen la eficiencia computacional, tiempos de inferencia rápidos y flexibilidad de despliegue en dispositivos de borde, plataformas móviles y sistemas fuera de línea.

### Capacidades principales del software SLM

Para calificar para la inclusión en la categoría de Modelos de Lenguaje Pequeños (SLM), un producto debe:

- Ofrecer un modelo de lenguaje compacto optimizado para la eficiencia de recursos y tareas especializadas, capaz de comprender y generar salidas similares a las humanas
- Contener 10 mil millones de parámetros o menos, distinguiéndose de los LLMs que superan este umbral
- Proporcionar flexibilidad de despliegue para entornos con recursos limitados como dispositivos de borde, plataformas móviles o hardware de computación limitado
- Estar diseñado para la optimización específica de tareas mediante ajuste fino, especialización de dominio o entrenamiento dirigido para aplicaciones comerciales específicas
- Mantener la eficiencia computacional con tiempos de inferencia rápidos, requisitos de memoria reducidos y menor consumo de energía en comparación con los LLMs

### Casos de uso comunes para el software SLM

Los desarrolladores y organizaciones utilizan SLMs donde los LLMs serían demasiado intensivos en recursos o costosos de desplegar. Los casos de uso comunes incluyen:

- Desplegar capacidades de lenguaje especializadas en dispositivos de borde o plataformas móviles sin dependencia de la nube
- Ejecutar tareas de IA específicas de dominio como clasificación de documentos, reconocimiento de entidades nombradas o resumen con recursos de computación mínimos
- Ajustar modelos compactos para aplicaciones comerciales específicas que requieren un despliegue de IA rentable y rápido

### Cómo los SLMs difieren de otras herramientas

Los SLMs difieren de [los modelos de lenguaje grandes (LLMs)](https://www.g2.com/categories/large-language-models-llms) principalmente en escala, con tamaños de parámetros que típicamente van desde unos pocos millones hasta 10 mil millones, en comparación con los LLMs que van desde 10 mil millones hasta billones de parámetros. Mientras que los LLMs se centran en tareas de lenguaje generales y completas a través de múltiples dominios, los SLMs están diseñados para aplicaciones específicas que priorizan la eficiencia de recursos y la especialización. Los SLMs también difieren de [los chatbots de IA](https://www.g2.com/categories/ai-chatbots), que proporcionan la plataforma orientada al usuario en lugar de los modelos fundamentales en sí mismos.

### Perspectivas de G2 sobre el software SLM

Basado en las tendencias de categoría en G2, la flexibilidad de despliegue y el rendimiento específico de tareas destacan como capacidades destacadas. Los menores costos de inferencia y el tiempo más rápido de despliegue para casos de uso especializados se destacan como beneficios primarios de la adopción de SLM.




  ## How Many Modelos de Lenguaje Pequeños (SLMs) Products Does G2 Track?
**Total Products under this Category:** 40

  
## How Does G2 Rank Modelos de Lenguaje Pequeños (SLMs) Products?

**Por qué puedes confiar en las clasificaciones de software de G2:**

- 30 Analistas y Expertos en Datos
- 0+ Reseñas auténticas
- 40+ Productos
- Clasificaciones Imparciales

Las clasificaciones de software de G2 se basan en reseñas de usuarios verificadas, moderación rigurosa y una metodología de investigación consistente mantenida por un equipo de analistas y expertos en datos. Cada producto se mide utilizando los mismos criterios transparentes, sin colocación pagada ni influencia del proveedor. Aunque las reseñas reflejan experiencias reales de los usuarios, que pueden ser subjetivas, ofrecen información valiosa sobre cómo funciona el software en manos de profesionales. Juntos, estos aportes impulsan el G2 Score, una forma estandarizada de comparar herramientas dentro de cada categoría.

  
## Which Modelos de Lenguaje Pequeños (SLMs) Is Best for Your Use Case?


  
  ## What Are the Top-Rated Modelos de Lenguaje Pequeños (SLMs) Products in 2026?
### 1. [Ministral 3B 24.10](https://www.g2.com/es/products/ministral-3b-24-10/reviews)
  Codestral es un modelo de IA generativa de peso abierto desarrollado por Mistral AI, diseñado específicamente para tareas de generación de código. Ayuda a los desarrolladores a escribir e interactuar con el código a través de un punto de acceso API unificado de instrucciones y completado. Proficiente en más de 80 lenguajes de programación, incluidos Python, Java, C, C++, JavaScript y Bash, Codestral también admite lenguajes menos comunes como Swift y Fortran, lo que lo hace versátil en diversos entornos de codificación. Características y Funcionalidades Clave: - Soporte Multilenguaje: Entrenado en un conjunto de datos diverso que abarca más de 80 lenguajes de programación, asegurando adaptabilidad a diferentes proyectos de desarrollo. - Completado y Generación de Código: Capaz de completar funciones de codificación, escribir pruebas y completar código parcial utilizando un mecanismo de relleno en el medio, agilizando así el proceso de codificación. - Integración con Entornos de Desarrollo: Accesible a través de un punto de acceso dedicado (`codestral.mistral.ai`), facilitando la integración sin problemas en varios Entornos de Desarrollo Integrados (IDEs). Valor Principal y Soluciones para el Usuario: Codestral mejora significativamente la productividad de los desarrolladores al automatizar tareas rutinarias de codificación, reduciendo el tiempo y esfuerzo requeridos para la finalización de código y generación de pruebas. Su extenso soporte de lenguajes y comprensión avanzada de código minimizan errores y fallos, permitiendo a los desarrolladores centrarse en la resolución de problemas complejos e innovación. Al integrarse sin problemas en los flujos de trabajo existentes, Codestral democratiza la codificación, haciendo que el desarrollo asistido por IA avanzada sea accesible para un rango más amplio de usuarios.



**Who Is the Company Behind Ministral 3B 24.10?**

- **Vendedor:** [Mistral](https://www.g2.com/es/sellers/mistral)
- **Año de fundación:** 2023
- **Ubicación de la sede:** Paris, Île-de-France, France
- **Twitter:** @MistralAI (182,308 seguidores en Twitter)
- **Página de LinkedIn®:** https://www.linkedin.com/company/mistralai/ (787 empleados en LinkedIn®)



### 2. [Ministral 8B 24.10](https://www.g2.com/es/products/ministral-8b-24-10/reviews)
  Codestral es un modelo de IA generativa de peso abierto desarrollado por Mistral AI, diseñado específicamente para tareas de generación de código. Ayuda a los desarrolladores a escribir e interactuar con el código a través de un punto de acceso API unificado de instrucciones y completado. Proficiente en más de 80 lenguajes de programación, incluidos Python, Java, C, C++, JavaScript y Bash, Codestral también admite lenguajes menos comunes como Swift y Fortran, lo que lo hace versátil en diversos entornos de codificación. Características y Funcionalidades Clave: - Soporte Multilenguaje: Entrenado en un conjunto de datos diverso que abarca más de 80 lenguajes de programación, asegurando adaptabilidad a diferentes proyectos de desarrollo. - Completado y Generación de Código: Capaz de completar funciones de codificación, escribir pruebas y completar código parcial utilizando un mecanismo de relleno en el medio, agilizando así el proceso de codificación. - Integración con Entornos de Desarrollo: Accesible a través de un punto de acceso dedicado (`codestral.mistral.ai`), facilitando la integración sin problemas en varios Entornos de Desarrollo Integrados (IDEs). Valor Principal y Soluciones para el Usuario: Codestral mejora significativamente la productividad de los desarrolladores al automatizar tareas rutinarias de codificación, reduciendo el tiempo y esfuerzo requeridos para la finalización de código y generación de pruebas. Su extenso soporte de lenguajes y comprensión avanzada de código minimizan errores y fallos, permitiendo a los desarrolladores centrarse en la resolución de problemas complejos e innovación. Al integrarse sin problemas en los flujos de trabajo existentes, Codestral democratiza la codificación, haciendo que el desarrollo asistido por IA avanzada sea accesible para un rango más amplio de usuarios.



**Who Is the Company Behind Ministral 8B 24.10?**

- **Vendedor:** [Mistral](https://www.g2.com/es/sellers/mistral)
- **Año de fundación:** 2023
- **Ubicación de la sede:** Paris, Île-de-France, France
- **Twitter:** @MistralAI (182,308 seguidores en Twitter)
- **Página de LinkedIn®:** https://www.linkedin.com/company/mistralai/ (787 empleados en LinkedIn®)



### 3. [Mistral Saba](https://www.g2.com/es/products/mistral-saba/reviews)
  Codestral es un modelo de IA generativa de peso abierto desarrollado por Mistral AI, diseñado específicamente para tareas de generación de código. Ayuda a los desarrolladores a escribir e interactuar con el código a través de un punto de acceso API unificado de instrucciones y completado. Proficiente en más de 80 lenguajes de programación, incluidos Python, Java, C, C++, JavaScript y Bash, Codestral también admite lenguajes menos comunes como Swift y Fortran, lo que lo hace versátil en diversos entornos de codificación. Características y Funcionalidades Clave: - Soporte Multilenguaje: Entrenado en un conjunto de datos diverso que abarca más de 80 lenguajes de programación, asegurando adaptabilidad a diferentes proyectos de desarrollo. - Completado y Generación de Código: Capaz de completar funciones de codificación, escribir pruebas y completar código parcial utilizando un mecanismo de relleno en el medio, agilizando así el proceso de codificación. - Integración con Entornos de Desarrollo: Accesible a través de un punto de acceso dedicado (`codestral.mistral.ai`), facilitando la integración sin problemas en varios Entornos de Desarrollo Integrados (IDEs). Valor Principal y Soluciones para el Usuario: Codestral mejora significativamente la productividad de los desarrolladores al automatizar tareas rutinarias de codificación, reduciendo el tiempo y esfuerzo requeridos para la finalización de código y generación de pruebas. Su extenso soporte de lenguajes y comprensión avanzada de código minimizan errores y fallos, permitiendo a los desarrolladores centrarse en la resolución de problemas complejos e innovación. Al integrarse sin problemas en los flujos de trabajo existentes, Codestral democratiza la codificación, haciendo que el desarrollo asistido por IA avanzada sea accesible para un rango más amplio de usuarios.



**Who Is the Company Behind Mistral Saba?**

- **Vendedor:** [Mistral](https://www.g2.com/es/sellers/mistral)
- **Año de fundación:** 2023
- **Ubicación de la sede:** Paris, Île-de-France, France
- **Twitter:** @MistralAI (182,308 seguidores en Twitter)
- **Página de LinkedIn®:** https://www.linkedin.com/company/mistralai/ (787 empleados en LinkedIn®)



### 4. [Mistral Small 3.2](https://www.g2.com/es/products/mistral-small-3-2/reviews)
  Codestral es un modelo de IA generativa de peso abierto desarrollado por Mistral AI, diseñado específicamente para tareas de generación de código. Ayuda a los desarrolladores a escribir e interactuar con el código a través de un punto de acceso API unificado de instrucciones y completado. Proficiente en más de 80 lenguajes de programación, incluidos Python, Java, C, C++, JavaScript y Bash, Codestral también admite lenguajes menos comunes como Swift y Fortran, lo que lo hace versátil en diversos entornos de codificación. Características y Funcionalidades Clave: - Soporte Multilenguaje: Entrenado en un conjunto de datos diverso que abarca más de 80 lenguajes de programación, asegurando adaptabilidad a diferentes proyectos de desarrollo. - Completado y Generación de Código: Capaz de completar funciones de codificación, escribir pruebas y completar código parcial utilizando un mecanismo de relleno en el medio, agilizando así el proceso de codificación. - Integración con Entornos de Desarrollo: Accesible a través de un punto de acceso dedicado (`codestral.mistral.ai`), facilitando la integración sin problemas en varios Entornos de Desarrollo Integrados (IDEs). Valor Principal y Soluciones para el Usuario: Codestral mejora significativamente la productividad de los desarrolladores al automatizar tareas rutinarias de codificación, reduciendo el tiempo y esfuerzo requeridos para la finalización de código y generación de pruebas. Su extenso soporte de lenguajes y comprensión avanzada del código minimizan errores y fallos, permitiendo a los desarrolladores centrarse en la resolución de problemas complejos e innovación. Al integrarse sin problemas en los flujos de trabajo existentes, Codestral democratiza la codificación, haciendo que el desarrollo asistido por IA avanzada sea accesible para un rango más amplio de usuarios.



**Who Is the Company Behind Mistral Small 3.2?**

- **Vendedor:** [Mistral](https://www.g2.com/es/sellers/mistral)
- **Año de fundación:** 2023
- **Ubicación de la sede:** Paris, Île-de-France, France
- **Twitter:** @MistralAI (182,308 seguidores en Twitter)
- **Página de LinkedIn®:** https://www.linkedin.com/company/mistralai/ (787 empleados en LinkedIn®)



### 5. [MPT-7B](https://www.g2.com/es/products/mpt-7b/reviews)
  MPT-7B es un transformador de estilo decodificador preentrenado desde cero en 1T tokens de texto en inglés y código. Este modelo fue entrenado por MosaicML. MPT-7B es parte de la familia de modelos MosaicPretrainedTransformer (MPT), que utilizan una arquitectura de transformador modificada y optimizada para un entrenamiento e inferencia eficientes. Estos cambios arquitectónicos incluyen implementaciones de capas optimizadas para el rendimiento y la eliminación de los límites de longitud de contexto al reemplazar los embeddings posicionales con Atención con Sesgos Lineales (ALiBi). Gracias a estas modificaciones, los modelos MPT pueden ser entrenados con alta eficiencia de rendimiento y convergencia estable. Los modelos MPT también pueden ser servidos eficientemente con tanto las tuberías estándar de HuggingFace como el FasterTransformer de NVIDIA.



**Who Is the Company Behind MPT-7B?**

- **Vendedor:** [MosaicML](https://www.g2.com/es/sellers/mosaicml)
- **Año de fundación:** 2021
- **Ubicación de la sede:** San Francisco, US
- **Página de LinkedIn®:** https://www.linkedin.com/company/databricks (13,148 empleados en LinkedIn®)



### 6. [NVIDIA Nemotron Nano 9b](https://www.g2.com/es/products/nvidia-nemotron-nano-9b/reviews)
  NVIDIA Nemotron-Nano-9B-v2 es un modelo de lenguaje compacto y de código abierto diseñado para ofrecer capacidades de razonamiento de alto rendimiento y agenticidad. Utilizando una arquitectura híbrida Mamba-Transformer, procesa eficientemente secuencias de contexto largo de hasta 128,000 tokens, lo que lo hace adecuado para tareas complejas que requieren una comprensión extensa del contexto. El modelo admite múltiples idiomas, incluidos inglés, alemán, francés, italiano, español y japonés, y sobresale en tareas de seguimiento de instrucciones y generación de código. Características y Funcionalidad Clave: - Arquitectura Híbrida: Combina capas de espacio de estado Mamba-2 con capas de atención Transformer, mejorando el rendimiento y la precisión en tareas de razonamiento. - Procesamiento Eficiente de Contexto Largo: Capaz de manejar secuencias de hasta 128,000 tokens en una sola GPU NVIDIA A10G, facilitando el razonamiento escalable de contexto largo. - Soporte Multilingüe: Entrenado con datos que abarcan 15 idiomas y 43 lenguajes de programación, lo que permite una amplia fluidez multilingüe y de codificación. - Función de Razonamiento Conmutable: Permite a los usuarios controlar el proceso de razonamiento del modelo utilizando comandos simples como &quot;/think&quot; o &quot;/no\_think,&quot; equilibrando la precisión y la velocidad de respuesta. - Control de Presupuesto de Razonamiento: Introduce un mecanismo de &quot;presupuesto de pensamiento,&quot; permitiendo a los desarrolladores establecer el número de tokens utilizados durante el proceso de razonamiento, optimizando para latencia o costo. Valor Principal y Soluciones para el Usuario: NVIDIA Nemotron-Nano-9B-v2 aborda la necesidad de modelos de lenguaje eficientes y de alto rendimiento capaces de manejar contextos extensos y tareas de razonamiento complejas. Su arquitectura híbrida y características avanzadas proporcionan a los desarrolladores e investigadores una herramienta versátil para construir aplicaciones de IA que requieren una comprensión profunda y un procesamiento rápido de datos textuales a gran escala. La naturaleza de código abierto del modelo y su licencia permisiva facilitan la adopción y personalización generalizadas, empoderando a los usuarios para desplegar soluciones de IA sofisticadas en diversos dominios.



**Who Is the Company Behind NVIDIA Nemotron Nano 9b?**

- **Vendedor:** [NVIDIA](https://www.g2.com/es/sellers/nvidia)
- **Año de fundación:** 1993
- **Ubicación de la sede:** Santa Clara, CA
- **Twitter:** @nvidia (2,502,870 seguidores en Twitter)
- **Página de LinkedIn®:** https://www.linkedin.com/company/3608/ (46,612 empleados en LinkedIn®)
- **Propiedad:** NVDA



### 7. [Phi 3.5 mini](https://www.g2.com/es/products/phi-3-5-mini/reviews)
  Phi-3.5-mini es un modelo de lenguaje ligero y de última generación desarrollado por Microsoft, diseñado para ofrecer capacidades de razonamiento de alta calidad dentro de una arquitectura compacta. Basándose en los conjuntos de datos utilizados para Phi-3, se centra en datos de muy alta calidad y densos en razonamiento, incluyendo datos sintéticos y sitios web públicos filtrados. El modelo admite una longitud de contexto de 128K tokens, lo que le permite manejar entradas extensas de manera efectiva. A través de rigurosos procesos de mejora como el ajuste fino supervisado, la optimización de políticas proximales y la optimización de preferencias directas, Phi-3.5-mini asegura una adherencia precisa a las instrucciones y medidas de seguridad robustas. Características y Funcionalidad Clave: - Manejo de Contexto Extendido: Soporta hasta 128K tokens, facilitando tareas que requieren el procesamiento de documentos o conversaciones largas. - Razonamiento de Alta Calidad: Entrenado en datos densos en razonamiento para mejorar las capacidades de resolución de problemas y análisis. - Rendimiento Eficiente: Ofrece resultados de última generación dentro de un tamaño de modelo compacto, haciéndolo adecuado para entornos con recursos limitados. - Medidas de Seguridad Robustas: Incorpora técnicas avanzadas de optimización para asegurar salidas seguras y confiables. Valor Principal y Soluciones para el Usuario: Phi-3.5-mini aborda la necesidad de un modelo de lenguaje potente pero eficiente, capaz de manejar longitudes de contexto extensas y tareas de razonamiento complejas. Su tamaño compacto permite su implementación en entornos con recursos computacionales limitados sin comprometer el rendimiento. Al centrarse en datos de alta calidad y densos en razonamiento, proporciona a los usuarios salidas precisas y contextualmente relevantes, haciéndolo ideal para aplicaciones en comprensión del lenguaje natural, generación de contenido e inteligencia artificial conversacional.



**Who Is the Company Behind Phi 3.5 mini?**

- **Vendedor:** [Microsoft](https://www.g2.com/es/sellers/microsoft)
- **Año de fundación:** 1975
- **Ubicación de la sede:** Redmond, Washington
- **Twitter:** @microsoft (13,115,342 seguidores en Twitter)
- **Página de LinkedIn®:** https://www.linkedin.com/company/microsoft/ (227,697 empleados en LinkedIn®)
- **Propiedad:** MSFT



### 8. [Phi 3 mini 4k](https://www.g2.com/es/products/phi-3-mini-4k/reviews)
  El Phi-3 Mini-4K-Instruct es un modelo de lenguaje ligero y de última generación desarrollado por Microsoft, que cuenta con 3.8 mil millones de parámetros. Es parte de la familia de modelos Phi-3 y está diseñado para soportar una longitud de contexto de 4,000 tokens. Entrenado con una combinación de datos sintéticos y sitios web públicos filtrados, el modelo enfatiza contenido de alta calidad y denso en razonamiento. Se han aplicado mejoras posteriores al entrenamiento, incluyendo ajuste fino supervisado y optimización de preferencias directas, para mejorar la adherencia a las instrucciones y las medidas de seguridad. El Phi-3 Mini-4K-Instruct demuestra un rendimiento robusto en evaluaciones que miden el sentido común, la comprensión del lenguaje, las matemáticas, la codificación, la comprensión de contextos largos y el razonamiento lógico, posicionándolo como un modelo líder entre aquellos con menos de 13 mil millones de parámetros. Características y Funcionalidad Clave: - Arquitectura Compacta: Con 3.8 mil millones de parámetros, el modelo ofrece un equilibrio entre rendimiento y eficiencia de recursos. - Longitud de Contexto Extendida: Soporta el procesamiento de hasta 4,000 tokens, permitiendo manejar entradas más largas de manera efectiva. - Datos de Entrenamiento de Alta Calidad: Utiliza un conjunto de datos curado que combina datos sintéticos y contenido web filtrado, enfocándose en información de alta calidad e intensiva en razonamiento. - Mejora en el Seguimiento de Instrucciones: Los procesos posteriores al entrenamiento, incluyendo el ajuste fino supervisado y la optimización de preferencias directas, mejoran la capacidad del modelo para seguir instrucciones con precisión. - Rendimiento Versátil: Sobresale en diversas tareas como el razonamiento de sentido común, la comprensión del lenguaje, la resolución de problemas matemáticos, la codificación y el razonamiento lógico. Valor Principal y Soluciones para el Usuario: El Phi-3 Mini-4K-Instruct aborda la necesidad de un modelo de lenguaje potente pero eficiente, adecuado para entornos con recursos de memoria y computación limitados. Su tamaño compacto y capacidades de contexto extendido lo hacen ideal para aplicaciones que requieren baja latencia y fuertes habilidades de razonamiento. Al ofrecer un rendimiento de última generación en un paquete eficiente en recursos, permite a los desarrolladores e investigadores integrar características avanzadas de comprensión y generación de lenguaje en sus aplicaciones sin la sobrecarga asociada con modelos más grandes.



**Who Is the Company Behind Phi 3 mini 4k?**

- **Vendedor:** [Microsoft](https://www.g2.com/es/sellers/microsoft)
- **Año de fundación:** 1975
- **Ubicación de la sede:** Redmond, Washington
- **Twitter:** @microsoft (13,115,342 seguidores en Twitter)
- **Página de LinkedIn®:** https://www.linkedin.com/company/microsoft/ (227,697 empleados en LinkedIn®)
- **Propiedad:** MSFT



### 9. [Phi 3 small 128k](https://www.g2.com/es/products/phi-3-small-128k/reviews)
  El Phi-3-Small-128K-Instruct es un modelo de lenguaje de última generación con 7 mil millones de parámetros desarrollado por Microsoft. Es parte de la familia Phi-3 y está diseñado para manejar una longitud de contexto de hasta 128,000 tokens. Entrenado con una combinación de datos sintéticos y contenido web público filtrado, el modelo enfatiza propiedades de alta calidad y densas en razonamiento. Se han aplicado procesos de post-entrenamiento, incluyendo ajuste fino supervisado y optimización de preferencias directas, para mejorar sus capacidades de seguimiento de instrucciones y medidas de seguridad. El Phi-3-Small-128K-Instruct demuestra un rendimiento robusto en pruebas de referencia que evalúan el sentido común, la comprensión del lenguaje, las matemáticas, la codificación, la comprensión de contextos largos y el razonamiento lógico, posicionándose competitivamente entre modelos de tamaños similares y mayores. Características y Funcionalidad Clave: - Manejo Extensivo de Contexto: Soporta una longitud de contexto de hasta 128,000 tokens, permitiendo el procesamiento de entradas largas y complejas. - Datos de Entrenamiento de Alta Calidad: Utiliza una mezcla de datos sintéticos y web curados, enfocándose en contenido rico en razonamiento y calidad. - Técnicas Avanzadas de Post-Entrenamiento: Incorpora ajuste fino supervisado y optimización de preferencias directas para mejorar la adherencia a instrucciones y la seguridad. - Rendimiento Versátil: Sobresale en tareas que requieren sentido común, comprensión del lenguaje, razonamiento matemático, competencia en codificación y análisis lógico. Valor Principal y Soluciones para el Usuario: El modelo Phi-3-Small-128K-Instruct ofrece a desarrolladores e investigadores una herramienta poderosa para construir sistemas de IA que requieren razonamiento profundo y la capacidad de procesar información contextual extensa. Su arquitectura eficiente lo hace adecuado para entornos con limitaciones de memoria y computación, mientras que su fuerte rendimiento en diversas tareas de razonamiento aborda las necesidades de aplicaciones que demandan altos niveles de comprensión y análisis. Al proporcionar una base robusta para características de IA generativa, el modelo acelera el desarrollo de aplicaciones avanzadas de lenguaje y multimodales.



**Who Is the Company Behind Phi 3 small 128k?**

- **Vendedor:** [Microsoft](https://www.g2.com/es/sellers/microsoft)
- **Año de fundación:** 1975
- **Ubicación de la sede:** Redmond, Washington
- **Twitter:** @microsoft (13,115,342 seguidores en Twitter)
- **Página de LinkedIn®:** https://www.linkedin.com/company/microsoft/ (227,697 empleados en LinkedIn®)
- **Propiedad:** MSFT



### 10. [Phi 3 Small 8k](https://www.g2.com/es/products/phi-3-small-8k/reviews)
  Variante más pequeña del modelo Phi-3 con un contexto extendido de 8k tokens y capacidades de instrucción.



**Who Is the Company Behind Phi 3 Small 8k?**

- **Vendedor:** [Microsoft](https://www.g2.com/es/sellers/microsoft)
- **Año de fundación:** 1975
- **Ubicación de la sede:** Redmond, Washington
- **Twitter:** @microsoft (13,115,342 seguidores en Twitter)
- **Página de LinkedIn®:** https://www.linkedin.com/company/microsoft/ (227,697 empleados en LinkedIn®)
- **Propiedad:** MSFT



### 11. [Phi 4 mini](https://www.g2.com/es/products/phi-4-mini/reviews)
  El Phi-3 Mini-4K-Instruct es un modelo de lenguaje ligero y de última generación desarrollado por Microsoft, que cuenta con 3.8 mil millones de parámetros. Es parte de la familia de modelos Phi-3 y está diseñado para soportar una longitud de contexto de 4,000 tokens. Entrenado con una combinación de datos sintéticos y sitios web públicos filtrados, el modelo enfatiza contenido de alta calidad y denso en razonamiento. Se han aplicado mejoras posteriores al entrenamiento, incluyendo ajuste fino supervisado y optimización de preferencias directas, para mejorar la adherencia a las instrucciones y las medidas de seguridad. El Phi-3 Mini-4K-Instruct demuestra un rendimiento robusto en evaluaciones que miden el sentido común, la comprensión del lenguaje, las matemáticas, la codificación, la comprensión de contextos largos y el razonamiento lógico, posicionándolo como un modelo líder entre aquellos con menos de 13 mil millones de parámetros. Características y Funcionalidad Clave: - Arquitectura Compacta: Con 3.8 mil millones de parámetros, el modelo ofrece un equilibrio entre rendimiento y eficiencia de recursos. - Longitud de Contexto Extendida: Soporta el procesamiento de hasta 4,000 tokens, permitiendo manejar entradas más largas de manera efectiva. - Datos de Entrenamiento de Alta Calidad: Utiliza un conjunto de datos curado que combina datos sintéticos y contenido web filtrado, enfocándose en información de alta calidad e intensiva en razonamiento. - Mejora en el Seguimiento de Instrucciones: Los procesos posteriores al entrenamiento, incluyendo el ajuste fino supervisado y la optimización de preferencias directas, mejoran la capacidad del modelo para seguir instrucciones con precisión. - Rendimiento Versátil: Sobresale en diversas tareas como el razonamiento de sentido común, la comprensión del lenguaje, la resolución de problemas matemáticos, la codificación y el razonamiento lógico. Valor Principal y Soluciones para el Usuario: El Phi-3 Mini-4K-Instruct aborda la necesidad de un modelo de lenguaje potente pero eficiente, adecuado para entornos con recursos de memoria y computación limitados. Su tamaño compacto y capacidades de contexto extendido lo hacen ideal para aplicaciones que requieren baja latencia y fuertes habilidades de razonamiento. Al ofrecer un rendimiento de última generación en un paquete eficiente en recursos, permite a los desarrolladores e investigadores integrar características avanzadas de comprensión y generación de lenguaje en sus aplicaciones sin la sobrecarga asociada con modelos más grandes.



**Who Is the Company Behind Phi 4 mini?**

- **Vendedor:** [Microsoft](https://www.g2.com/es/sellers/microsoft)
- **Año de fundación:** 1975
- **Ubicación de la sede:** Redmond, Washington
- **Twitter:** @microsoft (13,115,342 seguidores en Twitter)
- **Página de LinkedIn®:** https://www.linkedin.com/company/microsoft/ (227,697 empleados en LinkedIn®)
- **Propiedad:** MSFT



### 12. [Phi 4 mini reasoning](https://www.g2.com/es/products/phi-4-mini-reasoning/reviews)
  Phi-4-mini-reasoning es un modelo de lenguaje compacto basado en transformadores desarrollado por Microsoft, específicamente optimizado para tareas de razonamiento matemático. Con 3.8 mil millones de parámetros y soporte para una longitud de contexto de 128K tokens, ofrece capacidades de resolución de problemas de alta calidad, paso a paso, en entornos donde los recursos computacionales o la latencia están limitados. Ajustado utilizando datos matemáticos sintéticos generados por un modelo más avanzado, Phi-4-mini-reasoning sobresale en escenarios de resolución de problemas lógicos de múltiples pasos, lo que lo hace adecuado para aplicaciones como la generación de pruebas formales, el cálculo simbólico y problemas avanzados de palabras. Características y Funcionalidad Clave: - Optimizado para el Razonamiento Matemático: Diseñado para manejar problemas matemáticos complejos y de múltiples pasos con lógica estructurada y pensamiento analítico. - Arquitectura Compacta: Equilibra la capacidad de razonamiento con la eficiencia, permitiendo su implementación en entornos con recursos limitados. - Longitud de Contexto Extendida: Soporta hasta 128K tokens, permitiendo una retención de contexto comprensiva a lo largo de los pasos de resolución de problemas. - Ajustado con Datos Sintéticos: Entrenado en un conjunto diverso de más de un millón de problemas matemáticos, mejorando su rendimiento en razonamiento. Valor Principal y Resolución de Problemas: Phi-4-mini-reasoning aborda la necesidad de un razonamiento matemático eficiente y de alta calidad en escenarios donde los recursos computacionales son limitados. Su tamaño compacto y rendimiento optimizado lo hacen ideal para aplicaciones educativas, sistemas de tutoría integrados y despliegues en dispositivos de borde o móviles. Al mantener el contexto a través de múltiples pasos y aplicar lógica estructurada, proporciona soluciones precisas y confiables para problemas matemáticos complejos, mejorando así las experiencias de aprendizaje y apoyando tareas analíticas avanzadas.



**Who Is the Company Behind Phi 4 mini reasoning?**

- **Vendedor:** [Microsoft](https://www.g2.com/es/sellers/microsoft)
- **Año de fundación:** 1975
- **Ubicación de la sede:** Redmond, Washington
- **Twitter:** @microsoft (13,115,342 seguidores en Twitter)
- **Página de LinkedIn®:** https://www.linkedin.com/company/microsoft/ (227,697 empleados en LinkedIn®)
- **Propiedad:** MSFT



### 13. [StableLM 2 1.6b](https://www.g2.com/es/products/stablelm-2-1-6b/reviews)
  StableLM 2 1.6B es un modelo de lenguaje de 1.6 mil millones de parámetros desarrollado por Stability AI. Está preentrenado en 2 billones de tokens de diversos conjuntos de datos multilingües y de código a lo largo de dos épocas. El modelo está diseñado para generar texto coherente y contextualmente relevante, lo que lo hace adecuado para una amplia gama de tareas de procesamiento de lenguaje natural. Características y Funcionalidad Clave: - Arquitectura de Decodificador Transformer: StableLM 2 1.6B utiliza una arquitectura de transformer solo de decodificador, similar a LLaMA, con modificaciones específicas para mejorar el rendimiento. - Embeddings de Posición Rotatoria: Incorpora Embeddings de Posición Rotatoria aplicados al primer 25% de las dimensiones de embedding de cabeza, mejorando el rendimiento. - Normalización de Capas: Emplea LayerNorm con términos de sesgo aprendidos, diferenciándose de RMSNorm, para estabilizar el entrenamiento y mejorar la convergencia. - Configuración de Sesgo: Elimina todos los términos de sesgo de las redes de alimentación directa y las capas de autoatención de múltiples cabezas, excepto por los sesgos de las proyecciones de consulta, clave y valor, optimizando la eficiencia computacional. - Tokenización Avanzada: Utiliza el tokenizador Arcade100k, un tokenizador BPE extendido del tiktoken.cl100k\_base de OpenAI, con división de dígitos en tokens individuales para mejorar la comprensión numérica. Valor Principal y Soluciones para el Usuario: StableLM 2 1.6B ofrece una solución robusta para desarrolladores e investigadores que buscan un modelo de lenguaje potente capaz de generar texto de alta calidad en diversas aplicaciones. Su extenso preentrenamiento en conjuntos de datos diversos asegura versatilidad en el manejo de múltiples idiomas y código, haciéndolo ideal para tareas como creación de contenido, generación de código y traducción multilingüe. La arquitectura y las metodologías de entrenamiento del modelo proporcionan un equilibrio entre rendimiento y eficiencia computacional, abordando la necesidad de modelos de lenguaje escalables y efectivos en la comunidad de IA.



**Who Is the Company Behind StableLM 2 1.6b?**

- **Vendedor:** [Stability AI](https://www.g2.com/es/sellers/stability-ai)
- **Ubicación de la sede:** London
- **Twitter:** @StabilityAI (255,324 seguidores en Twitter)
- **Página de LinkedIn®:** https://www.linkedin.com/company/stability-ai (188 empleados en LinkedIn®)



### 14. [step-1 8k](https://www.g2.com/es/products/step-1-8k/reviews)
  Paso-1 8k es un modelo de lenguaje a gran escala desarrollado por StepFun, diseñado para entender y generar texto en lenguaje natural en varios dominios. Con una longitud de contexto de 8,000 tokens, puede procesar entradas y salidas sustanciales, lo que lo hace adecuado para tareas como la creación de contenido, la comunicación multilingüe, la respuesta a preguntas y el razonamiento lógico. Además, Paso-1 8k exhibe fuertes capacidades matemáticas y de codificación, apoyando aplicaciones en computación científica y desarrollo de software. Características y Funcionalidad Clave: - Procesamiento Extensivo de Contexto: Maneja hasta 8,000 tokens, permitiendo una comprensión y generación exhaustiva de textos largos. - Tareas de Lenguaje Versátiles: Sobresale en generación de contenido, traducción, resumen e inteligencia artificial conversacional. - Competencia Matemática y de Codificación: Capaz de realizar cálculos complejos y generar fragmentos de código, ayudando en tareas científicas y de programación. - Alta Relación Costo-Rendimiento: Ofrece un equilibrio entre rendimiento y costo, haciéndolo accesible para diversas aplicaciones. Valor Principal y Soluciones para el Usuario: Paso-1 8k mejora la productividad al automatizar y agilizar tareas relacionadas con el lenguaje. Su capacidad para procesar un contexto extenso asegura salidas coherentes y contextualmente relevantes, beneficiando a profesionales en la creación de contenido, desarrollo de software y análisis de datos. Al integrar Paso-1 8k, los usuarios pueden lograr resultados eficientes y precisos en sus respectivos campos.



**Who Is the Company Behind step-1 8k?**

- **Vendedor:** [StepFun](https://www.g2.com/es/sellers/stepfun)
- **Ubicación de la sede:** N/A
- **Página de LinkedIn®:** https://www.linkedin.com/company/stepfun-ai/ (35 empleados en LinkedIn®)



### 15. [Sutra](https://www.g2.com/es/products/two-ai-sutra/reviews)
  Modelo Multilingüe de Mezcla de Expertos que admite más de 50 idiomas con mejor rendimiento en MMLU y reducidas alucinaciones utilizando conocimiento en línea.



**Who Is the Company Behind Sutra?**

- **Vendedor:** [Two AI](https://www.g2.com/es/sellers/two-ai)
- **Año de fundación:** 2021
- **Ubicación de la sede:** Silicon Valley, US
- **Página de LinkedIn®:** https://www.linkedin.com/company/2wo (49 empleados en LinkedIn®)




    ## What Is Modelos de Lenguaje Pequeños (SLMs)?
  [Software de IA Generativa](https://www.g2.com/es/categories/generative-ai)

  
    
