Introducing G2.ai, the future of software buying.Try now
FaceUp
Patrocinado
FaceUp
Visitar sitio web
Imagen del Avatar del Producto
granite 3.1 MoE 1b

Por IBM

Perfil No Reclamado

Reclama el perfil de tu empresa en G2

Reclamar este perfil confirma que trabajas en granite 3.1 MoE 1b y te permite gestionar cómo aparece en G2.

    Una vez aprobado, puedes:

  • Actualizar los detalles de tu empresa y producto

  • Aumentar la visibilidad de tu marca en G2, búsqueda y LLMs

  • Acceder a información sobre visitantes y competidores

  • Responder a reseñas de clientes

  • Verificaremos tu correo electrónico de trabajo antes de otorgar acceso.

0 de 5 estrellas

¿Cómo calificarías tu experiencia con granite 3.1 MoE 1b?

FaceUp
Patrocinado
FaceUp
Visitar sitio web
¡Este producto aún no ha sido reseñado! Sé el primero en compartir tu experiencia.
Deja una reseña

granite 3.1 MoE 1b Reseñas y Detalles del Producto

Imagen del Avatar del Producto

¿Has utilizado granite 3.1 MoE 1b antes?

Responde algunas preguntas para ayudar a la comunidad de granite 3.1 MoE 1b

Reseñas de granite 3.1 MoE 1b (0)

Las reseñas de G2 son auténticas y verificadas.

No hay suficientes reseñas de granite 3.1 MoE 1b para que G2 proporcione información de compra. A continuación, se muestran algunas alternativas con más reseñas:

1
Logo de StableLM
StableLM
4.7
(15)
StableLM 3B 4E1T es un modelo de lenguaje base solo de decodificación preentrenado en 1 billón de tokens de diversos conjuntos de datos en inglés y código durante cuatro épocas. La arquitectura del modelo está basada en transformadores con Embeddings de Posición Rotatoria parciales, activación SwiGLU, LayerNorm, etc.
2
Logo de Mistral 7B
Mistral 7B
4.2
(8)
Mistral-7B-v0.1 es un modelo pequeño, pero poderoso, adaptable a muchos casos de uso. Mistral 7B es mejor que Llama 2 13B en todos los puntos de referencia, tiene habilidades de codificación natural y una longitud de secuencia de 8k. Está lanzado bajo la licencia Apache 2.0, y lo hicimos fácil de implementar en cualquier nube.
3
Logo de bloom 560m
bloom 560m
5.0
(1)
4
Logo de MPT-7B
MPT-7B
(0)
MPT-7B es un transformador de estilo decodificador preentrenado desde cero en 1T tokens de texto en inglés y código. Este modelo fue entrenado por MosaicML. MPT-7B es parte de la familia de modelos MosaicPretrainedTransformer (MPT), que utilizan una arquitectura de transformador modificada y optimizada para un entrenamiento e inferencia eficientes. Estos cambios arquitectónicos incluyen implementaciones de capas optimizadas para el rendimiento y la eliminación de los límites de longitud de contexto al reemplazar los embeddings posicionales con Atención con Sesgos Lineales (ALiBi). Gracias a estas modificaciones, los modelos MPT pueden ser entrenados con alta eficiencia de rendimiento y convergencia estable. Los modelos MPT también pueden ser servidos eficientemente con tanto las tuberías estándar de HuggingFace como el FasterTransformer de NVIDIA.
5
Logo de Phi 3 Mini 128k
Phi 3 Mini 128k
(0)
El modelo Phi 3 de Microsoft Azure está redefiniendo las capacidades de los modelos de lenguaje a gran escala en la nube.
6
Logo de Gemma 3 4B
Gemma 3 4B
(0)
7
Logo de Phi 3.5 mini
Phi 3.5 mini
(0)
8
Logo de step-1 8k
step-1 8k
(0)
9
Logo de Gemma 3 1B
Gemma 3 1B
(0)
10
Logo de Phi 3 Small 8k
Phi 3 Small 8k
(0)
Variante más pequeña del modelo Phi-3 con un contexto extendido de 8k tokens y capacidades de instrucción.
Mostrar más
Precios

Los detalles de precios para este producto no están disponibles actualmente. Visita el sitio web del proveedor para obtener más información.