Introducing G2.ai, the future of software buying.Try now
Produkt-Avatar-Bild
Phi 3 Small 8k

Von Microsoft

Unbeanspruchtes Profil

Beanspruchen Sie das G2-Profil Ihres Unternehmens

Die Beanspruchung dieses Profils bestätigt, dass Sie bei Phi 3 Small 8k arbeiten und ermöglicht es Ihnen, zu verwalten, wie es auf G2 erscheint.

    Nach der Genehmigung können Sie:

  • Aktualisieren Sie die Details Ihres Unternehmens und Ihrer Produkte

  • Steigern Sie die Sichtbarkeit Ihrer Marke auf G2, in der Suche und in LLMs

  • Zugriff auf Einblicke zu Besuchern und Wettbewerbern

  • Auf Kundenbewertungen antworten

  • Wir werden Ihre Arbeits-E-Mail überprüfen, bevor wir Zugriff gewähren.

0 von 5 Sternen

Wie würden Sie Ihre Erfahrung mit Phi 3 Small 8k bewerten?

Dieses Produkt wurde noch nicht bewertet! Seien Sie der Erste, der seine Erfahrungen teilt.
Eine Bewertung hinterlassen
Produkt-Avatar-Bild

Haben sie Phi 3 Small 8k schon einmal verwendet?

Beantworten Sie einige Fragen, um der Phi 3 Small 8k-Community zu helfen

Phi 3 Small 8k-Bewertungen (0)

G2-Bewertungen sind authentisch und verifiziert.

Es gibt nicht genügend Bewertungen für Phi 3 Small 8k, damit G2 Kaufeinblicke geben kann. Hier sind einige Alternativen mit mehr Bewertungen:

1
StableLM Logo
StableLM
4.7
(15)
StableLM 3B 4E1T ist ein reines Decoder-Sprachmodell, das auf 1 Billion Token aus vielfältigen englischen und Code-Datensätzen für vier Epochen vortrainiert wurde. Die Modellarchitektur basiert auf einem Transformer mit partiellen Rotary Position Embeddings, SwiGLU-Aktivierung, LayerNorm usw.
2
Mistral 7B Logo
Mistral 7B
4.2
(9)
Mistral-7B-v0.1 ist ein kleines, aber leistungsstarkes Modell, das an viele Anwendungsfälle anpassbar ist. Mistral 7B ist in allen Benchmarks besser als Llama 2 13B, hat natürliche Codierungsfähigkeiten und eine Sequenzlänge von 8k. Es wird unter der Apache 2.0-Lizenz veröffentlicht.
3
bloom 560m Logo
bloom 560m
5.0
(1)
4
granite 3.1 MoE 3b Logo
granite 3.1 MoE 3b
3.5
(1)
5
Llama 3.2 1b Logo
Llama 3.2 1b
(0)
6
granite 3.3 2b Logo
granite 3.3 2b
(0)
7
MPT-7B Logo
MPT-7B
(0)
MPT-7B ist ein Decoder-Transformer, der von Grund auf mit 1T Tokens englischen Texts und Codes vortrainiert wurde. Dieses Modell wurde von MosaicML trainiert. MPT-7B ist Teil der Familie der MosaicPretrainedTransformer (MPT)-Modelle, die eine modifizierte Transformer-Architektur verwenden, die für effizientes Training und Inferenz optimiert ist. Diese architektonischen Änderungen umfassen leistungsoptimierte Schichtimplementierungen und die Beseitigung von Kontextlängenbeschränkungen durch den Ersatz von Positions-Embeddings mit Attention with Linear Biases (ALiBi). Dank dieser Modifikationen können MPT-Modelle mit hoher Durchsatzeffizienz und stabiler Konvergenz trainiert werden. MPT-Modelle können auch effizient mit sowohl den standardmäßigen HuggingFace-Pipelines als auch mit NVIDIAs FasterTransformer bereitgestellt werden.
8
Gemma 3n 2b Logo
Gemma 3n 2b
(0)
9
granite 4 tiny base Logo
granite 4 tiny base
(0)
10
Magistral Small Logo
Magistral Small
(0)
Mehr anzeigen
Discussions related to Phi 3 Small 8k

Discussions for this product are not available at this time. Be the first one to Start a discussion

Preise

Preisinformationen für dieses Produkt sind derzeit nicht verfügbar. Besuchen Sie die Website des Anbieters, um mehr zu erfahren.

Produkt-Avatar-Bild
Phi 3 Small 8k
Alternativen anzeigen