G2 ist stolz darauf, unvoreingenommene Bewertungen über userzufriedenheit in unseren Bewertungen und Berichten zu zeigen. Wir erlauben keine bezahlten Platzierungen in unseren Bewertungen, Rankings oder Berichten. Erfahren Sie mehr über unsere Bewertungsmethoden.
Mistral-7B-v0.1 ist ein kleines, aber leistungsstarkes Modell, das an viele Anwendungsfälle anpassbar ist. Mistral 7B ist in allen Benchmarks besser als Llama 2 13B, hat natürliche Codierungsfähigkeit
BLOOM-560m ist ein transformerbasiertes Sprachmodell, das von BigScience entwickelt wurde, um die Forschung an großen Sprachmodellen (LLMs) zu erleichtern. Es dient als vortrainiertes Basismodell, das
Granite-3.1-3B-A800M-Base ist ein hochmodernes Sprachmodell, das von IBM entwickelt wurde, um komplexe Aufgaben der natürlichen Sprachverarbeitung mit hoher Effizienz zu bewältigen. Dieses Modell verw
Microsoft Azures Phi 3 Modell definiert die Fähigkeiten von groß angelegten Sprachmodellen in der Cloud neu.
BLOOM-1b1 ist ein mehrsprachiges Sprachmodell, das vom BigScience Workshop entwickelt wurde und darauf ausgelegt ist, menschenähnlichen Text in 48 Sprachen zu generieren. Als transformerbasiertes Mode
BLOOM-1b7 ist ein transformerbasiertes Sprachmodell, das vom BigScience Workshop entwickelt wurde und darauf ausgelegt ist, menschenähnlichen Text in 48 Sprachen zu generieren. Als verkleinerte Varian
BLOOM-3B ist ein mehrsprachiges Sprachmodell mit 3 Milliarden Parametern, das von der BigScience-Initiative entwickelt wurde. Als verkleinerte Version des größeren BLOOM-Modells behält es die gleiche
BLOOM-7B1 ist ein mehrsprachiges Sprachmodell, das von BigScience entwickelt wurde und darauf abzielt, menschenähnlichen Text in 48 Sprachen zu generieren. Mit über 7 Milliarden Parametern nutzt es ei
Granite-3.1-1B-A400M-Base ist ein Sprachmodell, das von IBMs Granite-Team entwickelt wurde und darauf ausgelegt ist, umfangreiche Kontextlängen von bis zu 128K Tokens zu verarbeiten. Dieses Modell bas
Granite-3.2-2B-Instruct ist ein Sprachmodell mit 2 Milliarden Parametern, das von IBMs Granite-Team entwickelt wurde, um eine Vielzahl von Aufgaben zur Befolgung von Anweisungen zu bewältigen. Aufgeba
Granite-3.2-8B-Instruct ist ein KI-Modell mit 8 Milliarden Parametern, das für fortgeschrittene Denkaufgaben optimiert wurde. Aufgebaut auf seinem Vorgänger, Granite-3.1-8B-Instruct, wurde es mit eine
Granite-3.3-2B-Instruct ist ein Sprachmodell mit 2 Milliarden Parametern, das von IBMs Granite-Team entwickelt wurde, um die Fähigkeiten in Bezug auf logisches Denken und Befolgen von Anweisungen zu v
Granite-3.3-8B-Instruct ist ein fortschrittliches Sprachmodell, das von IBMs Granite-Team entwickelt wurde und über 8 Milliarden Parameter sowie eine Kontextlänge von 128K verfügt. Es wurde für verbes
Granite-4.0-Tiny-Preview ist ein 7-Milliarden-Parameter-Modell mit feinkörniger hybrider Mischung von Experten (MoE) zur Befolgung von Anweisungen, das von IBMs Granite-Team entwickelt wurde. Feinabge
Granite-4.0-Tiny-Base-Preview ist ein 7-Milliarden-Parameter-Hybrid-Mixture-of-Experts (MoE) Sprachmodell, das von IBMs Granite-Team entwickelt wurde. Es verfügt über ein Kontextfenster von 128.000 To