G2 ist stolz darauf, unvoreingenommene Bewertungen über userzufriedenheit in unseren Bewertungen und Berichten zu zeigen. Wir erlauben keine bezahlten Platzierungen in unseren Bewertungen, Rankings oder Berichten. Erfahren Sie mehr über unsere Bewertungsmethoden.
Granite-3.1-1B-A400M-Base ist ein Sprachmodell, das von IBMs Granite-Team entwickelt wurde und darauf ausgelegt ist, umfangreiche Kontextlängen von bis zu 128K Tokens zu verarbeiten. Dieses Modell bas
Granite-3.2-2B-Instruct ist ein Sprachmodell mit 2 Milliarden Parametern, das von IBMs Granite-Team entwickelt wurde, um eine Vielzahl von Aufgaben zur Befolgung von Anweisungen zu bewältigen. Aufgeba
Granite-3.2-8B-Instruct ist ein KI-Modell mit 8 Milliarden Parametern, das für fortgeschrittene Denkaufgaben optimiert wurde. Aufgebaut auf seinem Vorgänger, Granite-3.1-8B-Instruct, wurde es mit eine
Granite-3.3-2B-Instruct ist ein Sprachmodell mit 2 Milliarden Parametern, das von IBMs Granite-Team entwickelt wurde, um die Fähigkeiten in Bezug auf logisches Denken und Befolgen von Anweisungen zu v
Granite-3.3-8B-Instruct ist ein fortschrittliches Sprachmodell, das von IBMs Granite-Team entwickelt wurde und über 8 Milliarden Parameter sowie eine Kontextlänge von 128K verfügt. Es wurde für verbes
Granite-4.0-Tiny-Preview ist ein 7-Milliarden-Parameter-Modell mit feinkörniger hybrider Mischung von Experten (MoE) zur Befolgung von Anweisungen, das von IBMs Granite-Team entwickelt wurde. Feinabge
Granite-4.0-Tiny-Base-Preview ist ein 7-Milliarden-Parameter-Hybrid-Mixture-of-Experts (MoE) Sprachmodell, das von IBMs Granite-Team entwickelt wurde. Es verfügt über ein Kontextfenster von 128.000 To
Llama 3.2 1B Instruct ist ein mehrsprachiges großes Sprachmodell, das von Meta entwickelt wurde, um fortgeschrittenes Verständnis und Generierung natürlicher Sprache in mehreren Sprachen zu erleichter
Llama 3.2 3B Instruct ist ein mehrsprachiges großes Sprachmodell mit 3 Milliarden Parametern, das von Meta entwickelt wurde und darauf ausgelegt ist, in konversationalen KI-Anwendungen zu glänzen. Es
Codestral ist ein generatives KI-Modell mit offenem Gewicht, das von Mistral AI entwickelt wurde und speziell für Aufgaben der Code-Generierung konzipiert ist. Es unterstützt Entwickler beim Schreiben
Codestral ist ein generatives KI-Modell mit offenem Gewicht, das von Mistral AI entwickelt wurde und speziell für Aufgaben der Code-Generierung konzipiert ist. Es unterstützt Entwickler beim Schreiben
Codestral ist ein generatives KI-Modell mit offenem Gewicht, das von Mistral AI entwickelt wurde und speziell für Aufgaben der Code-Generierung konzipiert ist. Es unterstützt Entwickler beim Schreiben
Codestral ist ein generatives KI-Modell mit offenem Gewicht, das von Mistral AI entwickelt wurde und speziell für Aufgaben der Code-Generierung konzipiert ist. Es unterstützt Entwickler beim Schreiben
Codestral ist ein generatives KI-Modell mit offenem Gewicht, das von Mistral AI entwickelt wurde und speziell für Aufgaben der Code-Generierung konzipiert ist. Es unterstützt Entwickler beim Schreiben
MPT-7B ist ein Decoder-Transformer, der von Grund auf mit 1T Tokens englischen Texts und Codes vortrainiert wurde. Dieses Modell wurde von MosaicML trainiert. MPT-7B ist Teil der Familie der MosaicPre