G2 è orgogliosa di mostrare recensioni imparziali sulla soddisfazione user nelle nostre valutazioni e rapporti. Non permettiamo posizionamenti a pagamento in nessuna delle nostre valutazioni, classifiche o rapporti. Scopri di più sulle nostre metodologie di valutazione.
Mistral-7B-v0.1 è un modello piccolo ma potente, adattabile a molti casi d'uso. Mistral 7B è migliore di Llama 2 13B in tutti i benchmark, ha capacità di codifica naturali e una lunghezza di sequenza
BLOOM-560m è un modello di linguaggio basato su transformer sviluppato da BigScience, progettato per facilitare la ricerca nei modelli di linguaggio di grandi dimensioni (LLM). Funziona come un modell
Granite-3.1-3B-A800M-Base è un modello linguistico all'avanguardia sviluppato da IBM, progettato per gestire compiti complessi di elaborazione del linguaggio naturale con alta efficienza. Questo model
Il modello Phi 3 di Microsoft Azure ridefinisce le capacità dei modelli di linguaggio su larga scala nel cloud.
BLOOM-1b1 è un modello di linguaggio multilingue sviluppato dal BigScience Workshop, progettato per generare testo simile a quello umano in 48 lingue. Come modello basato su transformer, utilizza un'a
BLOOM-1b7 è un modello di linguaggio basato su transformer sviluppato dal BigScience Workshop, progettato per generare testo simile a quello umano in 48 lingue. Come variante ridotta del modello BLOOM
BLOOM-3B è un modello linguistico multilingue con 3 miliardi di parametri sviluppato dall'iniziativa BigScience. Come versione ridotta del modello BLOOM più grande, mantiene la stessa architettura e g
BLOOM-7B1 è un modello di linguaggio multilingue sviluppato da BigScience, progettato per generare testo simile a quello umano in 48 lingue. Con oltre 7 miliardi di parametri, sfrutta un'architettura
Granite-3.1-1B-A400M-Base è un modello linguistico sviluppato dal Team Granite di IBM, progettato per gestire lunghezze di contesto estese fino a 128K token. Questo modello si basa su un'architettura
Granite-3.2-2B-Instruct è un modello linguistico con 2 miliardi di parametri sviluppato dal team Granite di IBM, progettato per gestire una vasta gamma di compiti di esecuzione di istruzioni. Basato s
Granite-3.2-8B-Instruct è un modello AI con 8 miliardi di parametri, ottimizzato per compiti di ragionamento avanzato. Costruito sul suo predecessore, Granite-3.1-8B-Instruct, è stato addestrato utili
Granite-3.3-2B-Instruct è un modello linguistico con 2 miliardi di parametri sviluppato dal Team Granite di IBM, progettato per migliorare le capacità di ragionamento e di seguire istruzioni. Con una
Granite-3.3-8B-Instruct è un modello linguistico avanzato sviluppato dal team Granite di IBM, con 8 miliardi di parametri e una lunghezza di contesto di 128K. Ottimizzato per migliorare le capacità di
Granite-4.0-Tiny-Preview è un modello di istruzioni a miscela ibrida fine-grained con 7 miliardi di parametri sviluppato dal team Granite di IBM. Ottimizzato a partire dal Granite-4.0-Tiny-Base-Previe
Granite-4.0-Tiny-Base-Preview è un modello linguistico ibrido mixture-of-experts (MoE) con 7 miliardi di parametri sviluppato dal team Granite di IBM. Presenta una finestra di contesto di 128.000 toke