2026 Best Software Awards are here!See the list
BERT Base

Di Amazon Web Services (AWS)

Profilo Non Rivendicato

Rivendica il profilo G2 della tua azienda

Rivendicare questo profilo conferma che lavori presso BERT Base e ti consente di gestire come appare su G2.

    Una volta approvato, puoi:

  • Aggiornare i dettagli della tua azienda e dei prodotti

  • Aumentare la visibilità del tuo marchio su G2, ricerca e LLM

  • Accedere a informazioni su visitatori e concorrenti

  • Rispondere alle recensioni dei clienti

  • Verificheremo la tua email di lavoro prima di concedere l'accesso.

4.1 su 5 stelle
3 star
0%
2 star
0%
1 star
0%

Come valuteresti la tua esperienza con BERT Base?

Sono passati due mesi dall'ultima recensione ricevuta da questo profilo
Lascia una Recensione

Recensioni e Dettagli del Prodotto BERT Base

Immagine avatar del prodotto

Hai mai usato BERT Base prima?

Rispondi a qualche domanda per aiutare la comunità di BERT Base

Recensioni BERT Base (5)

Recensioni

Recensioni BERT Base (5)

4.1
Recensioni 5
Cerca recensioni
Filtra Recensioni
Cancella Risultati
Le recensioni di G2 sono autentiche e verificate.
Rishika J.
RJ
Software Engineer II
Mid-Market (51-1000 dip.)
"BERT: Un modello di risposta alle domande di PyTorch"
Cosa ti piace di più di BERT Base?

Una delle migliori caratteristiche di questo particolare trasformatore PyTorch è il suo supporto per più di 100 lingue. BERT è integrato con le reti neurali più efficienti, obiettivi di addestramento e apprendimento per trasferimento. È un modello pre-addestrato con una messa a punto altamente accurata, addestrato su diversi set di dati disponibili come SQUAD. Risponde alle domande in modo conciso e aiuta anche in altri casi d'uso, come evidenziare paragrafi con punti di ingresso cruciali quando viene posta una domanda. Recensione raccolta e ospitata su G2.com.

Cosa non ti piace di BERT Base?

L'accuratezza e l'ampio supporto per grandi set di dati in diverse lingue rendono BERT Base Multilingual Uncased PyTorch Hub Extractive Question Answering un modello costoso. A causa del grande set di dati, questo modello è un po' lento da addestrare, richiede l'aggiornamento di molti pesi e richiede più tempo di calcolo. Recensione raccolta e ospitata su G2.com.

Jagadis P.
JP
Product Specialist (Order to Cash)
Enterprise (> 1000 dip.)
"Padroneggiare la tua configurazione con PyTorch - Capolavoro"
Cosa ti piace di più di BERT Base?

Pytorch BERT è uno degli strumenti di risposta a domande estrattive più efficaci, creato su un'ideologia di embedding del testo. Questo prende in input una coppia di stringhe domanda-contesto e restituisce una stringa di sotto-modulo contestuale correlata che corrisponde più o meno esattamente al contesto della risposta reale alla domanda. La parte migliore di questo setup è che si basa su un modello pre-addestrato su un setup multilingue che aiuta a restituire stringhe domanda-contesto. Recensione raccolta e ospitata su G2.com.

Cosa non ti piace di BERT Base?

L'IA e il ML stanno facendo lavori meravigliosi, ma ancora non abbiamo raggiunto il livello che desideriamo. A volte si comporta in modo strano restituendo una risposta o una stringa che è correlata alla domanda in termini di vocabolario ma non in modo contestuale. Questo può essere messo da parte come un'eccezione perché sono casi molto rari in cui le tue espressioni non sono impostate correttamente. Recensione raccolta e ospitata su G2.com.

Tarang N.
TN
Systems Associate - Trainee
Mid-Market (51-1000 dip.)
"BERT: Un caso unico per il modello base multilingue"
Cosa ti piace di più di BERT Base?

BERT Base Multilingual Uncased PyTorch Hub è un modello transformer poiché aiuta il computer a comprendere i dati multilingue di diverse lingue in una forma unicase e a prevedere la frase successiva per il miglioramento con l'aiuto dell'intelligenza artificiale e poi mascherando casualmente alcune parti delle parole e eseguendolo per completare l'intera frase. Recensione raccolta e ospitata su G2.com.

Cosa non ti piace di BERT Base?

Non c'è nulla che non mi piaccia di BERT Base Multilingual, ma è principalmente utilizzato per il fine tuning su compiti che usano l'intera frase per prendere decisioni e classificare sequenze. Recensione raccolta e ospitata su G2.com.

Utente verificato in Tecnologia dell'informazione e servizi
UT
Piccola impresa (50 o meno dip.)
"Modello di elaborazione del linguaggio naturale"
Cosa ti piace di più di BERT Base?

BERT è un modello base multilingue, è addestrato su 102 lingue. Il vantaggio del modello è che è non sensibile alle maiuscole. Si può facilmente accedervi utilizzando la libreria pytorch. Il modello mira a perfezionare i compiti che dipendono da intere frasi. Recensione raccolta e ospitata su G2.com.

Cosa non ti piace di BERT Base?

Il modello sembra essere piuttosto efficiente ed efficace. Non ho trovato alcun difetto. Recensione raccolta e ospitata su G2.com.

Utente verificato in Tecnologia dell'informazione e servizi
CT
Enterprise (> 1000 dip.)
"BERT BASE - Funziona perfettamente bene"
Cosa ti piace di più di BERT Base?

Tokenizer del Modello Linguistico. Funziona bene con tutti i set di dati e in tutti i settori generici. Recensione raccolta e ospitata su G2.com.

Cosa non ti piace di BERT Base?

Difficile portare a termine i compiti in un tempo limitato. Richiede tempo. Recensione raccolta e ospitata su G2.com.

Prezzi

I dettagli sui prezzi per questo prodotto non sono attualmente disponibili. Visita il sito web del fornitore per saperne di più.

Immagine avatar del prodotto
BERT Base