2026 Best Software Awards are here!See the list
BERT Base

Von Amazon Web Services (AWS)

Unbeanspruchtes Profil

Beanspruchen Sie das G2-Profil Ihres Unternehmens

Die Beanspruchung dieses Profils bestätigt, dass Sie bei BERT Base arbeiten und ermöglicht es Ihnen, zu verwalten, wie es auf G2 erscheint.

    Nach der Genehmigung können Sie:

  • Aktualisieren Sie die Details Ihres Unternehmens und Ihrer Produkte

  • Steigern Sie die Sichtbarkeit Ihrer Marke auf G2, in der Suche und in LLMs

  • Zugriff auf Einblicke zu Besuchern und Wettbewerbern

  • Auf Kundenbewertungen antworten

  • Wir werden Ihre Arbeits-E-Mail überprüfen, bevor wir Zugriff gewähren.

4.1 von 5 Sternen
3 star
0%
2 star
0%
1 star
0%

Wie würden Sie Ihre Erfahrung mit BERT Base bewerten?

Es sind zwei Monate vergangen, seit dieses Profil eine neue Bewertung erhalten hat
Eine Bewertung hinterlassen

BERT Base Bewertungen & Produktdetails

Produkt-Avatar-Bild

Haben sie BERT Base schon einmal verwendet?

Beantworten Sie einige Fragen, um der BERT Base-Community zu helfen

BERT Base-Bewertungen (5)

Bewertungen

BERT Base-Bewertungen (5)

4.1
5-Bewertungen
Bewertungen durchsuchen
Bewertungen filtern
Ergebnisse löschen
G2-Bewertungen sind authentisch und verifiziert.
Rishika J.
RJ
Software Engineer II
Unternehmen mittlerer Größe (51-1000 Mitarbeiter)
"BERT: Ein Frage-Antwort-Modell von PyTorch"
Was gefällt dir am besten BERT Base?

Einer der besten Aspekte dieses speziellen PyTorch-Transformers ist seine Unterstützung für mehr als 100 Sprachen. BERT ist mit den effizientesten neuronalen Netzwerken, Trainingszielen und Transferlernen integriert. Es ist ein vortrainiertes Modell mit hochpräziser Abstimmung, das auf verschiedenen verfügbaren Datensätzen wie SQUAD trainiert wurde. Es beantwortet die Fragen prägnant und hilft sogar bei anderen Anwendungsfällen wie dem Hervorheben von Absätzen mit entscheidenden Einstiegspunkten, wenn eine Frage gestellt wird. Bewertung gesammelt von und auf G2.com gehostet.

Was gefällt Ihnen nicht? BERT Base?

Die Genauigkeit und die umfangreiche Unterstützung für große Datensätze in verschiedenen Sprachen machen BERT Base Multilingual Uncased PyTorch Hub Extractive Question Answering zu einem teuren Modell. Aufgrund des großen Datensatzes ist dieses Modell etwas langsam beim Training, erfordert das Aktualisieren vieler Gewichte und benötigt mehr Rechenzeit. Bewertung gesammelt von und auf G2.com gehostet.

Jagadis P.
JP
Product Specialist (Order to Cash)
Unternehmen (> 1000 Mitarbeiter)
"Das Beherrschen Ihres Setups mit PyTorch - Meisterwerk"
Was gefällt dir am besten BERT Base?

Pytorch BERT ist eines der extraktiven Frage-Antwort-Tools, das auf einer Text-Embedding-Ideologie basiert. Dies nimmt als Eingabe ein Paar von Frage-Setup-Strings und gibt einen verwandten kontextuellen Submodul-String zurück, der mehr oder weniger dem genauen Kontext der tatsächlichen Antwort auf die Frage entspricht. Der beste Teil dieses Setups ist, dass es auf einem vortrainierten mehrsprachigen Setup basiert, das hilft, Frage-Kontext-Strings zurückzugeben. Bewertung gesammelt von und auf G2.com gehostet.

Was gefällt Ihnen nicht? BERT Base?

AI & ML leisten wunderbare Arbeit, aber wir haben noch nicht das Niveau erreicht, das wir wollen. Manchmal verhält es sich seltsam, indem es eine Antwort oder einen String zurückgibt, der in einer vokabularen Weise mit der Frage zusammenhängt, aber nicht in einer kontextuellen Weise. Dies kann als Ausnahme betrachtet werden, da es sehr seltene Fälle sind, in denen Ihre Äußerungen nicht richtig eingestellt sind. Bewertung gesammelt von und auf G2.com gehostet.

Tarang N.
TN
Systems Associate - Trainee
Unternehmen mittlerer Größe (51-1000 Mitarbeiter)
"BERT: Ein Unicase für Multilingual Base Model"
Was gefällt dir am besten BERT Base?

BERT Base Multilingual Uncased PyTorch Hub ist ein Transformermodell, da es dem Computer hilft, die mehrsprachigen Daten verschiedener Sprachen in eine einheitliche Form zu verstehen und den nächsten Satz für die Verbesserung mit Hilfe von künstlicher Intelligenz vorherzusagen und dann zufällig einen Teil der Wörter zu maskieren und es auszuführen, um den ganzen Satz zu vervollständigen. Bewertung gesammelt von und auf G2.com gehostet.

Was gefällt Ihnen nicht? BERT Base?

Es gibt nichts, was mir an BERT Base Multilingual nicht gefällt, aber es wird hauptsächlich für Aufgaben verwendet, die den gesamten Satz zur Entscheidungsfindung und zur Sequenzklassifikation nutzen. Bewertung gesammelt von und auf G2.com gehostet.

Verifizierter Benutzer in Informationstechnologie und Dienstleistungen
BI
Kleinunternehmen (50 oder weniger Mitarbeiter)
"Modell für die Verarbeitung natürlicher Sprache"
Was gefällt dir am besten BERT Base?

BERT ist ein mehrsprachiges Basismodell, das über 102 Sprachen trainiert wurde. Der Vorteil des Modells ist, dass es nicht case-sensitiv ist. Man kann es leicht mit der Pytorch-Bibliothek nutzen. Das Modell zielt darauf ab, Aufgaben zu optimieren, die von ganzen Sätzen abhängen. Bewertung gesammelt von und auf G2.com gehostet.

Was gefällt Ihnen nicht? BERT Base?

Das Modell scheint ziemlich effizient und effektiv zu sein. Habe keinen Nachteil gefunden. Bewertung gesammelt von und auf G2.com gehostet.

Verifizierter Benutzer in Informationstechnologie und Dienstleistungen
II
Unternehmen (> 1000 Mitarbeiter)
"BERT BASE - Funktioniert perfekt"
Was gefällt dir am besten BERT Base?

Sprachmodell-Tokenizer. Er funktioniert gut mit allen Datensätzen und in allen generischen Branchen. Bewertung gesammelt von und auf G2.com gehostet.

Was gefällt Ihnen nicht? BERT Base?

Schwierige Aufgaben in begrenzter Zeit zu erledigen. Zeitaufwendig. Bewertung gesammelt von und auf G2.com gehostet.

Preise

Preisinformationen für dieses Produkt sind derzeit nicht verfügbar. Besuchen Sie die Website des Anbieters, um mehr zu erfahren.

Produkt-Avatar-Bild
BERT Base