2026 Best Software Awards are here!See the list
BERT Base

Par Amazon Web Services (AWS)

Profil non revendiqué

Revendiquer le profil G2 de votre entreprise

Revendiquer ce profil confirme que vous travaillez chez BERT Base et vous permet de gérer son apparence sur G2.

    Une fois approuvé, vous pouvez :

  • Mettre à jour les détails de votre entreprise et de vos produits

  • Augmenter la visibilité de votre marque sur G2, la recherche et les LLMs

  • Accéder à des informations sur les visiteurs et les concurrents

  • Répondre aux avis des clients

  • Nous vérifierons votre adresse e-mail professionnelle avant d'accorder l'accès.

4.1 sur 5 étoiles
3 star
0%
2 star
0%
1 star
0%

Comment évalueriez-vous votre expérience avec BERT Base ?

Cela fait deux mois que ce profil n'a pas reçu de nouvel avis
Laisser un avis

Avis et détails du produit BERT Base

Image de l'avatar du produit

Avez-vous déjà utilisé BERT Base auparavant?

Répondez à quelques questions pour aider la communauté BERT Base

Avis BERT Base (5)

Avis

Avis BERT Base (5)

4.1
Avis 5
Rechercher des avis
Filtrer les avis
Effacer les résultats
Les avis G2 sont authentiques et vérifiés.
Rishika J.
RJ
Software Engineer II
Marché intermédiaire (51-1000 employés)
"BERT : Un modèle de réponse aux questions par PyTorch"
Qu'aimez-vous le plus à propos de BERT Base?

L'un des meilleurs aspects de ce transformateur PyTorch particulier est son support pour plus de 100 langues. BERT est intégré aux réseaux neuronaux les plus efficaces, aux objectifs d'entraînement et à l'apprentissage par transfert. C'est un modèle pré-entraîné avec un réglage très précis, entraîné sur différents ensembles de données disponibles comme SQUAD. Il répond aux questions de manière concise et aide même dans d'autres cas d'utilisation comme la mise en évidence de paragraphes avec des points d'entrée cruciaux lorsqu'une question est posée. Avis collecté par et hébergé sur G2.com.

Que n’aimez-vous pas à propos de BERT Base?

La précision et le vaste support pour de grands ensembles de données pour différentes langues font de BERT Base Multilingual Uncased PyTorch Hub Extractive Question Answering un modèle coûteux. En raison du grand ensemble de données, ce modèle est un peu lent à entraîner, nécessite la mise à jour de nombreux poids et prend plus de temps de calcul. Avis collecté par et hébergé sur G2.com.

Jagadis P.
JP
Product Specialist (Order to Cash)
Entreprise (> 1000 employés)
"Maîtriser votre configuration avec PyTorch - Chef-d'œuvre"
Qu'aimez-vous le plus à propos de BERT Base?

Pytorch BERT est l'un des outils de questions-réponses extractives qui est créé sur une idéologie d'intégration de texte. Cela prend en entrée une paire de chaînes de question-configuration et renvoie une chaîne de sous-module contextuel liée qui correspond plus ou moins au contexte exact de la véritable réponse à la question. La meilleure partie de cette configuration est qu'elle est basée sur un modèle pré-entraîné sur une configuration multilingue qui aide à renvoyer des chaînes de contexte de question. Avis collecté par et hébergé sur G2.com.

Que n’aimez-vous pas à propos de BERT Base?

L'IA et le ML font des travaux merveilleux mais nous n'avons pas encore atteint le niveau que nous souhaitons. Parfois, il agit de manière étrange en renvoyant une réponse ou une chaîne qui est liée à la question d'une manière lexicale mais pas contextuelle. Cela peut être mis de côté comme une exception car ce sont des cas très rares où vos énoncés ne sont pas correctement définis. Avis collecté par et hébergé sur G2.com.

Tarang N.
TN
Systems Associate - Trainee
Marché intermédiaire (51-1000 employés)
"BERT : Un cas unique pour le modèle de base multilingue"
Qu'aimez-vous le plus à propos de BERT Base?

BERT Base Multilingual Uncased PyTorch Hub est un modèle de transformateur car il aide l'ordinateur à comprendre les données multilingues de différentes langues en une seule forme unicase et à prédire la phrase suivante pour l'amélioration avec l'aide de l'intelligence artificielle et ensuite masquer aléatoirement une partie des mots et l'exécuter pour compléter la phrase entière. Avis collecté par et hébergé sur G2.com.

Que n’aimez-vous pas à propos de BERT Base?

Il n'y a rien que je n'aime pas à propos de BERT Base Multilingual mais il est principalement conçu pour être affiné sur des tâches qui utilisent la phrase entière pour prendre une décision et la classification de séquence. Avis collecté par et hébergé sur G2.com.

Utilisateur vérifié à Technologie de l'information et services
UT
Petite entreprise (50 employés ou moins)
"Modèle de traitement du langage naturel"
Qu'aimez-vous le plus à propos de BERT Base?

BERT est un modèle de base multilingue, il est entraîné sur 102 langues. L'avantage du modèle est qu'il est insensible à la casse. On peut facilement y accéder en utilisant la bibliothèque pytorch. Le modèle vise à affiner les tâches qui dépendent de phrases entières. Avis collecté par et hébergé sur G2.com.

Que n’aimez-vous pas à propos de BERT Base?

Le modèle semble être assez efficace et performant. Je n'ai trouvé aucun inconvénient. Avis collecté par et hébergé sur G2.com.

Utilisateur vérifié à Technologie de l'information et services
CT
Entreprise (> 1000 employés)
"BERT BASE - Fonctionne parfaitement bien"
Qu'aimez-vous le plus à propos de BERT Base?

Tokeniseur de modèle de langage. Il fonctionne bien avec tous les ensembles de données et dans toutes les industries générales. Avis collecté par et hébergé sur G2.com.

Que n’aimez-vous pas à propos de BERT Base?

Difficile d'accomplir des tâches en un temps limité. Chronophage. Avis collecté par et hébergé sur G2.com.

Tarification

Les détails de tarification pour ce produit ne sont pas actuellement disponibles. Visitez le site du fournisseur pour en savoir plus.

Image de l'avatar du produit
BERT Base