2026 Best Software Awards are here!See the list
BERT Base

Por Amazon Web Services (AWS)

Perfil Não Reivindicado

Reivindique o perfil da sua empresa na G2

Reivindicar este perfil confirma que você trabalha na BERT Base e permite que você gerencie como ele aparece na G2.

    Uma vez aprovado, você pode:

  • Atualizar os detalhes da sua empresa e produto

  • Aumentar a visibilidade da sua marca na G2, pesquisa e LLMs

  • Acessar insights sobre visitantes e concorrentes

  • Responder a avaliações de clientes

  • Verificaremos seu e-mail de trabalho antes de conceder acesso.

4.1 de 5 estrelas
3 star
0%
2 star
0%
1 star
0%

Como você classificaria sua experiência com BERT Base?

Já se passaram dois meses desde que este perfil recebeu uma nova avaliação
Deixe uma Avaliação

Avaliações e Detalhes do Produto BERT Base

Imagem do Avatar do Produto

Já usou BERT Base antes?

Responda a algumas perguntas para ajudar a comunidade BERT Base

Avaliações BERT Base (5)

Avaliações

Avaliações BERT Base (5)

4.1
avaliações 5
Pesquisar avaliações
Filtrar Avaliações
Limpar Resultados
As avaliações da G2 são autênticas e verificadas.
Rishika J.
RJ
Software Engineer II
Médio Porte (51-1000 emp.)
"BERT: Um modelo de resposta a perguntas por PyTorch"
O que você mais gosta BERT Base?

Uma das melhores partes deste transformador PyTorch em particular é seu suporte para mais de 100 idiomas. BERT é integrado com as redes neurais mais eficientes, objetivos de treinamento e aprendizado por transferência. É um modelo pré-treinado com ajuste altamente preciso, treinado em diferentes conjuntos de dados disponíveis, como o SQUAD. Ele responde às perguntas de forma concisa e até ajuda em outros casos de uso, como destacar parágrafos com pontos de entrada cruciais quando uma pergunta é feita. Análise coletada por e hospedada no G2.com.

O que você não gosta BERT Base?

A precisão e o amplo suporte para grandes conjuntos de dados em diferentes idiomas tornam o BERT Base Multilingual Uncased PyTorch Hub Extractive Question Answering um modelo caro. Devido ao grande conjunto de dados, este modelo é um pouco lento para treinar, requer a atualização de muitos pesos e leva mais tempo de computação. Análise coletada por e hospedada no G2.com.

Jagadis P.
JP
Product Specialist (Order to Cash)
Empresa (> 1000 emp.)
"Dominando sua configuração com PyTorch - Obra-prima"
O que você mais gosta BERT Base?

Pytorch BERT é uma das ferramentas de resposta a perguntas extrativas que é criada com base em uma ideologia de incorporação de texto. Isso recebe como entrada um par de strings de configuração de pergunta e retorna uma string de submódulo contextual relacionada que mais ou menos corresponde ao contexto exato da resposta real à pergunta. A melhor parte dessa configuração é que ela é baseada em um modelo pré-treinado em um ambiente multilíngue, o que ajuda a retornar strings de contexto de pergunta. Análise coletada por e hospedada no G2.com.

O que você não gosta BERT Base?

AI e ML estão fazendo trabalhos maravilhosos, mas ainda não alcançamos o nível que desejamos. Às vezes, age de forma estranha ao retornar uma resposta ou string que está relacionada à pergunta de uma maneira vocabular, mas não de uma maneira contextual. Isso pode ser deixado de lado como uma exceção porque são instâncias muito raras onde suas expressões não estão configuradas corretamente. Análise coletada por e hospedada no G2.com.

Tarang N.
TN
Systems Associate - Trainee
Médio Porte (51-1000 emp.)
"BERT: Um caso único para o Modelo Base Multilíngue"
O que você mais gosta BERT Base?

BERT Base Multilingual Uncased PyTorch Hub é um modelo transformer, pois ajuda o computador a entender os dados multilíngues de diferentes idiomas em uma única forma sem distinção de maiúsculas e minúsculas e prever a próxima sentença para a melhoria com a ajuda da inteligência artificial e, em seguida, mascarar aleatoriamente parte das palavras e executá-lo para completar a frase inteira. Análise coletada por e hospedada no G2.com.

O que você não gosta BERT Base?

Não há nada que eu não goste no BERT Base Multilingual, mas ele é principalmente trabalhado para ajuste fino em tarefas que usam a frase inteira para tomar decisões e classificação de sequência. Análise coletada por e hospedada no G2.com.

Usuário Verificado em Tecnologia da Informação e Serviços
UT
Pequena Empresa (50 ou menos emp.)
"Modelo de processamento de linguagem natural"
O que você mais gosta BERT Base?

BERT é um modelo base multilíngue, treinado em 102 idiomas. A vantagem do modelo é que ele é insensível a maiúsculas e minúsculas. Pode-se acessá-lo facilmente usando a biblioteca pytorch. O modelo tem como objetivo ajustar finamente as tarefas que dependem de frases inteiras. Análise coletada por e hospedada no G2.com.

O que você não gosta BERT Base?

O modelo parece ser bastante eficiente e eficaz. Não encontrei nenhuma desvantagem. Análise coletada por e hospedada no G2.com.

Usuário Verificado em Tecnologia da Informação e Serviços
CT
Empresa (> 1000 emp.)
"BERT BASE - Funciona perfeitamente bem"
O que você mais gosta BERT Base?

Tokenizador de Modelo de Linguagem. Funciona bem com todos os conjuntos de dados e em todos os setores genéricos. Análise coletada por e hospedada no G2.com.

O que você não gosta BERT Base?

Difícil realizar tarefas em um tempo limitado. Consome muito tempo. Análise coletada por e hospedada no G2.com.

Preços

Detalhes de preços para este produto não estão disponíveis no momento. Visite o site do fornecedor para saber mais.

Imagem do Avatar do Produto
BERT Base