
Uma das melhores partes deste transformador PyTorch em particular é seu suporte para mais de 100 idiomas. BERT é integrado com as redes neurais mais eficientes, objetivos de treinamento e aprendizado por transferência. É um modelo pré-treinado com ajuste altamente preciso, treinado em diferentes conjuntos de dados disponíveis, como o SQUAD. Ele responde às perguntas de forma concisa e até ajuda em outros casos de uso, como destacar parágrafos com pontos de entrada cruciais quando uma pergunta é feita. Análise coletada por e hospedada no G2.com.
A precisão e o amplo suporte para grandes conjuntos de dados em diferentes idiomas tornam o BERT Base Multilingual Uncased PyTorch Hub Extractive Question Answering um modelo caro. Devido ao grande conjunto de dados, este modelo é um pouco lento para treinar, requer a atualização de muitos pesos e leva mais tempo de computação. Análise coletada por e hospedada no G2.com.


