BERT Base

Por Amazon Web Services (AWS)

Perfil No Reclamado

Claim BERT Base profile for Free

Your G2 page is often the first place buyers evaluate you. Take control of how your brand shows up.

WHAT YOU UNLOCK

Control your profile

Update logo, screenshots, pricing info

Engage with customers

Respond to reviews, build trust with prospects

See buyer activity

Track who’s viewing, understand engagement

Collect reviews

Create landing page and collect reviews

Sellers who actively manage their G2 profile build more trust and convert more buyers

4.1 de 5 estrellas
3 star
0%
2 star
0%
1 star
0%

¿Cómo calificarías tu experiencia con BERT Base?

Han pasado dos meses desde que este perfil recibió una nueva reseña
Deja una reseña
Compare this with other toolsSave it to your board and evaluate your options side by side.
Save to board

BERT Base Reseñas y Detalles del Producto

Imagen del Avatar del Producto

¿Has utilizado BERT Base antes?

Responde algunas preguntas para ayudar a la comunidad de BERT Base

Reseñas de BERT Base (5)

Reseñas

Reseñas de BERT Base (5)

4.1
Reseñas de 5
Buscar reseñas
Filtrar Reseñas
Borrar resultados
Las reseñas de G2 son auténticas y verificadas.
Rishika J.
RJ
Software Engineer II
Mediana Empresa (51-1000 empleados)
"BERT: Un modelo de respuesta a preguntas por PyTorch"
¿Qué es lo que más te gusta de BERT Base?

Una de las mejores partes de este transformador de PyTorch en particular es su soporte para más de 100 idiomas. BERT está integrado con las redes neuronales más eficientes, objetivos de entrenamiento y aprendizaje por transferencia. Es un modelo preentrenado con ajuste altamente preciso entrenado en diferentes conjuntos de datos disponibles como SQUAD. Responde a las preguntas de manera concisa e incluso ayuda en otros casos de uso como resaltar párrafos con puntos de entrada cruciales cuando se formula una pregunta. Reseña recopilada por y alojada en G2.com.

¿Qué es lo que no te gusta de BERT Base?

La precisión y el amplio soporte para grandes conjuntos de datos en diferentes idiomas hacen que BERT Base Multilingual Uncased PyTorch Hub Extractive Question Answering sea un modelo costoso. Debido al gran conjunto de datos, este modelo es un poco lento para entrenar, requiere actualizar muchos pesos y toma más tiempo de computación. Reseña recopilada por y alojada en G2.com.

Jagadis P.
JP
Product Specialist (Order to Cash)
Empresa (> 1000 empleados)
"Dominando tu configuración con PyTorch - Obra maestra"
¿Qué es lo que más te gusta de BERT Base?

Pytorch BERT es una de las herramientas de respuesta a preguntas extractivas que se crea sobre una ideología de incrustación de texto. Esto toma como entrada un par de cadenas de pregunta-configuración y devuelve una cadena de submódulo contextual relacionada que más o menos coincide con el contexto exacto de la respuesta real a la pregunta. La mejor parte de esta configuración es que se basa en un modelo preentrenado en un entorno multilingüe que ayuda a devolver cadenas de contexto de preguntas. Reseña recopilada por y alojada en G2.com.

¿Qué es lo que no te gusta de BERT Base?

La IA y el ML están haciendo trabajos maravillosos, pero aún no hemos alcanzado el nivel que deseamos. A veces actúa de manera extraña al devolver una respuesta o cadena que está relacionada con la pregunta de manera vocabularia pero no contextual. Esto puede dejarse de lado como una excepción porque son casos muy raros donde tus expresiones no están configuradas correctamente. Reseña recopilada por y alojada en G2.com.

Tarang N.
TN
Systems Associate - Trainee
Mediana Empresa (51-1000 empleados)
"BERT: Un caso único para el modelo base multilingüe"
¿Qué es lo que más te gusta de BERT Base?

BERT Base Multilingual Uncased PyTorch Hub es un modelo transformador ya que ayuda a la computadora a entender los datos multilingües de diferentes idiomas en una forma unicase y predecir la siguiente oración para la mejora con la ayuda de la inteligencia artificial y luego enmascarar aleatoriamente alguna parte de las palabras y ejecutarlo para completar toda la oración. Reseña recopilada por y alojada en G2.com.

¿Qué es lo que no te gusta de BERT Base?

No hay nada que no me guste de BERT Base Multilingual, pero está diseñado principalmente para tareas afinadas que utilizan toda la oración para tomar decisiones y clasificación de secuencias. Reseña recopilada por y alojada en G2.com.

Usuario verificado en Tecnología de la información y servicios
UT
Pequeña Empresa (50 o menos empleados)
"Modelo de procesamiento de lenguaje natural"
¿Qué es lo que más te gusta de BERT Base?

BERT es un modelo base multilingüe, está entrenado en 102 idiomas. La ventaja del modelo es que no distingue entre mayúsculas y minúsculas. Se puede acceder fácilmente a él utilizando la biblioteca pytorch. El modelo tiene como objetivo afinar las tareas que dependen de oraciones completas. Reseña recopilada por y alojada en G2.com.

¿Qué es lo que no te gusta de BERT Base?

El modelo parece ser bastante eficiente y efectivo. No encontré ningún inconveniente. Reseña recopilada por y alojada en G2.com.

Usuario verificado en Tecnología de la información y servicios
CT
Empresa (> 1000 empleados)
"BERT BASE - Funciona perfectamente bien"
¿Qué es lo que más te gusta de BERT Base?

Tokenizador de modelo de lenguaje. Funciona bien con todos los conjuntos de datos y en todas las industrias genéricas. Reseña recopilada por y alojada en G2.com.

¿Qué es lo que no te gusta de BERT Base?

Difícil de realizar tareas en un tiempo limitado. Consumen mucho tiempo. Reseña recopilada por y alojada en G2.com.

¿Preguntas sobre BERT Base? Pregunta a usuarios reales o explora respuestas de la comunidad

Obtén respuestas prácticas, flujos de trabajo reales y pros y contras honestos de la comunidad de G2 o comparte tus ideas.

GU
Guest User

¿Para qué se utiliza BERT Base Multilingual Uncased PyTorch Hub Extractive Question Answering?

0 votos positivos
0
Únete a la conversación
Precios

Los detalles de precios para este producto no están disponibles actualmente. Visita el sitio web del proveedor para obtener más información.