2026 Best Software Awards are here!See the list
BERT Base

Por Amazon Web Services (AWS)

Perfil No Reclamado

Reclama el perfil de tu empresa en G2

Reclamar este perfil confirma que trabajas en BERT Base y te permite gestionar cómo aparece en G2.

    Una vez aprobado, puedes:

  • Actualizar los detalles de tu empresa y producto

  • Aumentar la visibilidad de tu marca en G2, búsqueda y LLMs

  • Acceder a información sobre visitantes y competidores

  • Responder a reseñas de clientes

  • Verificaremos tu correo electrónico de trabajo antes de otorgar acceso.

4.1 de 5 estrellas
3 star
0%
2 star
0%
1 star
0%

¿Cómo calificarías tu experiencia con BERT Base?

Han pasado dos meses desde que este perfil recibió una nueva reseña
Deja una reseña

BERT Base Reseñas y Detalles del Producto

Imagen del Avatar del Producto

¿Has utilizado BERT Base antes?

Responde algunas preguntas para ayudar a la comunidad de BERT Base

Reseñas de BERT Base (5)

Reseñas

Reseñas de BERT Base (5)

4.1
Reseñas de 5
Buscar reseñas
Filtrar Reseñas
Borrar resultados
Las reseñas de G2 son auténticas y verificadas.
Rishika J.
RJ
Software Engineer II
Mediana Empresa (51-1000 empleados)
"BERT: Un modelo de respuesta a preguntas por PyTorch"
¿Qué es lo que más te gusta de BERT Base?

Una de las mejores partes de este transformador de PyTorch en particular es su soporte para más de 100 idiomas. BERT está integrado con las redes neuronales más eficientes, objetivos de entrenamiento y aprendizaje por transferencia. Es un modelo preentrenado con ajuste altamente preciso entrenado en diferentes conjuntos de datos disponibles como SQUAD. Responde a las preguntas de manera concisa e incluso ayuda en otros casos de uso como resaltar párrafos con puntos de entrada cruciales cuando se formula una pregunta. Reseña recopilada por y alojada en G2.com.

¿Qué es lo que no te gusta de BERT Base?

La precisión y el amplio soporte para grandes conjuntos de datos en diferentes idiomas hacen que BERT Base Multilingual Uncased PyTorch Hub Extractive Question Answering sea un modelo costoso. Debido al gran conjunto de datos, este modelo es un poco lento para entrenar, requiere actualizar muchos pesos y toma más tiempo de computación. Reseña recopilada por y alojada en G2.com.

Jagadis P.
JP
Product Specialist (Order to Cash)
Empresa (> 1000 empleados)
"Dominando tu configuración con PyTorch - Obra maestra"
¿Qué es lo que más te gusta de BERT Base?

Pytorch BERT es una de las herramientas de respuesta a preguntas extractivas que se crea sobre una ideología de incrustación de texto. Esto toma como entrada un par de cadenas de pregunta-configuración y devuelve una cadena de submódulo contextual relacionada que más o menos coincide con el contexto exacto de la respuesta real a la pregunta. La mejor parte de esta configuración es que se basa en un modelo preentrenado en un entorno multilingüe que ayuda a devolver cadenas de contexto de preguntas. Reseña recopilada por y alojada en G2.com.

¿Qué es lo que no te gusta de BERT Base?

La IA y el ML están haciendo trabajos maravillosos, pero aún no hemos alcanzado el nivel que deseamos. A veces actúa de manera extraña al devolver una respuesta o cadena que está relacionada con la pregunta de manera vocabularia pero no contextual. Esto puede dejarse de lado como una excepción porque son casos muy raros donde tus expresiones no están configuradas correctamente. Reseña recopilada por y alojada en G2.com.

Tarang N.
TN
Systems Associate - Trainee
Mediana Empresa (51-1000 empleados)
"BERT: Un caso único para el modelo base multilingüe"
¿Qué es lo que más te gusta de BERT Base?

BERT Base Multilingual Uncased PyTorch Hub es un modelo transformador ya que ayuda a la computadora a entender los datos multilingües de diferentes idiomas en una forma unicase y predecir la siguiente oración para la mejora con la ayuda de la inteligencia artificial y luego enmascarar aleatoriamente alguna parte de las palabras y ejecutarlo para completar toda la oración. Reseña recopilada por y alojada en G2.com.

¿Qué es lo que no te gusta de BERT Base?

No hay nada que no me guste de BERT Base Multilingual, pero está diseñado principalmente para tareas afinadas que utilizan toda la oración para tomar decisiones y clasificación de secuencias. Reseña recopilada por y alojada en G2.com.

Usuario verificado en Tecnología de la información y servicios
UT
Pequeña Empresa (50 o menos empleados)
"Modelo de procesamiento de lenguaje natural"
¿Qué es lo que más te gusta de BERT Base?

BERT es un modelo base multilingüe, está entrenado en 102 idiomas. La ventaja del modelo es que no distingue entre mayúsculas y minúsculas. Se puede acceder fácilmente a él utilizando la biblioteca pytorch. El modelo tiene como objetivo afinar las tareas que dependen de oraciones completas. Reseña recopilada por y alojada en G2.com.

¿Qué es lo que no te gusta de BERT Base?

El modelo parece ser bastante eficiente y efectivo. No encontré ningún inconveniente. Reseña recopilada por y alojada en G2.com.

Usuario verificado en Tecnología de la información y servicios
CT
Empresa (> 1000 empleados)
"BERT BASE - Funciona perfectamente bien"
¿Qué es lo que más te gusta de BERT Base?

Tokenizador de modelo de lenguaje. Funciona bien con todos los conjuntos de datos y en todas las industrias genéricas. Reseña recopilada por y alojada en G2.com.

¿Qué es lo que no te gusta de BERT Base?

Difícil de realizar tareas en un tiempo limitado. Consumen mucho tiempo. Reseña recopilada por y alojada en G2.com.

Precios

Los detalles de precios para este producto no están disponibles actualmente. Visita el sitio web del proveedor para obtener más información.

Imagen del Avatar del Producto
BERT Base