
Fornece à equipe uma distribuição mais uniforme e a capacidade de atingir cotas;
Permite que o "foco" esteja nas contas apropriadas;
Facilita o processo de escalonamento em 1000%;
Permite uma resposta rápida às mudanças nas condições de mercado - tornando-os mais adaptáveis; e
Transforma a eficiência de vendas. Análise coletada por e hospedada no G2.com.
Os contras giram em torno dos algoritmos de otimização de descida de gradiente que são usados em aprendizado de máquina. Estes incluem: ficar preso em mínimos locais; sensibilidade à taxa de aprendizado (aprender a uma taxa "muito alta" faz com que o algoritmo ultrapasse os mínimos e uma taxa "muito baixa" leva a uma convergência lenta; convergência lenta devido ao algoritmo levar um grande número de iterações para desenvolver uma solução, o que o torna computacionalmente caro; em redes neurais profundas, os gradientes podem desaparecer quando se tornam muito pequenos ou explodir durante a retropropagação, dificultando o aprendizado em certas camadas; sobreajuste quando o modelo é treinado por muito tempo com uma taxa de aprendizado alta, causando o risco de aprender os dados de treinamento muito de perto, levando a um desempenho ruim em dados não vistos; grandes conjuntos de dados podem ser computacionalmente intensivos ao calcular gradientes, novamente, aumentando o custo computacional; e fornece interpretabilidade limitada na compreensão da relação exata entre características e previsões. Análise coletada por e hospedada no G2.com.

