
A ideia é promissora: uma plataforma sem código para orquestrar fluxos de trabalho de LLM, com integrações, solicitações HTTP e lógica condicional. A interface é limpa e intuitiva. As opções de implantação, como acesso a API e geração de aplicativos web, são convenientes, e a versão auto-hospedada oferece boa flexibilidade para casos de uso interno. Análise coletada por e hospedada no G2.com.
- Não há como passar variáveis de entrada ocultas para fluxos de trabalho no início do chat — elas estão sempre visíveis para o usuário, o que quebra muitos casos de uso de personalização ou roteamento.
- Os limites de tamanho de variáveis na versão Cloud são irracionalmente baixos. Mesmo pequenos objetos JSON excedem o comprimento permitido, tornando-o inutilizável para fluxos de trabalho de IA reais.
- Não há suporte para operações básicas como in ou includes para verificar se uma variável existe em uma lista. Você é forçado a usar soluções alternativas desajeitadas ou abandonar a lógica completamente.
- O suporte não responde. Mesmo em um plano pago com “suporte prioritário por e-mail”, recebemos apenas respostas genéricas como “leia a documentação” ou “não fornecemos ajuda para implementação”. Isso não é aceitável por $59/mês.
- A maioria das nossas interações com o suporte (Jerome Yuan e Xinyang Zhang) terminou com “isso não é suportado”, mesmo para perguntas muito básicas. Sem solução alternativa, sem roteiro. Análise coletada por e hospedada no G2.com.
O avaliador enviou uma captura de tela ou enviou a avaliação no aplicativo, verificando-os como usuário atual.
Validado por meio de uma conta de e-mail empresarial
Avaliação orgânica. Esta avaliação foi escrita inteiramente sem convite ou incentivo do G2, de um vendedor ou de um afiliado.
Esta avaliação foi traduzida de English usando IA.


