
L'idée est prometteuse : une plateforme sans code pour orchestrer des flux de travail LLM, avec des intégrations, des requêtes HTTP et une logique conditionnelle. L'interface utilisateur est propre et intuitive. Les options de déploiement comme l'accès API et la génération d'applications web sont pratiques, et la version auto-hébergée offre une bonne flexibilité pour les cas d'utilisation internes. Avis collecté par et hébergé sur G2.com.
- Il n'y a aucun moyen de passer des variables d'entrée cachées aux flux de travail au démarrage du chat — elles sont toujours visibles pour l'utilisateur, ce qui compromet de nombreux cas d'utilisation de personnalisation ou de routage.
- Les limites de taille des variables dans la version Cloud sont déraisonnablement basses. Même de petits objets JSON dépassent la longueur autorisée, rendant cela inutilisable pour de véritables flux de travail d'IA.
- Pas de support pour des opérations de base comme in ou includes pour vérifier si une variable existe dans une liste. Vous êtes obligé d'utiliser des solutions de contournement maladroites ou d'abandonner complètement la logique.
- Le support est non réactif. Même avec un plan payant avec "support par email prioritaire", nous avons reçu uniquement des réponses génériques comme "lisez la documentation" ou "nous ne fournissons pas d'aide à la mise en œuvre". Ce n'est pas acceptable à 59 $/mois.
- La plupart de nos interactions avec le support (Jerome Yuan et Xinyang Zhang) se sont terminées par "ce n'est pas pris en charge", même pour des questions très basiques. Pas de solution de contournement, pas de feuille de route. Avis collecté par et hébergé sur G2.com.


