Guide Workflows Dify 2026 : Construisez des pipelines IA automatisés
Les Workflows Dify sont des pipelines IA visuels basés sur des noeuds qui vous permettent de connecter des LLMs, bases de données, APIs et code dans un canvas glisser-déposer. Ce guide couvre chaque type de noeud, vous guide dans la construction de votre premier workflow et présente trois exemples de pipelines prêts pour la production.
Qu'est-ce que les Workflows Dify ?
Un Workflow Dify est un constructeur de pipeline visuel où vous chaînez des noeuds pour automatiser des tâches IA multi-étapes. Pensez-y comme n8n ou Zapier — mais conçu nativement pour l'IA, avec des noeuds de première classe pour appeler des LLMs, rechercher des bases de connaissances et gérer des sorties structurées.
Contrairement à un Chatbot (qui répond de manière conversationnelle tour par tour), un Workflow exécute un pipeline fixe d'une entrée définie vers une sortie définie. Vous le déclenchez, il exécute chaque noeud en séquence (ou en parallèle), et retourne un résultat. Cela rend les workflows idéaux pour l'automatisation, le traitement de documents, l'enrichissement de données.
Sous le capot, les Workflows Dify utilisent un moteur d'exécution de graphe acyclique dirigé (DAG). Chaque noeud reçoit les sorties des noeuds en amont comme variables, les traite et transmet les résultats en aval. Vous bénéficiez d'une observabilité complète — journaux d'exécution, latence par noeud, comptage de tokens — tout intégré.
Types de noeuds principaux
Chaque Workflow Dify est construit à partir de ces types de noeuds fondamentaux. Comprendre chacun est la clé pour concevoir des pipelines efficaces.
Le point d'entrée de chaque workflow. Vous définissez les variables d'entrée ici — par exemple un champ texte appelé texte_article, un upload de fichier ou une URL. Tous les noeuds suivants peuvent référencer ces variables.
Conseil : Gardez les entrées minimales et typées. Utilisez "text" pour les chaînes, "number" pour les entrées numériques, "select" pour les listes déroulantes.
Le noeud IA central. Il appelle n'importe quel modèle configuré (GPT-4o, Claude, Gemini, Llama, etc.) avec un prompt système et un prompt utilisateur. Vous pouvez injecter des variables de tout noeud en amont avec la syntaxe {{nom_variable}}.
Conseil : Utilisez le mode sortie structurée (schéma JSON) quand les noeuds en aval doivent parser la réponse LLM de manière programmatique.
Recherche dans vos bases de connaissances Dify par similarité vectorielle (RAG). Passez une chaîne de requête et obtenez en retour les chunks de documents les plus pertinents. Connectez le contexte récupéré à un noeud LLM pour des réponses factuelles et fondées.
Conseil : Réglez le paramètre top-K (combien de chunks récupérer) selon votre budget de fenêtre de contexte. 3-5 est généralement optimal.
Exécutez du Python ou JavaScript directement dans le workflow. Utilisez-le pour parser du JSON, transformer des chaînes, calculer des valeurs, filtrer des tableaux, ou tout ce qu'un script peut faire. Les variables d'entrée des noeuds en amont sont disponibles comme variables locales.
Conseil : Les noeuds Code s'exécutent dans un environnement sandbox. Pas d'accès réseau — utilisez les noeuds HTTP Request pour les appels externes.
Faites n'importe quel appel API REST — GET, POST, PUT, DELETE. Configurez les en-têtes, paramètres de requête et corps de requête en utilisant les variables du workflow. La réponse (JSON, texte ou brute) est disponible pour les noeuds en aval.
Conseil : Stockez les clés API sensibles dans les variables d'environnement Dify, pas codées en dur dans la config du noeud.
Branchement conditionnel. Évaluez n'importe quelle expression (comparaison de chaîne, seuil numérique, correspondance regex, vérification de contenu) et dirigez le workflow vers différentes branches. Vous pouvez ajouter plusieurs conditions "Else If" pour une logique de routage complexe.
Conseil : Utilisez If/Else pour gérer les cas d'erreur — ex. si la confiance du LLM est faible, dirigez vers une réponse de repli.
Transformez et formatez des données avec des templates Jinja2. Combinez plusieurs variables en une seule chaîne, formatez des dates, itérez sur des listes et appliquez une logique conditionnelle — sans écrire un noeud Code complet.
Conseil : Idéal pour construire des prompts dynamiques qui combinent plusieurs sorties en amont avant de les passer à un noeud LLM.
Fusionnez les sorties de plusieurs branches parallèles en une seule variable. Indispensable quand votre workflow se divise en chemins parallèles (ex. appeler deux LLMs différents simultanément) et que vous devez combiner les résultats avant le noeud End.
Conseil : Utilisez le mode "array" pour collecter toutes les sorties des branches dans une liste, puis traitez avec un noeud Code.
Le noeud terminal. Définit ce que le workflow retourne — une ou plusieurs variables de sortie. Lors d'un déclenchement via API, ces sorties sont retournées dans la réponse JSON. Lors d'une utilisation dans un Chatflow, le contenu du noeud End est affiché à l'utilisateur.
Conseil : Vous pouvez avoir plusieurs noeuds End (un par branche If/Else) pour retourner différentes sorties selon le chemin de routage emprunté.
Construire votre premier workflow
Construisons un simple résumeur d'articles — le "Hello World" classique des pipelines IA. Il prend un texte d'article en entrée et retourne un résumé en 3 points.
Créer une nouvelle app Workflow
Dans Dify Studio, cliquez sur "+ Créer App" → sélectionnez "Workflow". Donnez-lui un nom comme "Résumeur d'articles" et cliquez sur Créer. Vous arriverez sur le canvas avec un noeud Start et un noeud End vides.
Configurer le noeud Start
Cliquez sur le noeud Start. Ajoutez une variable d'entrée : nommez-la texte_article, définissez le type sur "Paragraph" (texte long). C'est ce que l'utilisateur (ou l'appelant API) fournira lors du déclenchement du workflow.
Ajouter un noeud LLM
Cliquez sur le bouton "+" sur le canvas. Ajoutez un noeud LLM. Sélectionnez votre modèle (ex. GPT-4o Mini). Dans le champ prompt utilisateur, tapez : Résumez l'article suivant en exactement 3 points. Soyez concis.
{{texte_article}}
Connecter Start → LLM → End
Faites glisser une connexion depuis le handle de sortie du noeud Start vers l'entrée du noeud LLM. Connectez ensuite la sortie du noeud LLM au noeud End. Le noeud End doit produire la variable text du noeud LLM.
Le tester
Cliquez sur "Exécuter" dans la barre du haut. Un panneau de test apparaît à droite. Collez n'importe quel texte d'article dans le champ texte_article et cliquez sur Exécuter. Vous verrez la sortie et la trace d'exécution complète — noeud par noeud, avec les comptages de tokens et la latence.
Workflow vs Chatbot vs Agent — Quand utiliser quoi
Dify propose trois types d'applications. Choisir le bon compte — ils servent des cas d'utilisation fondamentalement différents.
| Fonctionnalité | Workflow | Chatbot | Agent |
|---|---|---|---|
| Modèle d'interaction | Exécution unique : entrée → sortie | Conversation multi-tours | Sélection dynamique d'outils |
| Déterminisme | Élevé — pipeline fixe | Moyen — LLM décide | Faible — agent décide |
| Idéal pour | Automatisation, traitement par lots | Support client, Q&R | Recherche, accomplissement de tâches |
| Débogage | Excellent — trace complète | Bon — journaux de conversation | Plus difficile — étapes dynamiques |
| Déclenchable via API | Oui — endpoint REST | Oui — API chat | Oui — API chat |
| Récupération de connaissances | Oui — via noeud | Oui — via contexte | Oui — via outil |
| Appels API externes | Oui — noeud HTTP Request | Limité — via plugins | Oui — via outils |
| Exécution parallèle | Oui — support natif | Non | Non |
3 exemples pratiques de Workflows
Ces trois pipelines couvrent les patterns de Workflow Dify les plus courants dans le monde réel. Chacun est éprouvé et prêt pour la production.
Pipeline de résumé de contenu
Prend n'importe quel texte d'article et produit un résumé structuré avec un titre, 3 points clés et une phrase de conclusion. Utile pour les équipes de contenu, les éditeurs de newsletters et les assistants de recherche.
Prompt LLM : "Vous êtes un éditeur de contenu. À partir de l'article ci-dessous, retournez : (1) un titre accrocheur, (2) exactement 3 points clés, (3) une phrase de conclusion. Format JSON. Article : {{texte_article}}"
Triage du support client
Classe les tickets de support entrants par intention (facturation, technique, général), puis route chaque catégorie vers une réponse LLM spécialisée adaptée à ce sujet. Réduit les escalades de 40-60% pour les équipes qui l'utilisent.
Logique If/Else : Si intention == "facturation" → LLM facturation (connaît tarifs, politique de remboursement). Si intention == "technique" → LLM technique (connaît docs produit). Sinon → LLM support général.
Pipeline Q&R sur documents
Prend une question, récupère les chunks de documents les plus pertinents de votre base de connaissances, puis les transmet à un LLM pour une réponse fondée avec citations. Parfait pour les documents juridiques, manuels techniques et wikis internes.
Prompt LLM : "Répondez à la question en utilisant UNIQUEMENT le contexte fourni. Si la réponse n'est pas dans le contexte, dites-le. Contexte : {{chunks_récupérés}} — Question : {{question}}"
Déclencher des Workflows via API
Chaque Workflow Dify publié obtient automatiquement un endpoint API REST. C'est ainsi que vous intégrez des workflows dans vos applications, les déclenchez depuis des planificateurs, ou chaînez plusieurs workflows ensemble.
POST https://votre-instance-dify/v1/workflows/run
curl -X POST 'https://votre-instance-dify/v1/workflows/run' \
-H 'Authorization: Bearer VOTRE_CLE_API' \
-H 'Content-Type: application/json' \
-d '{
"inputs": {
"texte_article": "Votre contenu d'article ici..."
},
"response_mode": "blocking",
"user": "utilisateur-123"
}' blocking
Attend le résultat complet avant de répondre. Idéal pour les workflows courts de moins de 30 secondes.
streaming
Retourne un flux Server-Sent Events. Idéal pour les longs workflows ou le streaming de sortie LLM vers une UI.
Conseils pour les Workflows en production
Faire fonctionner un workflow une fois est facile. Le faire tourner de manière fiable à grande échelle nécessite quelques considérations supplémentaires :
Utiliser des sorties structurées des noeuds LLM
Activez le mode JSON sur vos noeuds LLM et définissez un schéma. Cela rend le parsing par les noeuds Code en aval fiable et élimine le formatage halluciné.
Ajouter la gestion d'erreurs avec If/Else
Vérifiez la sortie des noeuds critiques avant de continuer. Si une requête HTTP retourne un statut 4xx, routez vers une branche de gestion d'erreur plutôt de laisser les données corrompre silencieusement.
Garder les prompts LLM focalisés
Dans un workflow, chaque noeud LLM doit bien faire une chose. Évitez les "mega-prompts" qui essaient de classer, résumer et formater en un seul appel — divisez-les en noeuds LLM séparés.
Surveiller l'utilisation des tokens par exécution
Dify enregistre les comptages de tokens par noeud. Identifiez vos noeuds les plus coûteux et envisagez d'utiliser des modèles plus petits (ex. GPT-4o Mini) pour les tâches de classification.
Épingler les versions de modèles
Quand un workflow est en production, épinglez une version de modèle spécifique (ex. gpt-4o-2024-08-06) plutôt que "latest". Les mises à jour de modèles peuvent silencieusement changer le comportement de sortie.
Questions fréquentes
Qu'est-ce qu'un Workflow Dify ?
Un Workflow Dify est un pipeline IA visuel basé sur des noeuds. Vous connectez des noeuds (LLM, code, requêtes HTTP, récupération de connaissances, conditions) sur un canvas pour automatiser des tâches multi-étapes. Contrairement aux chatbots, les workflows exécutent un pipeline fixe de l'entrée à la sortie — idéal pour l'automatisation et le traitement par lots.
Quand utiliser un Workflow plutôt qu'un Chatbot ?
Utilisez un Workflow pour les tâches d'automatisation avec des entrées/sorties définies (résumer des documents, traiter des données, triage). Utilisez un Chatbot pour les conversations ouvertes. Les Workflows sont déterministes et plus faciles à déboguer.
Les Workflows Dify peuvent-ils être déclenchés automatiquement ?
Les Workflows Dify peuvent être déclenchés via API, que vous pouvez appeler depuis n'importe quel planificateur (cron, n8n, Zapier, GitHub Actions). Dify n'a pas de planificateur intégré, mais le déclencheur API rend la planification simple avec des outils externes.
Les Workflows Dify peuvent-ils appeler des APIs externes ?
Oui. Le noeud HTTP Request permet à votre workflow d'appeler n'importe quelle API REST — récupérer des données de services externes, envoyer des webhooks, interagir avec des plateformes tierces. Combinez-le avec des noeuds Code pour transformer les réponses API avant de les passer à un LLM.
Hébergez Dify et commencez à construire des Workflows
Les Workflows Dify fonctionnent mieux sur une instance auto-hébergée où vous contrôlez le calcul, n'avez pas de limites de crédits et pouvez traiter des exécutions de workflow illimitées. Commencez à partir de €3,79/mois sur Hetzner, ou utilisez un déploiement géré en un clic sur Elestio.