Mis à jour mars 2026 Workflow Builder No-Code

Guide Workflows Dify 2026 : Construisez des pipelines IA automatisés

Les Workflows Dify sont des pipelines IA visuels basés sur des noeuds qui vous permettent de connecter des LLMs, bases de données, APIs et code dans un canvas glisser-déposer. Ce guide couvre chaque type de noeud, vous guide dans la construction de votre premier workflow et présente trois exemples de pipelines prêts pour la production.

Qu'est-ce que les Workflows Dify ?

Un Workflow Dify est un constructeur de pipeline visuel où vous chaînez des noeuds pour automatiser des tâches IA multi-étapes. Pensez-y comme n8n ou Zapier — mais conçu nativement pour l'IA, avec des noeuds de première classe pour appeler des LLMs, rechercher des bases de connaissances et gérer des sorties structurées.

Contrairement à un Chatbot (qui répond de manière conversationnelle tour par tour), un Workflow exécute un pipeline fixe d'une entrée définie vers une sortie définie. Vous le déclenchez, il exécute chaque noeud en séquence (ou en parallèle), et retourne un résultat. Cela rend les workflows idéaux pour l'automatisation, le traitement de documents, l'enrichissement de données.

Sous le capot, les Workflows Dify utilisent un moteur d'exécution de graphe acyclique dirigé (DAG). Chaque noeud reçoit les sorties des noeuds en amont comme variables, les traite et transmet les résultats en aval. Vous bénéficiez d'une observabilité complète — journaux d'exécution, latence par noeud, comptage de tokens — tout intégré.

Canvas glisser-déposer visuel
Noeuds LLM natifs IA
RAG Knowledge Retrieval intégré
Noeuds Code Python & JavaScript
Requête HTTP vers toute API externe
Branchement conditionnel (If/Else)
Observabilité complète d'exécution
Déclencheur API REST pour l'automatisation

Types de noeuds principaux

Chaque Workflow Dify est construit à partir de ces types de noeuds fondamentaux. Comprendre chacun est la clé pour concevoir des pipelines efficaces.

Start

Le point d'entrée de chaque workflow. Vous définissez les variables d'entrée ici — par exemple un champ texte appelé texte_article, un upload de fichier ou une URL. Tous les noeuds suivants peuvent référencer ces variables.

Conseil : Gardez les entrées minimales et typées. Utilisez "text" pour les chaînes, "number" pour les entrées numériques, "select" pour les listes déroulantes.

LLM

Le noeud IA central. Il appelle n'importe quel modèle configuré (GPT-4o, Claude, Gemini, Llama, etc.) avec un prompt système et un prompt utilisateur. Vous pouvez injecter des variables de tout noeud en amont avec la syntaxe {{nom_variable}}.

Conseil : Utilisez le mode sortie structurée (schéma JSON) quand les noeuds en aval doivent parser la réponse LLM de manière programmatique.

Knowledge Retrieval

Recherche dans vos bases de connaissances Dify par similarité vectorielle (RAG). Passez une chaîne de requête et obtenez en retour les chunks de documents les plus pertinents. Connectez le contexte récupéré à un noeud LLM pour des réponses factuelles et fondées.

Conseil : Réglez le paramètre top-K (combien de chunks récupérer) selon votre budget de fenêtre de contexte. 3-5 est généralement optimal.

Code

Exécutez du Python ou JavaScript directement dans le workflow. Utilisez-le pour parser du JSON, transformer des chaînes, calculer des valeurs, filtrer des tableaux, ou tout ce qu'un script peut faire. Les variables d'entrée des noeuds en amont sont disponibles comme variables locales.

Conseil : Les noeuds Code s'exécutent dans un environnement sandbox. Pas d'accès réseau — utilisez les noeuds HTTP Request pour les appels externes.

HTTP Request

Faites n'importe quel appel API REST — GET, POST, PUT, DELETE. Configurez les en-têtes, paramètres de requête et corps de requête en utilisant les variables du workflow. La réponse (JSON, texte ou brute) est disponible pour les noeuds en aval.

Conseil : Stockez les clés API sensibles dans les variables d'environnement Dify, pas codées en dur dans la config du noeud.

If/Else

Branchement conditionnel. Évaluez n'importe quelle expression (comparaison de chaîne, seuil numérique, correspondance regex, vérification de contenu) et dirigez le workflow vers différentes branches. Vous pouvez ajouter plusieurs conditions "Else If" pour une logique de routage complexe.

Conseil : Utilisez If/Else pour gérer les cas d'erreur — ex. si la confiance du LLM est faible, dirigez vers une réponse de repli.

Template Transform

Transformez et formatez des données avec des templates Jinja2. Combinez plusieurs variables en une seule chaîne, formatez des dates, itérez sur des listes et appliquez une logique conditionnelle — sans écrire un noeud Code complet.

Conseil : Idéal pour construire des prompts dynamiques qui combinent plusieurs sorties en amont avant de les passer à un noeud LLM.

Variable Aggregator

Fusionnez les sorties de plusieurs branches parallèles en une seule variable. Indispensable quand votre workflow se divise en chemins parallèles (ex. appeler deux LLMs différents simultanément) et que vous devez combiner les résultats avant le noeud End.

Conseil : Utilisez le mode "array" pour collecter toutes les sorties des branches dans une liste, puis traitez avec un noeud Code.

End

Le noeud terminal. Définit ce que le workflow retourne — une ou plusieurs variables de sortie. Lors d'un déclenchement via API, ces sorties sont retournées dans la réponse JSON. Lors d'une utilisation dans un Chatflow, le contenu du noeud End est affiché à l'utilisateur.

Conseil : Vous pouvez avoir plusieurs noeuds End (un par branche If/Else) pour retourner différentes sorties selon le chemin de routage emprunté.

Construire votre premier workflow

Construisons un simple résumeur d'articles — le "Hello World" classique des pipelines IA. Il prend un texte d'article en entrée et retourne un résumé en 3 points.

1

Créer une nouvelle app Workflow

Dans Dify Studio, cliquez sur "+ Créer App" → sélectionnez "Workflow". Donnez-lui un nom comme "Résumeur d'articles" et cliquez sur Créer. Vous arriverez sur le canvas avec un noeud Start et un noeud End vides.

2

Configurer le noeud Start

Cliquez sur le noeud Start. Ajoutez une variable d'entrée : nommez-la texte_article, définissez le type sur "Paragraph" (texte long). C'est ce que l'utilisateur (ou l'appelant API) fournira lors du déclenchement du workflow.

3

Ajouter un noeud LLM

Cliquez sur le bouton "+" sur le canvas. Ajoutez un noeud LLM. Sélectionnez votre modèle (ex. GPT-4o Mini). Dans le champ prompt utilisateur, tapez : Résumez l'article suivant en exactement 3 points. Soyez concis. {{texte_article}}

4

Connecter Start → LLM → End

Faites glisser une connexion depuis le handle de sortie du noeud Start vers l'entrée du noeud LLM. Connectez ensuite la sortie du noeud LLM au noeud End. Le noeud End doit produire la variable text du noeud LLM.

5

Le tester

Cliquez sur "Exécuter" dans la barre du haut. Un panneau de test apparaît à droite. Collez n'importe quel texte d'article dans le champ texte_article et cliquez sur Exécuter. Vous verrez la sortie et la trace d'exécution complète — noeud par noeud, avec les comptages de tokens et la latence.

Ce que vous avez construit : Start (entrée texte_article) → LLM (prompt de résumé) → End (résumé en 3 points). Ce même pattern s'adapte à n'importe quel pipeline texte-entrant, texte-sortant.

Workflow vs Chatbot vs Agent — Quand utiliser quoi

Dify propose trois types d'applications. Choisir le bon compte — ils servent des cas d'utilisation fondamentalement différents.

Fonctionnalité Workflow Chatbot Agent
Modèle d'interaction Exécution unique : entrée → sortie Conversation multi-tours Sélection dynamique d'outils
Déterminisme Élevé — pipeline fixe Moyen — LLM décide Faible — agent décide
Idéal pour Automatisation, traitement par lots Support client, Q&R Recherche, accomplissement de tâches
Débogage Excellent — trace complète Bon — journaux de conversation Plus difficile — étapes dynamiques
Déclenchable via API Oui — endpoint REST Oui — API chat Oui — API chat
Récupération de connaissances Oui — via noeud Oui — via contexte Oui — via outil
Appels API externes Oui — noeud HTTP Request Limité — via plugins Oui — via outils
Exécution parallèle Oui — support natif Non Non
Règle générale : Si le processus est identique à chaque fois et que vous pouvez en dessiner un organigramme, utilisez un Workflow. Si les utilisateurs ont besoin d'échanges conversationnels, utilisez un Chatbot. Si l'IA doit décider elle-même quels outils appeler, utilisez un Agent.

3 exemples pratiques de Workflows

Ces trois pipelines couvrent les patterns de Workflow Dify les plus courants dans le monde réel. Chacun est éprouvé et prêt pour la production.

Exemple 1

Pipeline de résumé de contenu

Prend n'importe quel texte d'article et produit un résumé structuré avec un titre, 3 points clés et une phrase de conclusion. Utile pour les équipes de contenu, les éditeurs de newsletters et les assistants de recherche.

Start (texte_article) LLM (résumer + structurer) End (résumé)

Prompt LLM : "Vous êtes un éditeur de contenu. À partir de l'article ci-dessous, retournez : (1) un titre accrocheur, (2) exactement 3 points clés, (3) une phrase de conclusion. Format JSON. Article : {{texte_article}}"

Exemple 2

Triage du support client

Classe les tickets de support entrants par intention (facturation, technique, général), puis route chaque catégorie vers une réponse LLM spécialisée adaptée à ce sujet. Réduit les escalades de 40-60% pour les équipes qui l'utilisent.

Start (texte_ticket) LLM (classer l'intention) If/Else (router par catégorie) LLM (réponse spécialisée) End

Logique If/Else : Si intention == "facturation" → LLM facturation (connaît tarifs, politique de remboursement). Si intention == "technique" → LLM technique (connaît docs produit). Sinon → LLM support général.

Exemple 3

Pipeline Q&R sur documents

Prend une question, récupère les chunks de documents les plus pertinents de votre base de connaissances, puis les transmet à un LLM pour une réponse fondée avec citations. Parfait pour les documents juridiques, manuels techniques et wikis internes.

Start (question) Knowledge Retrieval (top-5 chunks) LLM (répondre avec contexte) End (réponse)

Prompt LLM : "Répondez à la question en utilisant UNIQUEMENT le contexte fourni. Si la réponse n'est pas dans le contexte, dites-le. Contexte : {{chunks_récupérés}} — Question : {{question}}"

Déclencher des Workflows via API

Chaque Workflow Dify publié obtient automatiquement un endpoint API REST. C'est ainsi que vous intégrez des workflows dans vos applications, les déclenchez depuis des planificateurs, ou chaînez plusieurs workflows ensemble.

POST https://votre-instance-dify/v1/workflows/run

curl -X POST 'https://votre-instance-dify/v1/workflows/run' \
  -H 'Authorization: Bearer VOTRE_CLE_API' \
  -H 'Content-Type: application/json' \
  -d '{
    "inputs": {
      "texte_article": "Votre contenu d'article ici..."
    },
    "response_mode": "blocking",
    "user": "utilisateur-123"
  }'

blocking

Attend le résultat complet avant de répondre. Idéal pour les workflows courts de moins de 30 secondes.

streaming

Retourne un flux Server-Sent Events. Idéal pour les longs workflows ou le streaming de sortie LLM vers une UI.

Conseils pour les Workflows en production

Faire fonctionner un workflow une fois est facile. Le faire tourner de manière fiable à grande échelle nécessite quelques considérations supplémentaires :

Utiliser des sorties structurées des noeuds LLM

Activez le mode JSON sur vos noeuds LLM et définissez un schéma. Cela rend le parsing par les noeuds Code en aval fiable et élimine le formatage halluciné.

Ajouter la gestion d'erreurs avec If/Else

Vérifiez la sortie des noeuds critiques avant de continuer. Si une requête HTTP retourne un statut 4xx, routez vers une branche de gestion d'erreur plutôt de laisser les données corrompre silencieusement.

Garder les prompts LLM focalisés

Dans un workflow, chaque noeud LLM doit bien faire une chose. Évitez les "mega-prompts" qui essaient de classer, résumer et formater en un seul appel — divisez-les en noeuds LLM séparés.

Surveiller l'utilisation des tokens par exécution

Dify enregistre les comptages de tokens par noeud. Identifiez vos noeuds les plus coûteux et envisagez d'utiliser des modèles plus petits (ex. GPT-4o Mini) pour les tâches de classification.

Épingler les versions de modèles

Quand un workflow est en production, épinglez une version de modèle spécifique (ex. gpt-4o-2024-08-06) plutôt que "latest". Les mises à jour de modèles peuvent silencieusement changer le comportement de sortie.

Questions fréquentes

Qu'est-ce qu'un Workflow Dify ?

Un Workflow Dify est un pipeline IA visuel basé sur des noeuds. Vous connectez des noeuds (LLM, code, requêtes HTTP, récupération de connaissances, conditions) sur un canvas pour automatiser des tâches multi-étapes. Contrairement aux chatbots, les workflows exécutent un pipeline fixe de l'entrée à la sortie — idéal pour l'automatisation et le traitement par lots.

Quand utiliser un Workflow plutôt qu'un Chatbot ?

Utilisez un Workflow pour les tâches d'automatisation avec des entrées/sorties définies (résumer des documents, traiter des données, triage). Utilisez un Chatbot pour les conversations ouvertes. Les Workflows sont déterministes et plus faciles à déboguer.

Les Workflows Dify peuvent-ils être déclenchés automatiquement ?

Les Workflows Dify peuvent être déclenchés via API, que vous pouvez appeler depuis n'importe quel planificateur (cron, n8n, Zapier, GitHub Actions). Dify n'a pas de planificateur intégré, mais le déclencheur API rend la planification simple avec des outils externes.

Les Workflows Dify peuvent-ils appeler des APIs externes ?

Oui. Le noeud HTTP Request permet à votre workflow d'appeler n'importe quelle API REST — récupérer des données de services externes, envoyer des webhooks, interagir avec des plateformes tierces. Combinez-le avec des noeuds Code pour transformer les réponses API avant de les passer à un LLM.

Hébergez Dify et commencez à construire des Workflows

Les Workflows Dify fonctionnent mieux sur une instance auto-hébergée où vous contrôlez le calcul, n'avez pas de limites de crédits et pouvez traiter des exécutions de workflow illimitées. Commencez à partir de €3,79/mois sur Hetzner, ou utilisez un déploiement géré en un clic sur Elestio.

Déployer sur Hetzner → Un clic sur Elestio → Comparer toutes les options