Dify Workflows Handleiding 2026: AI-automatiseringspipelines bouwen
Dify Workflows zijn visuele, knooppuntgebaseerde AI-pipelines waarmee je LLM's, databases, API's en code verbindt via drag-and-drop. Deze handleiding legt elk knooppunttype uit, begeleidt je bij het bouwen van je eerste workflow en toont drie praktijkgerichte pipeline-voorbeelden.
Wat zijn Dify Workflows?
Een Dify Workflow is een visuele pipeline-builder waarmee je knooppunten verbindt om meerstaps AI-taken te automatiseren. Zie het als n8n of Zapier — maar AI-native gebouwd, met eersteklas knooppunten voor het aanroepen van LLM's, doorzoeken van kennisbanken en verwerken van gestructureerde uitvoer.
In tegenstelling tot een chatbot (die gesprekmatig ronde voor ronde antwoordt) voert een workflow een vaste pipeline uit van een gedefinieerde invoer naar een gedefinieerde uitvoer. Je start hem, hij voert elk knooppunt in volgorde (of parallel) uit en levert een resultaat. Dit maakt workflows ideaal voor automatisering, documentverwerking, dataverrijking en elk proces dat deterministisch moet verlopen.
Intern gebruiken Dify Workflows een gerichte acyclische grafiek-engine (DAG). Elk knooppunt ontvangt uitvoer van eerdere knooppunten als variabelen, verwerkt ze en geeft resultaten door. Je krijgt volledige observability — uitvoeringslogs, latentie per knooppunt, tokentelling — alles ingebouwd.
Kern-knooppunttypen
Elke Dify Workflow is opgebouwd uit deze fundamentele knooppunttypen. Het begrijpen van elk knooppunt is de sleutel tot het ontwikkelen van effectieve pipelines.
Het invoerpunt van elke workflow. Hier definieer je de invoervariabelen — bijvoorbeeld een tekstveld genaamd artikel_tekst, een bestandsupload of een URL. Alle volgende knooppunten kunnen toegang krijgen tot deze variabelen.
Tip: Houd invoer minimaal en getypeerd. Gebruik "text" voor strings, "number" voor numerieke invoer, "select" voor dropdowns.
Het centrale AI-knooppunt. Het roept elk geconfigureerd model aan (GPT-4o, Claude, Gemini, Llama enz.) met een systeemprompt en gebruikersprompt. Variabelen van eerdere knooppunten kun je insluiten met {{variabele_naam}}.
Tip: Gebruik de Structured Output-modus (JSON-schema) wanneer volgende knooppunten de LLM-antwoord programmatisch moeten parsen.
Doorzoekt je Dify kennisbanken via vectorgelijkenis (RAG). Geef een zoekopdracht op en ontvang de meest relevante documentfragmenten terug. Verbind de opgehaalde context met een LLM-knooppunt voor onderbouwde, feitelijke antwoorden.
Tip: Stel de Top-K parameter in (hoeveel chunks worden opgehaald) op basis van je contextvenster. 3-5 is meestal optimaal.
Voer Python of JavaScript direct uit in de workflow. Gebruik het voor het parsen van JSON, transformeren van strings, berekenen van waarden, filteren van arrays of alles wat een script kan. Invoervariabelen van eerdere knooppunten zijn beschikbaar als lokale variabelen.
Tip: Code-knooppunten draaien in een sandbox-omgeving. Geen netwerktoegang — gebruik HTTP-verzoek-knooppunten voor externe aanroepen.
Voer elke REST API-aanroep uit — GET, POST, PUT, DELETE. Configureer headers, query-parameters en request-body met workflow-variabelen. De respons (JSON, tekst of ruw) is beschikbaar voor volgende knooppunten.
Tip: Sla gevoelige API-sleutels op in Dify-omgevingsvariabelen, niet hard gecodeerd in de knooppuntconfiguratie.
Conditionele vertakking. Evalueer een willekeurige expressie (stringvergelijking, numerieke drempelwaarde, regex-overeenkomst, bevat-controle) en leid de workflow naar verschillende takken. Je kunt meerdere "Else If"-condities toevoegen voor complexe routeringslogica.
Tip: Gebruik If/Else voor foutafhandeling — bijv. als de LLM-betrouwbaarheid laag is, leid dan naar een fallback-antwoord in plaats van een onzeker resultaat.
Transformeer en formatteer data met Jinja2-sjablonen. Combineer meerdere variabelen tot een string, formatteer data, itereer over lijsten en pas conditionele logica toe — alles zonder een volledig code-knooppunt.
Tip: Ideaal voor het maken van dynamische prompts die meerdere eerdere uitvoer combineren voordat ze worden doorgegeven aan een LLM-knooppunt.
Voeg uitvoer van meerdere parallelle takken samen in één variabele. Onmisbaar wanneer je workflow zich splitst in parallelle paden (bijv. twee verschillende LLM's tegelijk aanroepen) en je de resultaten moet samenvoegen voor het eindknooppunt.
Tip: Gebruik de "array"-modus om alle takuitvoer in een lijst te verzamelen, verwerk dan via Code-knooppunt.
Het afsluitende knooppunt. Definieert wat de workflow teruggeeft — een of meer uitvoervariabelen. Bij API-activering worden deze uitvoer in de JSON-respons teruggegeven. Bij gebruik in een chatflow wordt de inhoud van het End-knooppunt aan de gebruiker getoond.
Tip: Je kunt meerdere End-knooppunten hebben (één per If/Else-tak) om verschillende uitvoer terug te geven afhankelijk van de route.
Je eerste workflow bouwen
Laten we een eenvoudige artikelsamenvatting bouwen — de "Hello World" van AI-pipelines. Het neemt een artikeltekst als invoer en geeft een 3-punts samenvatting terug.
Nieuwe Workflow-app aanmaken
Klik in Dify Studio op "+ App aanmaken" → kies "Workflow". Geef het een naam zoals "Artikelsamenvatting" en klik op Aanmaken. Je komt op het canvas met een leeg Start- en End-knooppunt.
Start-knooppunt configureren
Klik op het Start-knooppunt. Voeg een invoervariabele toe: noem het artikel_tekst, stel het type in op "Paragraph" (lange tekst). Dit is wat de gebruiker (of API-aanroeper) opgeeft bij het activeren van de workflow.
LLM-knooppunt toevoegen
Klik op de "+" knop op het canvas. Voeg een LLM-knooppunt toe. Kies je model (bijv. GPT-4o Mini). Typ in het gebruikersprompt-veld: Vat het volgende artikel samen in precies 3 punten. Wees beknopt.
{{artikel_tekst}}
Start → LLM → End verbinden
Trek een verbinding van het uitvoerhandvat van het Start-knooppunt naar de invoer van het LLM-knooppunt. Verbind dan de uitvoer van het LLM-knooppunt met het End-knooppunt. Het End-knooppunt moet de text-variabele van het LLM-knooppunt uitvoeren.
Testen
Klik op "Uitvoeren" in de bovenste balk. Een testpaneel verschijnt rechts. Plak een willekeurige artikeltekst in het artikel_tekst-veld en klik op Uitvoeren. Je ziet de uitvoer en volledige uitvoerings-trace — knooppunt voor knooppunt, met tokentelling en latentie.
Workflow vs. Chatbot vs. Agent — Wanneer wat gebruiken
Dify biedt drie app-typen. De juiste keuze is cruciaal — ze dienen fundamenteel verschillende gebruiksscenario's.
| Kenmerk | Workflow | Chatbot | Agent |
|---|---|---|---|
| Interactiemodel | Enkele uitvoering: invoer → uitvoer | Meerstaps gesprek | Dynamische toolselectie |
| Determinisme | Hoog — vaste pipeline | Gemiddeld — LLM beslist | Laag — agent beslist |
| Ideaal voor | Automatisering, batchverwerking | Klantenservice, Q&A | Onderzoek, taakuitvoering |
| Debugbaarheid | Uitstekend — volledige trace | Goed — gesprekslogs | Moeilijker — dynamische stappen |
| API-activeerbaar | Ja — REST-endpoint | Ja — Chat API | Ja — Chat API |
| Knowledge Retrieval | Ja — via knooppunt | Ja — via context | Ja — via tool |
| Externe API-aanroepen | Ja — HTTP-verzoek-knooppunt | Beperkt — via plugin | Ja — via tools |
| Parallelle uitvoering | Ja — native ondersteund | Nee | Nee |
3 Praktijkvoorbeelden voor Workflows
Deze drie pipelines behandelen de meest voorkomende Dify Workflow-patronen. Elk is beproefd en productieklaar.
Content-samenvattingspipeline
Neemt willekeurige artikeltekst en maakt een gestructureerde samenvatting met een kop, 3 kernpunten en een conclusie in één zin. Nuttig voor contentteams, nieuwsbriedredacteuren en onderzoeksassistenten.
LLM-prompt: "Je bent een contentredacteur. Maak van het volgende artikel: (1) een pakkende kop, (2) precies 3 kernpunten, (3) een conclusie in één zin. Formatteer als JSON. Artikel: {{artikel_tekst}}"
Klantenservice-triage
Classificeert inkomende supporttickets op intentie (facturering, technisch, algemeen) en leidt elke categorie naar een gespecialiseerd LLM-antwoord. Vermindert escalaties met 40-60% bij teams die het gebruiken.
If/Else-logica: Als intentie == "facturering" → Facturerings-LLM (kent prijzen, terugbetalingsbeleid). Als intentie == "technisch" → Tech-LLM (kent productdocumentatie). Anders → algemeen support-LLM.
Document Q&A-pipeline
Neemt een vraag, haalt de meest relevante documentfragmenten op uit je kennisbank en geeft ze door aan een LLM voor een onderbouwd, brongebaseerd antwoord. Perfect voor juridische documenten, technische handleidingen en interne wiki's.
LLM-prompt: "Beantwoord de vraag ALLEEN met de verstrekte context. Als het antwoord niet in de context staat, zeg dat dan. Context: {{opgehaalde_chunks}} — Vraag: {{vraag}}"
Workflows via API uitvoeren
Elke gepubliceerde Dify Workflow krijgt automatisch een REST API-endpoint. Zo integreer je workflows in je applicaties, activeer je ze vanuit planners of verbind je meerdere workflows met elkaar.
POST https://jouw-dify-instantie/v1/workflows/run
curl -X POST 'https://jouw-dify-instantie/v1/workflows/run' \
-H 'Authorization: Bearer JOUW_API_KEY' \
-H 'Content-Type: application/json' \
-d '{
"inputs": {
"artikel_tekst": "Je artikelinhoud hier..."
},
"response_mode": "blocking",
"user": "gebruiker-123"
}' blocking
Wacht op het volledige resultaat. Optimaal voor korte workflows onder 30 seconden.
streaming
Geeft een Server-Sent Events-stream terug. Optimaal voor lange workflows of LLM-streaming naar een UI.
Tips voor productie-workflows
Een workflow eenmalig aan de praat krijgen is eenvoudig. Hem betrouwbaar op grote schaal uitvoeren vereist enkele aanvullende overwegingen:
Gestructureerde uitvoer van LLM-knooppunten gebruiken
Schakel de JSON-modus in bij LLM-knooppunten en definieer een schema. Dit maakt het parsen door volgende Code-knooppunten betrouwbaar en voorkomt geconstrueerde opmaak.
Foutafhandeling toevoegen met If/Else
Controleer de uitvoer van kritieke knooppunten voor het doorgaan. Als een HTTP-verzoek een 4xx-status retourneert, leid dan naar een foutafhandelingstak in plaats van de data stilzwijgend te corrumperen.
LLM-prompts gefocust houden
In een workflow moet elk LLM-knooppunt één ding goed doen. Vermijd "mega-prompts" die tegelijk classificeren, samenvatten en formatteren — splits ze in aparte LLM-knooppunten voor betere betrouwbaarheid.
Tokengebruik per workflow-run monitoren
Dify registreert tokentelling per knooppunt. Identificeer je duurste knooppunten en overweeg kleinere modellen (bijv. GPT-4o Mini) voor classificatietaken waar redeneerdiepte minder belangrijk is.
Modelversies vastpinnen
Als een workflow in productie is, pin dan op een specifieke modelversie (bijv. gpt-4o-2024-08-06) in plaats van "latest". Modelupdates kunnen het uitvoergedrag stilzwijgend wijzigen.
Veelgestelde vragen
Wat is een Dify Workflow?
Een Dify Workflow is een visuele, knooppuntgebaseerde AI-pipeline. Je verbindt knooppunten (LLM, Code, HTTP-verzoeken, Knowledge Retrieval, condities) op een canvas om meerstaps taken te automatiseren. In tegenstelling tot chatbots draaien workflows als vaste pipeline van invoer naar uitvoer — ideaal voor automatisering en batchverwerking.
Wanneer moet ik een workflow gebruiken in plaats van een chatbot?
Gebruik workflows voor automatiseringstaken met gedefinieerde in-/uitvoer (documenten samenvatten, data verwerken, triage). Gebruik chatbots voor open gesprekken. Gebruik agenten voor dynamische toolselectie. Workflows zijn deterministisch en eenvoudiger te debuggen.
Kunnen Dify Workflows automatisch worden uitgevoerd op schema?
Dify Workflows kunnen via API worden geactiveerd, die je kunt aanroepen vanuit elke planner (cron, n8n, Zapier, GitHub Actions). Dify zelf heeft geen ingebouwde planner, maar de API-trigger maakt planning met externe tools eenvoudig.
Kunnen Dify Workflows externe API's aanroepen?
Ja. Het HTTP-verzoek-knooppunt laat je workflow elke REST API aanroepen — data ophalen van externe diensten, webhooks sturen, externe platforms aanspreken. Combineer het met Code-knooppunten om API-antwoorden te transformeren voor de LLM-doorgave.
Dify hosten en Workflows bouwen
Dify Workflows draaien het beste op een zelf-gehoste instantie waar jij de rekenkracht beheert, geen kredietlimieten hebt en onbeperkte workflow-runs kunt verwerken. Begin voor slechts €3,79/maand op Hetzner of gebruik een één-klik beheerde deployment op Elestio.