Dify Workflows Anleitung 2026: KI-Automatisierungs-Pipelines bauen
Dify Workflows sind visuelle, knotenbasierte KI-Pipelines, mit denen du LLMs, Datenbanken, APIs und Code per Drag-and-Drop verbindest. Diese Anleitung erklärt jeden Knotentyp, führt dich durch den Aufbau deines ersten Workflows und zeigt drei praxiserprobte Pipeline-Beispiele.
Was sind Dify Workflows?
Ein Dify Workflow ist ein visueller Pipeline-Builder, mit dem du Knoten verknüpfst, um mehrstufige KI-Aufgaben zu automatisieren. Stelle es dir wie n8n oder Zapier vor — aber KI-nativ gebaut, mit erstklassigen Knoten zum Aufrufen von LLMs, Durchsuchen von Wissensdatenbanken und Verarbeiten strukturierter Ausgaben.
Im Gegensatz zu einem Chatbot (der gesprächsweise Runde für Runde antwortet) führt ein Workflow eine feste Pipeline von einem definierten Eingang bis zu einem definierten Ausgang aus. Du startest ihn, er führt jeden Knoten in Reihenfolge (oder parallel) aus und liefert ein Ergebnis. Das macht Workflows ideal für Automatisierung, Dokumentenverarbeitung, Datenanreicherung und jeden Prozess, der deterministisch ablaufen soll.
Intern nutzen Dify Workflows eine gerichtete azyklische Graph-Engine (DAG). Jeder Knoten empfängt Ausgaben von vorgelagerten Knoten als Variablen, verarbeitet sie und gibt Ergebnisse weiter. Du bekommst vollständige Beobachtbarkeit — Ausführungsprotokolle, Latenz pro Knoten, Token-Zählungen — alles eingebaut.
Kern-Knotentypen
Jeder Dify Workflow wird aus diesen grundlegenden Knotentypen aufgebaut. Das Verständnis jedes einzelnen ist der Schlüssel zur Entwicklung effektiver Pipelines.
Der Einstiegspunkt jedes Workflows. Hier definierst du die Eingabevariablen — zum Beispiel ein Textfeld namens artikel_text, einen Datei-Upload oder eine URL. Alle nachfolgenden Knoten können auf diese Variablen zugreifen.
Tipp: Halte Eingaben minimal und typisiert. Nutze "text" für Zeichenketten, "number" für numerische Eingaben, "select" für Dropdowns.
Der zentrale KI-Knoten. Er ruft jedes konfigurierte Modell (GPT-4o, Claude, Gemini, Llama usw.) mit einem System-Prompt und User-Prompt auf. Variablen aus vorgelagerten Knoten kannst du mit {{variablen_name}} einbinden.
Tipp: Nutze den Structured-Output-Modus (JSON-Schema), wenn nachgelagerte Knoten die LLM-Antwort programmatisch parsen müssen.
Durchsucht deine Dify-Wissensdatenbanken per Vektorähnlichkeit (RAG). Übergib eine Suchanfrage und erhalte die relevantesten Dokumenten-Chunks zurück. Verbinde den abgerufenen Kontext mit einem LLM-Knoten für fundierte, faktische Antworten.
Tipp: Stelle den Top-K-Parameter (wie viele Chunks abgerufen werden) basierend auf deinem Kontextfenster ein. 3-5 ist meist optimal.
Führe Python oder JavaScript direkt im Workflow aus. Nutze es zum Parsen von JSON, Transformieren von Zeichenketten, Berechnen von Werten, Filtern von Arrays oder alles, was ein Skript kann. Eingabevariablen aus vorgelagerten Knoten stehen als lokale Variablen zur Verfügung.
Tipp: Code-Knoten laufen in einer Sandbox-Umgebung. Kein Netzwerkzugriff — nutze HTTP-Request-Knoten für externe Aufrufe.
Führe jeden REST-API-Aufruf durch — GET, POST, PUT, DELETE. Konfiguriere Header, Query-Parameter und Request-Body mit Workflow-Variablen. Die Antwort (JSON, Text oder roh) steht nachgelagerten Knoten zur Verfügung.
Tipp: Speichere sensible API-Schlüssel in Dify-Umgebungsvariablen, nicht hart kodiert in der Knotenconfig.
Bedingte Verzweigung. Werte einen beliebigen Ausdruck aus (Zeichenketten-Vergleich, numerischer Schwellwert, Regex-Übereinstimmung, Enthält-Prüfung) und leite den Workflow zu verschiedenen Zweigen. Du kannst mehrere "Else If"-Bedingungen für komplexe Routing-Logik hinzufügen.
Tipp: Nutze If/Else für Fehlerbehandlung — z. B. wenn die LLM-Konfidenz niedrig ist, leite zu einer Fallback-Antwort statt einem unsicheren Ergebnis.
Transformiere und formatiere Daten mit Jinja2-Templates. Kombiniere mehrere Variablen zu einem String, formatiere Daten, iteriere über Listen und wende bedingte Logik an — alles ohne einen vollständigen Code-Knoten.
Tipp: Ideal zum Erstellen dynamischer Prompts, die mehrere vorgelagerte Ausgaben kombinieren, bevor sie an einen LLM-Knoten weitergegeben werden.
Führe Ausgaben aus mehreren parallelen Zweigen in einer einzigen Variable zusammen. Unverzichtbar, wenn dein Workflow in parallele Pfade aufgeteilt wird (z. B. zwei verschiedene LLMs gleichzeitig aufrufen) und du die Ergebnisse vor dem End-Knoten zusammenführen musst.
Tipp: Nutze den "array"-Modus, um alle Zweig-Ausgaben in einer Liste zu sammeln, dann per Code-Knoten verarbeiten.
Der Abschluss-Knoten. Definiert, was der Workflow zurückgibt — eine oder mehrere Ausgabevariablen. Bei API-Auslösung werden diese Ausgaben in der JSON-Antwort zurückgegeben. Bei Verwendung in einem Chatflow wird der Inhalt des End-Knotens dem Nutzer angezeigt.
Tipp: Du kannst mehrere End-Knoten haben (einen pro If/Else-Zweig), um je nach Route unterschiedliche Ausgaben zurückzugeben.
Deinen ersten Workflow bauen
Lass uns einen einfachen Artikel-Zusammenfasser bauen — das klassische "Hello World" von KI-Pipelines. Er nimmt einen Artikeltext als Eingabe und gibt eine 3-Punkte-Zusammenfassung zurück.
Neue Workflow-App erstellen
Klicke im Dify Studio auf "+ App erstellen" → wähle "Workflow". Gib ihm einen Namen wie "Artikel-Zusammenfasser" und klicke auf Erstellen. Du landest auf dem Canvas mit einem leeren Start- und End-Knoten.
Start-Knoten konfigurieren
Klicke den Start-Knoten. Füge eine Eingabevariable hinzu: Nenne sie artikel_text, setze den Typ auf "Paragraph" (langer Text). Das ist das, was der Nutzer (oder API-Aufrufer) beim Auslösen des Workflows angeben wird.
LLM-Knoten hinzufügen
Klicke die "+" Schaltfläche auf dem Canvas. Füge einen LLM-Knoten hinzu. Wähle dein Modell (z. B. GPT-4o Mini). Gib in das User-Prompt-Feld ein: Fasse den folgenden Artikel in genau 3 Stichpunkten zusammen. Sei prägnant.
{{artikel_text}}
Start → LLM → End verbinden
Ziehe eine Verbindung vom Ausgabe-Handle des Start-Knotens zum Eingang des LLM-Knotens. Verbinde dann den LLM-Knoten-Ausgang mit dem End-Knoten. Der End-Knoten sollte die text-Variable des LLM-Knotens ausgeben.
Testen
Klicke in der oberen Leiste auf "Ausführen". Ein Testbereich erscheint rechts. Füge beliebigen Artikeltext in das artikel_text-Feld ein und klicke Ausführen. Du siehst die Ausgabe und vollständige Ausführungs-Trace — Knoten für Knoten, mit Token-Zählungen und Latenz.
Workflow vs. Chatbot vs. Agent — Wann was verwenden
Dify bietet drei App-Typen. Die richtige Wahl ist entscheidend — sie dienen grundlegend unterschiedlichen Anwendungsfällen.
| Merkmal | Workflow | Chatbot | Agent |
|---|---|---|---|
| Interaktionsmodell | Einzellauf: Eingabe → Ausgabe | Mehrstufiges Gespräch | Dynamische Tool-Auswahl |
| Determinismus | Hoch — feste Pipeline | Mittel — LLM entscheidet | Niedrig — Agent entscheidet |
| Ideal für | Automatisierung, Stapelverarbeitung | Kundensupport, Q&A | Recherche, Aufgabenerfüllung |
| Debuggbarkeit | Exzellent — vollständige Trace | Gut — Gesprächsprotokolle | Schwieriger — dynamische Schritte |
| API-auslösbar | Ja — REST-Endpunkt | Ja — Chat-API | Ja — Chat-API |
| Knowledge Retrieval | Ja — per Knoten | Ja — per Kontext | Ja — per Tool |
| Externe API-Aufrufe | Ja — HTTP-Request-Knoten | Eingeschränkt — per Plugin | Ja — per Tools |
| Parallele Ausführung | Ja — nativ unterstützt | Nein | Nein |
3 Praxisbeispiele für Workflows
Diese drei Pipelines decken die häufigsten realen Dify-Workflow-Muster ab. Jede ist kampfgetestet und produktionsreif.
Content-Zusammenfassungs-Pipeline
Nimmt beliebigen Artikeltext und erstellt eine strukturierte Zusammenfassung mit einer Überschrift, 3 Kernpunkten und einem Ein-Satz-Fazit. Nützlich für Content-Teams, Newsletter-Redakteure und Recherche-Assistenten.
LLM-Prompt: "Du bist ein Content-Redakteur. Erstelle aus dem folgenden Artikel: (1) eine packende Überschrift, (2) genau 3 Kernpunkte, (3) ein Ein-Satz-Fazit. Format als JSON. Artikel: {{artikel_text}}"
Kundensupport-Triage
Klassifiziert eingehende Support-Tickets nach Absicht (Abrechnung, Technik, Allgemein) und leitet jede Kategorie an eine spezialisierte LLM-Antwort weiter. Reduziert Eskalationen um 40-60% bei Teams, die es nutzen.
If/Else-Logik: Wenn absicht == "abrechnung" → Abrechnungs-LLM (kennt Preise, Rückerstattungsrichtlinie). Wenn absicht == "technik" → Tech-LLM (kennt Produktdokumentation). Sonst → allgemeines Support-LLM.
Dokument-Q&A-Pipeline
Nimmt eine Frage, ruft die relevantesten Dokumenten-Chunks aus deiner Wissensdatenbank ab und übergibt sie an ein LLM für eine fundierte, quellengestützte Antwort. Perfekt für Rechtsdokumente, technische Handbücher und interne Wikis.
LLM-Prompt: "Beantworte die Frage NUR mit dem bereitgestellten Kontext. Wenn die Antwort nicht im Kontext steht, sage es. Kontext: {{abgerufene_chunks}} — Frage: {{frage}}"
Workflows per API ausführen
Jeder veröffentlichte Dify Workflow bekommt automatisch einen REST-API-Endpunkt. So integrierst du Workflows in deine Anwendungen, löst sie aus Schedulern aus oder verbindest mehrere Workflows miteinander.
POST https://deine-dify-instanz/v1/workflows/run
curl -X POST 'https://deine-dify-instanz/v1/workflows/run' \
-H 'Authorization: Bearer DEIN_API_KEY' \
-H 'Content-Type: application/json' \
-d '{
"inputs": {
"artikel_text": "Dein Artikelinhalt hier..."
},
"response_mode": "blocking",
"user": "nutzer-123"
}' blocking
Wartet auf das vollständige Ergebnis. Optimal für kurze Workflows unter 30 Sekunden.
streaming
Gibt einen Server-Sent-Events-Stream zurück. Optimal für lange Workflows oder LLM-Streaming in eine UI.
Tipps für Produktions-Workflows
Einen Workflow einmal zum Laufen zu bringen ist einfach. Ihn zuverlässig im großen Maßstab auszuführen erfordert einige zusätzliche Überlegungen:
Strukturierte Ausgaben von LLM-Knoten verwenden
Aktiviere den JSON-Modus bei LLM-Knoten und definiere ein Schema. Das macht das Parsen durch nachgelagerte Code-Knoten zuverlässig und vermeidet halluziniertes Formatieren.
Fehlerbehandlung mit If/Else hinzufügen
Prüfe die Ausgabe kritischer Knoten vor dem Fortfahren. Wenn ein HTTP-Request einen 4xx-Status zurückgibt, leite zu einem Fehlerbehandlungs-Zweig statt die Daten stillschweigend zu korrumpieren.
LLM-Prompts fokussiert halten
In einem Workflow sollte jeder LLM-Knoten eine Sache gut machen. Vermeide "Mega-Prompts", die gleichzeitig klassifizieren, zusammenfassen und formatieren — teile sie in separate LLM-Knoten für bessere Zuverlässigkeit.
Token-Nutzung pro Workflow-Lauf überwachen
Dify protokolliert Token-Zählungen pro Knoten. Identifiziere deine teuersten Knoten und erwäge kleinere Modelle (z. B. GPT-4o Mini) für Klassifizierungsaufgaben, wo Schlussfolgerungstiefe weniger wichtig ist.
Modellversionen festpinnen
Wenn ein Workflow in Produktion ist, pinne auf eine bestimmte Modellversion (z. B. gpt-4o-2024-08-06) statt "latest". Modell-Updates können das Ausgabeverhalten still verändern.
Häufig gestellte Fragen
Was ist ein Dify Workflow?
Ein Dify Workflow ist eine visuelle, knotenbasierte KI-Pipeline. Du verbindest Knoten (LLM, Code, HTTP-Requests, Knowledge Retrieval, Bedingungen) auf einer Leinwand, um mehrstufige Aufgaben zu automatisieren. Im Gegensatz zu Chatbots laufen Workflows als feste Pipeline von Eingabe bis Ausgabe — ideal für Automatisierung und Stapelverarbeitung.
Wann sollte ich einen Workflow statt eines Chatbots verwenden?
Nutze Workflows für Automatisierungsaufgaben mit definierten Ein-/Ausgaben (Dokumente zusammenfassen, Daten verarbeiten, Triage). Nutze Chatbots für offene Gespräche. Nutze Agenten für dynamische Tool-Auswahl. Workflows sind deterministisch und leichter zu debuggen.
Können Dify Workflows automatisch nach Zeitplan ausgeführt werden?
Dify Workflows können per API ausgelöst werden, die du von jedem Scheduler (cron, n8n, Zapier, GitHub Actions) aufrufen kannst. Dify selbst hat keinen eingebauten Scheduler, aber die API-Trigger macht Zeitplanung mit externen Tools einfach.
Können Dify Workflows externe APIs aufrufen?
Ja. Der HTTP-Request-Knoten lässt deinen Workflow jede REST-API aufrufen — Daten von externen Diensten abrufen, Webhooks senden, Drittanbieter-Plattformen ansprechen. Kombiniere es mit Code-Knoten, um API-Antworten vor der LLM-Weitergabe zu transformieren.
Dify hosten und Workflows bauen
Dify Workflows laufen am besten auf einer selbst gehosteten Instanz, wo du die Rechenleistung kontrollierst, keine Kreditlimits hast und unbegrenzte Workflow-Läufe verarbeiten kannst. Starte für nur €3,79/Monat auf Hetzner oder nutze ein Ein-Klick-Managed-Deployment auf Elestio.