Aktualisiert März 2026 Workflow Builder No-Code

Dify Workflows Anleitung 2026: KI-Automatisierungs-Pipelines bauen

Dify Workflows sind visuelle, knotenbasierte KI-Pipelines, mit denen du LLMs, Datenbanken, APIs und Code per Drag-and-Drop verbindest. Diese Anleitung erklärt jeden Knotentyp, führt dich durch den Aufbau deines ersten Workflows und zeigt drei praxiserprobte Pipeline-Beispiele.

Was sind Dify Workflows?

Ein Dify Workflow ist ein visueller Pipeline-Builder, mit dem du Knoten verknüpfst, um mehrstufige KI-Aufgaben zu automatisieren. Stelle es dir wie n8n oder Zapier vor — aber KI-nativ gebaut, mit erstklassigen Knoten zum Aufrufen von LLMs, Durchsuchen von Wissensdatenbanken und Verarbeiten strukturierter Ausgaben.

Im Gegensatz zu einem Chatbot (der gesprächsweise Runde für Runde antwortet) führt ein Workflow eine feste Pipeline von einem definierten Eingang bis zu einem definierten Ausgang aus. Du startest ihn, er führt jeden Knoten in Reihenfolge (oder parallel) aus und liefert ein Ergebnis. Das macht Workflows ideal für Automatisierung, Dokumentenverarbeitung, Datenanreicherung und jeden Prozess, der deterministisch ablaufen soll.

Intern nutzen Dify Workflows eine gerichtete azyklische Graph-Engine (DAG). Jeder Knoten empfängt Ausgaben von vorgelagerten Knoten als Variablen, verarbeitet sie und gibt Ergebnisse weiter. Du bekommst vollständige Beobachtbarkeit — Ausführungsprotokolle, Latenz pro Knoten, Token-Zählungen — alles eingebaut.

Visueller Drag-and-Drop-Canvas
KI-native LLM-Knoten
RAG Knowledge Retrieval integriert
Python & JavaScript Code-Knoten
HTTP-Request an jede externe API
Bedingte Verzweigung (If/Else)
Vollständige Ausführungs-Observability
REST-API-Trigger für Automatisierung

Kern-Knotentypen

Jeder Dify Workflow wird aus diesen grundlegenden Knotentypen aufgebaut. Das Verständnis jedes einzelnen ist der Schlüssel zur Entwicklung effektiver Pipelines.

Start

Der Einstiegspunkt jedes Workflows. Hier definierst du die Eingabevariablen — zum Beispiel ein Textfeld namens artikel_text, einen Datei-Upload oder eine URL. Alle nachfolgenden Knoten können auf diese Variablen zugreifen.

Tipp: Halte Eingaben minimal und typisiert. Nutze "text" für Zeichenketten, "number" für numerische Eingaben, "select" für Dropdowns.

LLM

Der zentrale KI-Knoten. Er ruft jedes konfigurierte Modell (GPT-4o, Claude, Gemini, Llama usw.) mit einem System-Prompt und User-Prompt auf. Variablen aus vorgelagerten Knoten kannst du mit {{variablen_name}} einbinden.

Tipp: Nutze den Structured-Output-Modus (JSON-Schema), wenn nachgelagerte Knoten die LLM-Antwort programmatisch parsen müssen.

Knowledge Retrieval

Durchsucht deine Dify-Wissensdatenbanken per Vektorähnlichkeit (RAG). Übergib eine Suchanfrage und erhalte die relevantesten Dokumenten-Chunks zurück. Verbinde den abgerufenen Kontext mit einem LLM-Knoten für fundierte, faktische Antworten.

Tipp: Stelle den Top-K-Parameter (wie viele Chunks abgerufen werden) basierend auf deinem Kontextfenster ein. 3-5 ist meist optimal.

Code

Führe Python oder JavaScript direkt im Workflow aus. Nutze es zum Parsen von JSON, Transformieren von Zeichenketten, Berechnen von Werten, Filtern von Arrays oder alles, was ein Skript kann. Eingabevariablen aus vorgelagerten Knoten stehen als lokale Variablen zur Verfügung.

Tipp: Code-Knoten laufen in einer Sandbox-Umgebung. Kein Netzwerkzugriff — nutze HTTP-Request-Knoten für externe Aufrufe.

HTTP Request

Führe jeden REST-API-Aufruf durch — GET, POST, PUT, DELETE. Konfiguriere Header, Query-Parameter und Request-Body mit Workflow-Variablen. Die Antwort (JSON, Text oder roh) steht nachgelagerten Knoten zur Verfügung.

Tipp: Speichere sensible API-Schlüssel in Dify-Umgebungsvariablen, nicht hart kodiert in der Knotenconfig.

If/Else

Bedingte Verzweigung. Werte einen beliebigen Ausdruck aus (Zeichenketten-Vergleich, numerischer Schwellwert, Regex-Übereinstimmung, Enthält-Prüfung) und leite den Workflow zu verschiedenen Zweigen. Du kannst mehrere "Else If"-Bedingungen für komplexe Routing-Logik hinzufügen.

Tipp: Nutze If/Else für Fehlerbehandlung — z. B. wenn die LLM-Konfidenz niedrig ist, leite zu einer Fallback-Antwort statt einem unsicheren Ergebnis.

Template Transform

Transformiere und formatiere Daten mit Jinja2-Templates. Kombiniere mehrere Variablen zu einem String, formatiere Daten, iteriere über Listen und wende bedingte Logik an — alles ohne einen vollständigen Code-Knoten.

Tipp: Ideal zum Erstellen dynamischer Prompts, die mehrere vorgelagerte Ausgaben kombinieren, bevor sie an einen LLM-Knoten weitergegeben werden.

Variable Aggregator

Führe Ausgaben aus mehreren parallelen Zweigen in einer einzigen Variable zusammen. Unverzichtbar, wenn dein Workflow in parallele Pfade aufgeteilt wird (z. B. zwei verschiedene LLMs gleichzeitig aufrufen) und du die Ergebnisse vor dem End-Knoten zusammenführen musst.

Tipp: Nutze den "array"-Modus, um alle Zweig-Ausgaben in einer Liste zu sammeln, dann per Code-Knoten verarbeiten.

End

Der Abschluss-Knoten. Definiert, was der Workflow zurückgibt — eine oder mehrere Ausgabevariablen. Bei API-Auslösung werden diese Ausgaben in der JSON-Antwort zurückgegeben. Bei Verwendung in einem Chatflow wird der Inhalt des End-Knotens dem Nutzer angezeigt.

Tipp: Du kannst mehrere End-Knoten haben (einen pro If/Else-Zweig), um je nach Route unterschiedliche Ausgaben zurückzugeben.

Deinen ersten Workflow bauen

Lass uns einen einfachen Artikel-Zusammenfasser bauen — das klassische "Hello World" von KI-Pipelines. Er nimmt einen Artikeltext als Eingabe und gibt eine 3-Punkte-Zusammenfassung zurück.

1

Neue Workflow-App erstellen

Klicke im Dify Studio auf "+ App erstellen" → wähle "Workflow". Gib ihm einen Namen wie "Artikel-Zusammenfasser" und klicke auf Erstellen. Du landest auf dem Canvas mit einem leeren Start- und End-Knoten.

2

Start-Knoten konfigurieren

Klicke den Start-Knoten. Füge eine Eingabevariable hinzu: Nenne sie artikel_text, setze den Typ auf "Paragraph" (langer Text). Das ist das, was der Nutzer (oder API-Aufrufer) beim Auslösen des Workflows angeben wird.

3

LLM-Knoten hinzufügen

Klicke die "+" Schaltfläche auf dem Canvas. Füge einen LLM-Knoten hinzu. Wähle dein Modell (z. B. GPT-4o Mini). Gib in das User-Prompt-Feld ein: Fasse den folgenden Artikel in genau 3 Stichpunkten zusammen. Sei prägnant. {{artikel_text}}

4

Start → LLM → End verbinden

Ziehe eine Verbindung vom Ausgabe-Handle des Start-Knotens zum Eingang des LLM-Knotens. Verbinde dann den LLM-Knoten-Ausgang mit dem End-Knoten. Der End-Knoten sollte die text-Variable des LLM-Knotens ausgeben.

5

Testen

Klicke in der oberen Leiste auf "Ausführen". Ein Testbereich erscheint rechts. Füge beliebigen Artikeltext in das artikel_text-Feld ein und klicke Ausführen. Du siehst die Ausgabe und vollständige Ausführungs-Trace — Knoten für Knoten, mit Token-Zählungen und Latenz.

Was du gebaut hast: Start (artikel_text Eingabe) → LLM (Zusammenfassungs-Prompt) → End (3-Punkte-Zusammenfassung). Dieses Muster lässt sich auf jede Text-ein, Text-aus Pipeline skalieren.

Workflow vs. Chatbot vs. Agent — Wann was verwenden

Dify bietet drei App-Typen. Die richtige Wahl ist entscheidend — sie dienen grundlegend unterschiedlichen Anwendungsfällen.

Merkmal Workflow Chatbot Agent
Interaktionsmodell Einzellauf: Eingabe → Ausgabe Mehrstufiges Gespräch Dynamische Tool-Auswahl
Determinismus Hoch — feste Pipeline Mittel — LLM entscheidet Niedrig — Agent entscheidet
Ideal für Automatisierung, Stapelverarbeitung Kundensupport, Q&A Recherche, Aufgabenerfüllung
Debuggbarkeit Exzellent — vollständige Trace Gut — Gesprächsprotokolle Schwieriger — dynamische Schritte
API-auslösbar Ja — REST-Endpunkt Ja — Chat-API Ja — Chat-API
Knowledge Retrieval Ja — per Knoten Ja — per Kontext Ja — per Tool
Externe API-Aufrufe Ja — HTTP-Request-Knoten Eingeschränkt — per Plugin Ja — per Tools
Parallele Ausführung Ja — nativ unterstützt Nein Nein
Faustregel: Wenn der Prozess jedes Mal gleich ist und du ein Flussdiagramm davon zeichnen kannst, nutze einen Workflow. Wenn Nutzer Hin-und-Her-Gespräche brauchen, nutze einen Chatbot. Wenn die KI selbst entscheiden soll, welche Tools sie einsetzt, nutze einen Agenten.

3 Praxisbeispiele für Workflows

Diese drei Pipelines decken die häufigsten realen Dify-Workflow-Muster ab. Jede ist kampfgetestet und produktionsreif.

Beispiel 1

Content-Zusammenfassungs-Pipeline

Nimmt beliebigen Artikeltext und erstellt eine strukturierte Zusammenfassung mit einer Überschrift, 3 Kernpunkten und einem Ein-Satz-Fazit. Nützlich für Content-Teams, Newsletter-Redakteure und Recherche-Assistenten.

Start (artikel_text) LLM (zusammenfassen + strukturieren) End (Zusammenfassung)

LLM-Prompt: "Du bist ein Content-Redakteur. Erstelle aus dem folgenden Artikel: (1) eine packende Überschrift, (2) genau 3 Kernpunkte, (3) ein Ein-Satz-Fazit. Format als JSON. Artikel: {{artikel_text}}"

Beispiel 2

Kundensupport-Triage

Klassifiziert eingehende Support-Tickets nach Absicht (Abrechnung, Technik, Allgemein) und leitet jede Kategorie an eine spezialisierte LLM-Antwort weiter. Reduziert Eskalationen um 40-60% bei Teams, die es nutzen.

Start (ticket_text) LLM (Absicht klassifizieren) If/Else (nach Kategorie routen) LLM (spezialisierte Antwort) End

If/Else-Logik: Wenn absicht == "abrechnung" → Abrechnungs-LLM (kennt Preise, Rückerstattungsrichtlinie). Wenn absicht == "technik" → Tech-LLM (kennt Produktdokumentation). Sonst → allgemeines Support-LLM.

Beispiel 3

Dokument-Q&A-Pipeline

Nimmt eine Frage, ruft die relevantesten Dokumenten-Chunks aus deiner Wissensdatenbank ab und übergibt sie an ein LLM für eine fundierte, quellengestützte Antwort. Perfekt für Rechtsdokumente, technische Handbücher und interne Wikis.

Start (frage) Knowledge Retrieval (Top-5-Chunks) LLM (Antwort mit Kontext) End (Antwort)

LLM-Prompt: "Beantworte die Frage NUR mit dem bereitgestellten Kontext. Wenn die Antwort nicht im Kontext steht, sage es. Kontext: {{abgerufene_chunks}} — Frage: {{frage}}"

Workflows per API ausführen

Jeder veröffentlichte Dify Workflow bekommt automatisch einen REST-API-Endpunkt. So integrierst du Workflows in deine Anwendungen, löst sie aus Schedulern aus oder verbindest mehrere Workflows miteinander.

POST https://deine-dify-instanz/v1/workflows/run

curl -X POST 'https://deine-dify-instanz/v1/workflows/run' \
  -H 'Authorization: Bearer DEIN_API_KEY' \
  -H 'Content-Type: application/json' \
  -d '{
    "inputs": {
      "artikel_text": "Dein Artikelinhalt hier..."
    },
    "response_mode": "blocking",
    "user": "nutzer-123"
  }'

blocking

Wartet auf das vollständige Ergebnis. Optimal für kurze Workflows unter 30 Sekunden.

streaming

Gibt einen Server-Sent-Events-Stream zurück. Optimal für lange Workflows oder LLM-Streaming in eine UI.

Tipps für Produktions-Workflows

Einen Workflow einmal zum Laufen zu bringen ist einfach. Ihn zuverlässig im großen Maßstab auszuführen erfordert einige zusätzliche Überlegungen:

Strukturierte Ausgaben von LLM-Knoten verwenden

Aktiviere den JSON-Modus bei LLM-Knoten und definiere ein Schema. Das macht das Parsen durch nachgelagerte Code-Knoten zuverlässig und vermeidet halluziniertes Formatieren.

Fehlerbehandlung mit If/Else hinzufügen

Prüfe die Ausgabe kritischer Knoten vor dem Fortfahren. Wenn ein HTTP-Request einen 4xx-Status zurückgibt, leite zu einem Fehlerbehandlungs-Zweig statt die Daten stillschweigend zu korrumpieren.

LLM-Prompts fokussiert halten

In einem Workflow sollte jeder LLM-Knoten eine Sache gut machen. Vermeide "Mega-Prompts", die gleichzeitig klassifizieren, zusammenfassen und formatieren — teile sie in separate LLM-Knoten für bessere Zuverlässigkeit.

Token-Nutzung pro Workflow-Lauf überwachen

Dify protokolliert Token-Zählungen pro Knoten. Identifiziere deine teuersten Knoten und erwäge kleinere Modelle (z. B. GPT-4o Mini) für Klassifizierungsaufgaben, wo Schlussfolgerungstiefe weniger wichtig ist.

Modellversionen festpinnen

Wenn ein Workflow in Produktion ist, pinne auf eine bestimmte Modellversion (z. B. gpt-4o-2024-08-06) statt "latest". Modell-Updates können das Ausgabeverhalten still verändern.

Häufig gestellte Fragen

Was ist ein Dify Workflow?

Ein Dify Workflow ist eine visuelle, knotenbasierte KI-Pipeline. Du verbindest Knoten (LLM, Code, HTTP-Requests, Knowledge Retrieval, Bedingungen) auf einer Leinwand, um mehrstufige Aufgaben zu automatisieren. Im Gegensatz zu Chatbots laufen Workflows als feste Pipeline von Eingabe bis Ausgabe — ideal für Automatisierung und Stapelverarbeitung.

Wann sollte ich einen Workflow statt eines Chatbots verwenden?

Nutze Workflows für Automatisierungsaufgaben mit definierten Ein-/Ausgaben (Dokumente zusammenfassen, Daten verarbeiten, Triage). Nutze Chatbots für offene Gespräche. Nutze Agenten für dynamische Tool-Auswahl. Workflows sind deterministisch und leichter zu debuggen.

Können Dify Workflows automatisch nach Zeitplan ausgeführt werden?

Dify Workflows können per API ausgelöst werden, die du von jedem Scheduler (cron, n8n, Zapier, GitHub Actions) aufrufen kannst. Dify selbst hat keinen eingebauten Scheduler, aber die API-Trigger macht Zeitplanung mit externen Tools einfach.

Können Dify Workflows externe APIs aufrufen?

Ja. Der HTTP-Request-Knoten lässt deinen Workflow jede REST-API aufrufen — Daten von externen Diensten abrufen, Webhooks senden, Drittanbieter-Plattformen ansprechen. Kombiniere es mit Code-Knoten, um API-Antworten vor der LLM-Weitergabe zu transformieren.

Dify hosten und Workflows bauen

Dify Workflows laufen am besten auf einer selbst gehosteten Instanz, wo du die Rechenleistung kontrollierst, keine Kreditlimits hast und unbegrenzte Workflow-Läufe verarbeiten kannst. Starte für nur €3,79/Monat auf Hetzner oder nutze ein Ein-Klick-Managed-Deployment auf Elestio.

Auf Hetzner deployen → Ein-Klick auf Elestio → Alle Hosting-Optionen vergleichen