Guida Workflow Dify 2026: Costruisci pipeline di automazione IA
I Workflow Dify sono pipeline IA visive basate su nodi che ti permettono di connettere LLM, database, API e codice in un canvas drag-and-drop. Questa guida copre ogni tipo di nodo, ti guida nella costruzione del tuo primo workflow e mostra tre esempi di pipeline pronti per la produzione.
Cosa sono i Workflow Dify?
Un Workflow Dify è un costruttore di pipeline visivo dove concateni nodi per automatizzare attività IA multi-step. Pensalo come n8n o Zapier — ma costruito nativamente per l'IA, con nodi di prima classe per chiamare LLM, cercare basi di conoscenza e gestire output strutturati.
A differenza di un Chatbot (che risponde conversazionalmente turno per turno), un Workflow esegue una pipeline fissa da un input definito a un output definito. Lo attivi, esegue ogni nodo in sequenza (o in parallelo), e restituisce un risultato. Questo rende i workflow ideali per automazione, elaborazione di documenti, arricchimento dati e qualsiasi attività dove il processo è deterministico.
Internamente, i Workflow Dify usano un motore di esecuzione a grafo aciclico diretto (DAG). Ogni nodo riceve output dai nodi a monte come variabili, li elabora e passa i risultati a valle. Hai piena osservabilità — log di esecuzione, latenza per nodo, conteggio token — tutto integrato.
Tipi di nodi principali
Ogni Workflow Dify è costruito da questi tipi di nodi fondamentali. Comprendere ognuno è la chiave per progettare pipeline efficaci.
Il punto di ingresso di ogni workflow. Definisci le variabili di input qui — ad esempio un campo testo chiamato testo_articolo, un upload di file o un URL. Tutti i nodi successivi possono riferire queste variabili.
Consiglio: Mantieni gli input minimi e tipizzati. Usa "text" per le stringhe, "number" per input numerici, "select" per dropdown.
Il nodo IA centrale. Chiama qualsiasi modello configurato (GPT-4o, Claude, Gemini, Llama, ecc.) con un system prompt e un user prompt. Puoi iniettare variabili da qualsiasi nodo a monte usando la sintassi {{nome_variabile}}.
Consiglio: Usa la modalità output strutturato (schema JSON) quando i nodi a valle devono parsare la risposta LLM programmaticamente.
Cerca nelle tue Knowledge Base Dify tramite similarità vettoriale (RAG). Passa una stringa di query e ottieni i chunk di documenti più rilevanti. Connetti il contesto recuperato a un nodo LLM per risposte fattuali e fondate.
Consiglio: Imposta il parametro top-K (quanti chunk recuperare) in base al tuo budget di finestra di contesto. 3-5 è generalmente ottimale.
Esegui Python o JavaScript direttamente nel workflow. Usalo per parsare JSON, trasformare stringhe, calcolare valori, filtrare array, o qualsiasi cosa uno script possa fare. Le variabili di input dai nodi a monte sono disponibili come variabili locali.
Consiglio: I nodi Code girano in un ambiente sandbox. Nessun accesso di rete — usa nodi HTTP Request per chiamate esterne.
Effettua qualsiasi chiamata API REST — GET, POST, PUT, DELETE. Configura header, parametri di query e corpo della richiesta usando variabili del workflow. La risposta (JSON, testo o raw) è disponibile per i nodi a valle.
Consiglio: Archivia le chiavi API sensibili nelle variabili di ambiente Dify, non hardcoded nella config del nodo.
Diramazione condizionale. Valuta qualsiasi espressione (confronto di stringa, soglia numerica, corrispondenza regex, verifica di contenuto) e instrada il workflow verso diversi rami. Puoi aggiungere più condizioni "Else If" per logica di routing complessa.
Consiglio: Usa If/Else per gestire i casi di errore — es. se la confidenza del LLM è bassa, instrada verso una risposta di fallback invece di restituire un'ipotesi.
Trasforma e formatta dati con template Jinja2. Combina più variabili in una singola stringa, formatta date, itera su liste e applica logica condizionale — senza scrivere un nodo Code completo.
Consiglio: Ottimo per costruire prompt dinamici che combinano più output a monte prima di passarli a un nodo LLM.
Unisce output da più rami paralleli in una singola variabile. Essenziale quando il tuo workflow si divide in percorsi paralleli (es. chiamare due LLM diversi simultaneamente) e devi combinare i risultati prima del nodo End.
Consiglio: Usa la modalità "array" per raccogliere tutti gli output dei rami in una lista, poi elabora con un nodo Code.
Il nodo terminale. Definisce cosa il workflow restituisce — una o più variabili di output. Quando attivato via API, questi output sono restituiti nella risposta JSON. Quando usato in un Chatflow, il contenuto del nodo End viene mostrato all'utente.
Consiglio: Puoi avere più nodi End (uno per ramo If/Else) per restituire output diversi in base al percorso di routing intrapreso.
Costruisci il tuo primo Workflow
Costruiamo un semplice riepilogatore di articoli — il classico "Hello World" delle pipeline IA. Prende un testo articolo come input e restituisce un riassunto in 3 punti.
Crea una nuova app Workflow
In Dify Studio, fai clic su "+ Crea App" → seleziona "Workflow". Dagli un nome come "Riepilogatore di articoli" e fai clic su Crea. Atterrerai sul canvas con un nodo Start e End vuoti.
Configura il nodo Start
Fai clic sul nodo Start. Aggiungi una variabile di input: chiamala testo_articolo, imposta il tipo su "Paragraph" (testo lungo). Questo è ciò che l'utente (o il chiamante API) fornirà quando attiva il workflow.
Aggiungi un nodo LLM
Fai clic sul pulsante "+" nel canvas. Aggiungi un nodo LLM. Seleziona il tuo modello (es. GPT-4o Mini). Nel campo user prompt, scrivi: Riassumi il seguente articolo in esattamente 3 punti. Sii conciso.
{{testo_articolo}}
Connetti Start → LLM → End
Trascina una connessione dall'handle di output del nodo Start all'input del nodo LLM. Poi connetti l'output del nodo LLM al nodo End. Il nodo End deve produrre la variabile text del nodo LLM.
Testalo
Fai clic su "Esegui" nella barra in alto. Un pannello di test appare a destra. Incolla qualsiasi testo articolo nel campo testo_articolo e fai clic su Esegui. Vedrai l'output e la traccia completa di esecuzione — nodo per nodo, con conteggi token e latenza.
Workflow vs Chatbot vs Agent — Quando usare ciascuno
Dify offre tre tipi di applicazioni. Scegliere quello giusto è importante — servono casi d'uso fondamentalmente diversi.
| Caratteristica | Workflow | Chatbot | Agent |
|---|---|---|---|
| Modello di interazione | Esecuzione singola: input → output | Conversazione multi-turno | Selezione dinamica di strumenti |
| Determinismo | Alto — pipeline fissa | Medio — LLM decide | Basso — agente decide |
| Ideale per | Automazione, elaborazione batch | Supporto clienti, Q&A | Ricerca, completamento attività |
| Debuggabilità | Eccellente — traccia completa | Buona — log conversazione | Più difficile — passi dinamici |
| Attivabile via API | Sì — endpoint REST | Sì — API chat | Sì — API chat |
| Recupero conoscenza | Sì — tramite nodo | Sì — tramite contesto | Sì — tramite strumento |
| Chiamate API esterne | Sì — nodo HTTP Request | Limitato — tramite plugin | Sì — tramite strumenti |
| Esecuzione parallela | Sì — supporto nativo | No | No |
3 esempi pratici di Workflow
Questi tre pipeline coprono i pattern di Workflow Dify più comuni nel mondo reale. Ognuno è testato in battaglia e pronto per la produzione.
Pipeline di riepilogo contenuti
Prende qualsiasi testo articolo e produce un riassunto strutturato con un titolo, 3 punti chiave e una frase conclusiva. Utile per team di contenuto, editor di newsletter e assistenti di ricerca.
Prompt LLM: "Sei un editor di contenuti. Dall'articolo seguente, restituisci: (1) un titolo accattivante, (2) esattamente 3 punti chiave, (3) una frase conclusiva. Formato JSON. Articolo: {{testo_articolo}}"
Triage del supporto clienti
Classifica i ticket di supporto in arrivo per intenzione (fatturazione, tecnico, generale), poi instrada ogni categoria verso una risposta LLM specializzata. Riduce le escalation del 40-60% per i team che lo usano.
Logica If/Else: Se intenzione == "fatturazione" → LLM fatturazione (conosce prezzi, politica rimborsi). Se intenzione == "tecnico" → LLM tecnico (conosce docs prodotto). Altrimenti → LLM supporto generale.
Pipeline Q&A su documenti
Prende una domanda, recupera i chunk di documenti più rilevanti dalla tua knowledge base, poi li passa a un LLM per una risposta fondata con citazioni. Perfetto per documenti legali, manuali tecnici e wiki interni.
Prompt LLM: "Rispondi alla domanda usando SOLO il contesto fornito. Se la risposta non è nel contesto, dillo. Contesto: {{chunk_recuperati}} — Domanda: {{domanda}}"
Eseguire Workflow via API
Ogni Workflow Dify pubblicato ottiene automaticamente un endpoint API REST. Così integri i workflow nelle tue applicazioni, li attivi da scheduler, o concateni più workflow insieme.
POST https://tua-istanza-dify/v1/workflows/run
curl -X POST 'https://tua-istanza-dify/v1/workflows/run' \
-H 'Authorization: Bearer LA_TUA_CHIAVE_API' \
-H 'Content-Type: application/json' \
-d '{
"inputs": {
"testo_articolo": "Il contenuto del tuo articolo qui..."
},
"response_mode": "blocking",
"user": "utente-123"
}' blocking
Attende il risultato completo prima di rispondere. Ideale per workflow brevi sotto i 30 secondi.
streaming
Restituisce un flusso Server-Sent Events. Ideale per workflow lunghi o streaming output LLM verso una UI.
Consigli per i Workflow in produzione
Far funzionare un workflow una volta è semplice. Farlo girare in modo affidabile su larga scala richiede alcune considerazioni aggiuntive:
Usare output strutturati dai nodi LLM
Abilita la modalità JSON sui tuoi nodi LLM e definisci uno schema. Questo rende il parsing da parte dei nodi Code a valle affidabile ed elimina la formattazione allucinata.
Aggiungere gestione degli errori con If/Else
Verifica l'output dei nodi critici prima di procedere. Se una richiesta HTTP restituisce uno stato 4xx, instrada verso un ramo di gestione errori invece di lasciare che i dati corrompano silenziosamente i passi successivi.
Mantenere i prompt LLM focalizzati
In un workflow, ogni nodo LLM dovrebbe fare bene una cosa. Evita i "mega-prompt" che cercano di classificare, riassumere e formattare in una singola chiamata — dividili in nodi LLM separati per maggiore affidabilità.
Monitorare l'utilizzo token per esecuzione
Dify registra i conteggi token per nodo. Identifica i tuoi nodi più costosi e considera l'uso di modelli più piccoli (es. GPT-4o Mini) per attività di classificazione dove la profondità di ragionamento è meno importante.
Fissare le versioni dei modelli
Quando un workflow è in produzione, fissa una versione specifica del modello (es. gpt-4o-2024-08-06) invece di "latest". Gli aggiornamenti dei modelli possono modificare silenziosamente il comportamento dell'output.
Domande frequenti
Cos'è un Workflow Dify?
Un Workflow Dify è una pipeline IA visiva basata su nodi. Connetti nodi (LLM, codice, richieste HTTP, recupero conoscenza, condizioni) su un canvas per automatizzare attività multi-step. A differenza dei chatbot, i workflow eseguono una pipeline fissa dall'input all'output — ideale per l'automazione e l'elaborazione batch.
Quando usare un Workflow invece di un Chatbot?
Usa un Workflow per attività di automazione con input/output definiti (riepilogare documenti, elaborare dati, triage). Usa un Chatbot per conversazioni aperte. Usa un Agente per la selezione dinamica degli strumenti. I Workflow sono deterministici e più facili da debuggare.
I Workflow Dify possono essere eseguiti automaticamente?
I Workflow Dify possono essere attivati via API, che puoi chiamare da qualsiasi scheduler (cron, n8n, Zapier, GitHub Actions). Dify non ha uno scheduler integrato, ma il trigger API rende semplice la pianificazione con strumenti esterni.
I Workflow Dify possono chiamare API esterne?
Sì. Il nodo HTTP Request permette al tuo workflow di chiamare qualsiasi API REST — recuperare dati da servizi esterni, inviare webhook, interagire con piattaforme di terze parti. Combinalo con nodi Code per trasformare le risposte API prima di passarle all'LLM.
Ospita Dify e inizia a costruire Workflow
I Workflow Dify funzionano meglio su un'istanza self-hosted dove controlli il calcolo, non hai limiti di crediti e puoi elaborare esecuzioni di workflow illimitate. Inizia da €3,79/mese su Hetzner, o usa un deployment gestito in un clic su Elestio.