Atualizado em março de 2026 Workflow Builder No-Code

Guia de Workflows Dify 2026: Construir Pipelines de Automação com IA

Os workflows Dify são pipelines de IA visuais baseados em nós que permitem conectar LLMs, bancos de dados, APIs e código por arrastar e soltar. Este guia explica cada tipo de nó, orienta você na criação do seu primeiro workflow e mostra três exemplos de pipeline testados na prática.

O que são workflows Dify?

Um workflow Dify é um construtor de pipeline visual que permite conectar nós para automatizar tarefas de IA em múltiplas etapas. Pense nele como n8n ou Zapier — mas construído nativamente para IA, com nós de primeira classe para chamar LLMs, pesquisar bases de conhecimento e processar saídas estruturadas.

Ao contrário de um chatbot (que responde conversacionalmente rodada a rodada), um workflow executa um pipeline fixo de uma entrada definida até uma saída definida. Você o aciona, ele executa cada nó em sequência (ou em paralelo) e entrega um resultado. Isso torna os workflows ideais para automação, processamento de documentos, enriquecimento de dados e qualquer processo que deva rodar de forma determinística.

Internamente, os workflows Dify usam um mecanismo de grafo acíclico dirigido (DAG). Cada nó recebe saídas de nós anteriores como variáveis, as processa e passa os resultados adiante. Você tem observabilidade completa — logs de execução, latência por nó, contagens de tokens — tudo integrado.

Canvas visual de arrastar e soltar
Nós LLM nativos de IA
Knowledge Retrieval RAG integrado
Nós de código Python e JavaScript
Requisição HTTP para qualquer API externa
Ramificação condicional (If/Else)
Observabilidade completa de execução
Gatilho de API REST para automação

Tipos de nós principais

Cada workflow Dify é construído com esses tipos fundamentais de nós. Entender cada um é a chave para desenvolver pipelines eficazes.

Início

O ponto de entrada de cada workflow. Aqui você define as variáveis de entrada — por exemplo, um campo de texto chamado texto_artigo, upload de arquivo ou URL. Todos os nós seguintes podem acessar essas variáveis.

Dica: Mantenha as entradas mínimas e tipadas. Use "text" para strings, "number" para entradas numéricas, "select" para dropdowns.

LLM

O nó de IA central. Ele chama qualquer modelo configurado (GPT-4o, Claude, Gemini, Llama etc.) com um prompt de sistema e prompt de usuário. Variáveis de nós anteriores podem ser incluídas com {{nome_variavel}}.

Dica: Use o modo de saída estruturada (schema JSON) quando nós posteriores precisarem analisar programaticamente a resposta do LLM.

Knowledge Retrieval

Pesquisa suas bases de conhecimento Dify por similaridade vetorial (RAG). Passe uma consulta e receba os chunks de documento mais relevantes de volta. Conecte o contexto recuperado a um nó LLM para respostas fundamentadas e factuais.

Dica: Ajuste o parâmetro Top-K (quantos chunks são recuperados) com base na sua janela de contexto. 3-5 é geralmente ótimo.

Código

Execute Python ou JavaScript diretamente no workflow. Use-o para analisar JSON, transformar strings, calcular valores, filtrar arrays ou qualquer coisa que um script possa fazer. Variáveis de entrada de nós anteriores estão disponíveis como variáveis locais.

Dica: Os nós de código rodam em um ambiente sandbox. Sem acesso à rede — use nós de Requisição HTTP para chamadas externas.

Requisição HTTP

Execute qualquer chamada de API REST — GET, POST, PUT, DELETE. Configure cabeçalhos, parâmetros de consulta e corpo da requisição com variáveis do workflow. A resposta (JSON, texto ou bruta) fica disponível para nós posteriores.

Dica: Armazene chaves de API sensíveis em variáveis de ambiente do Dify, não codificadas diretamente na configuração do nó.

If/Else

Ramificação condicional. Avalie qualquer expressão (comparação de string, limite numérico, correspondência de regex, verificação de contenção) e direcione o workflow para diferentes ramificações. Você pode adicionar múltiplas condições "Else If" para lógica de roteamento complexa.

Dica: Use If/Else para tratamento de erros — por exemplo, se a confiança do LLM for baixa, direcione para uma resposta alternativa em vez de um resultado incerto.

Template Transform

Transforme e formate dados com templates Jinja2. Combine múltiplas variáveis em uma string, formate dados, itere sobre listas e aplique lógica condicional — tudo sem um nó de código completo.

Dica: Ideal para criar prompts dinâmicos que combinam múltiplas saídas anteriores antes de passá-las a um nó LLM.

Variable Aggregator

Mescle saídas de múltiplas ramificações paralelas em uma única variável. Essencial quando seu workflow se divide em caminhos paralelos (ex.: chamar dois LLMs diferentes simultaneamente) e você precisa combinar os resultados antes do nó final.

Dica: Use o modo "array" para coletar todas as saídas de ramificação em uma lista, então processe com nó de código.

Fim

O nó de conclusão. Define o que o workflow retorna — uma ou mais variáveis de saída. Quando acionado via API, essas saídas são retornadas na resposta JSON. Quando usado em um chatflow, o conteúdo do nó Fim é exibido ao usuário.

Dica: Você pode ter múltiplos nós Fim (um por ramificação If/Else) para retornar saídas diferentes dependendo da rota.

Construir seu primeiro workflow

Vamos construir um resumidor simples de artigos — o clássico "Hello World" de pipelines de IA. Ele recebe um texto de artigo como entrada e retorna um resumo de 3 pontos.

1

Criar novo app de Workflow

No Dify Studio, clique em "+ Criar App" → selecione "Workflow". Dê um nome como "Resumidor de Artigos" e clique em Criar. Você chegará ao canvas com nós de Início e Fim vazios.

2

Configurar o nó Início

Clique no nó Início. Adicione uma variável de entrada: nomeie-a texto_artigo, defina o tipo como "Parágrafo" (texto longo). Isso é o que o usuário (ou chamador de API) fornecerá ao acionar o workflow.

3

Adicionar nó LLM

Clique no botão "+" no canvas. Adicione um nó LLM. Escolha seu modelo (ex.: GPT-4o Mini). No campo de prompt do usuário, insira: Resuma o artigo a seguir em exatamente 3 pontos. Seja conciso. {{texto_artigo}}

4

Conectar Início → LLM → Fim

Arraste uma conexão do handle de saída do nó Início para a entrada do nó LLM. Em seguida, conecte a saída do nó LLM ao nó Fim. O nó Fim deve emitir a variável text do nó LLM.

5

Testar

Clique em "Executar" na barra superior. Um painel de teste aparece à direita. Cole qualquer texto de artigo no campo texto_artigo e clique em Executar. Você verá a saída e o rastreamento completo de execução — nó por nó, com contagens de tokens e latência.

O que você construiu: Início (entrada texto_artigo) → LLM (prompt de resumo) → Fim (resumo de 3 pontos). Esse padrão escala para qualquer pipeline de texto de entrada, texto de saída.

Workflow vs. Chatbot vs. Agente — Quando usar cada um

O Dify oferece três tipos de app. A escolha certa é crítica — eles servem casos de uso fundamentalmente diferentes.

Característica Workflow Chatbot Agente
Modelo de interação Execução única: Entrada → Saída Conversa em múltiplas rodadas Seleção dinâmica de ferramentas
Determinismo Alto — pipeline fixo Médio — LLM decide Baixo — agente decide
Ideal para Automação, processamento em lote Suporte ao cliente, Q&A Pesquisa, execução de tarefas
Capacidade de depuração Excelente — rastreamento completo Bom — logs de conversa Mais difícil — etapas dinâmicas
Acionável via API Sim — endpoint REST Sim — API de chat Sim — API de chat
Recuperação de conhecimento Sim — por nó Sim — por contexto Sim — por ferramenta
Chamadas de API externas Sim — nós de Requisição HTTP Limitado — por plugin Sim — por ferramentas
Execução paralela Sim — suporte nativo Não Não
Regra geral: Se o processo é sempre o mesmo e você consegue desenhar um fluxograma dele, use um Workflow. Se os usuários precisam de conversas de ida e volta, use um Chatbot. Se a IA deve decidir sozinha quais ferramentas usar, use um Agente.

3 exemplos práticos de workflows

Esses três pipelines cobrem os padrões de workflow Dify mais comuns do mundo real. Cada um está testado e pronto para produção.

Exemplo 1

Pipeline de Resumo de Conteúdo

Recebe qualquer texto de artigo e cria um resumo estruturado com um título, 3 pontos principais e uma conclusão de uma frase. Útil para equipes de conteúdo, editores de newsletter e assistentes de pesquisa.

Início (texto_artigo) LLM (resumir + estruturar) Fim (resumo)

Prompt LLM: "Você é um editor de conteúdo. A partir do artigo a seguir, crie: (1) um título atraente, (2) exatamente 3 pontos principais, (3) uma conclusão de uma frase. Formate como JSON. Artigo: {{texto_artigo}}"

Exemplo 2

Triagem de Suporte ao Cliente

Classifica tickets de suporte recebidos por intenção (faturamento, técnico, geral) e direciona cada categoria para uma resposta LLM especializada. Reduz escalações em 40-60% para equipes que o usam.

Início (texto_ticket) LLM (classificar intenção) If/Else (rotear por categoria) LLM (resposta especializada) Fim

Lógica If/Else: Se intencao == "faturamento" → LLM de faturamento (conhece preços, política de reembolso). Se intencao == "tecnico" → LLM técnico (conhece documentação do produto). Senão → LLM de suporte geral.

Exemplo 3

Pipeline de Q&A sobre Documentos

Recebe uma pergunta, recupera os chunks de documento mais relevantes da sua base de conhecimento e os passa para um LLM para uma resposta fundamentada e baseada em fontes. Perfeito para documentos jurídicos, manuais técnicos e wikis internas.

Início (pergunta) Knowledge Retrieval (Top-5 chunks) LLM (resposta com contexto) Fim (resposta)

Prompt LLM: "Responda a pergunta APENAS com o contexto fornecido. Se a resposta não estiver no contexto, diga isso. Contexto: {{chunks_recuperados}} — Pergunta: {{pergunta}}"

Executar workflows via API

Cada workflow Dify publicado recebe automaticamente um endpoint de API REST. É assim que você integra workflows em suas aplicações, aciona-os de agendadores ou conecta múltiplos workflows.

POST https://sua-instancia-dify/v1/workflows/run

curl -X POST 'https://sua-instancia-dify/v1/workflows/run' \
  -H 'Authorization: Bearer SUA_CHAVE_API' \
  -H 'Content-Type: application/json' \
  -d '{
    "inputs": {
      "texto_artigo": "Seu conteúdo de artigo aqui..."
    },
    "response_mode": "blocking",
    "user": "usuario-123"
  }'

blocking

Aguarda o resultado completo. Ótimo para workflows curtos abaixo de 30 segundos.

streaming

Retorna um fluxo de Server-Sent Events. Ótimo para workflows longos ou streaming de LLM para uma interface.

Dicas para workflows em produção

Fazer um workflow funcionar uma vez é fácil. Executá-lo de forma confiável em grande escala requer algumas considerações adicionais:

Usar saídas estruturadas de nós LLM

Ative o modo JSON em nós LLM e defina um schema. Isso torna a análise por nós de código posteriores confiável e evita formatação alucinada.

Adicionar tratamento de erros com If/Else

Verifique a saída de nós críticos antes de continuar. Se uma requisição HTTP retornar status 4xx, direcione para uma ramificação de tratamento de erro em vez de corromper silenciosamente os dados.

Manter prompts LLM focados

Em um workflow, cada nó LLM deve fazer uma coisa bem. Evite "mega-prompts" que classificam, resumem e formatam ao mesmo tempo — divida em nós LLM separados para melhor confiabilidade.

Monitorar o uso de tokens por execução de workflow

O Dify registra contagens de tokens por nó. Identifique seus nós mais caros e considere modelos menores (ex.: GPT-4o Mini) para tarefas de classificação onde profundidade de raciocínio é menos importante.

Fixar versões de modelos

Quando um workflow estiver em produção, fixe em uma versão específica do modelo (ex.: gpt-4o-2024-08-06) em vez de "latest". Atualizações de modelos podem alterar silenciosamente o comportamento de saída.

Perguntas frequentes

O que é um workflow Dify?

Um workflow Dify é um pipeline de IA visual baseado em nós. Você conecta nós (LLM, código, requisições HTTP, recuperação de conhecimento, condições) em um canvas para automatizar tarefas em múltiplas etapas. Ao contrário de chatbots, workflows rodam como pipeline fixo de entrada até saída — ideal para automação e processamento em lote.

Quando usar um workflow em vez de um chatbot?

Use workflows para tarefas de automação com entradas/saídas definidas (resumir documentos, processar dados, triagem). Use chatbots para conversas abertas. Use agentes para seleção dinâmica de ferramentas. Workflows são determinísticos e mais fáceis de depurar.

Os workflows Dify podem ser executados automaticamente por agendamento?

Os workflows Dify podem ser acionados via API, que você pode chamar de qualquer agendador (cron, n8n, Zapier, GitHub Actions). O próprio Dify não tem um agendador integrado, mas o gatilho de API torna o agendamento com ferramentas externas simples.

Os workflows Dify podem chamar APIs externas?

Sim. O nó de Requisição HTTP permite que seu workflow chame qualquer API REST — buscar dados de serviços externos, enviar webhooks, acionar plataformas de terceiros. Combine-o com nós de código para transformar respostas de API antes de passá-las para o LLM.

Hospedar o Dify e construir workflows

Os workflows Dify funcionam melhor em uma instância auto-hospedada, onde você controla o poder computacional, não tem limites de crédito e pode processar execuções ilimitadas de workflow. Comece por apenas €3,79/mês no Hetzner ou use uma implantação gerenciada com um clique no Elestio.

Implantar no Hetzner → Um clique no Elestio → Comparar todas as opções de hospedagem