Guia de Workflows Dify 2026: Construir Pipelines de Automação com IA
Os workflows Dify são pipelines de IA visuais baseados em nós que permitem conectar LLMs, bancos de dados, APIs e código por arrastar e soltar. Este guia explica cada tipo de nó, orienta você na criação do seu primeiro workflow e mostra três exemplos de pipeline testados na prática.
O que são workflows Dify?
Um workflow Dify é um construtor de pipeline visual que permite conectar nós para automatizar tarefas de IA em múltiplas etapas. Pense nele como n8n ou Zapier — mas construído nativamente para IA, com nós de primeira classe para chamar LLMs, pesquisar bases de conhecimento e processar saídas estruturadas.
Ao contrário de um chatbot (que responde conversacionalmente rodada a rodada), um workflow executa um pipeline fixo de uma entrada definida até uma saída definida. Você o aciona, ele executa cada nó em sequência (ou em paralelo) e entrega um resultado. Isso torna os workflows ideais para automação, processamento de documentos, enriquecimento de dados e qualquer processo que deva rodar de forma determinística.
Internamente, os workflows Dify usam um mecanismo de grafo acíclico dirigido (DAG). Cada nó recebe saídas de nós anteriores como variáveis, as processa e passa os resultados adiante. Você tem observabilidade completa — logs de execução, latência por nó, contagens de tokens — tudo integrado.
Tipos de nós principais
Cada workflow Dify é construído com esses tipos fundamentais de nós. Entender cada um é a chave para desenvolver pipelines eficazes.
O ponto de entrada de cada workflow. Aqui você define as variáveis de entrada — por exemplo, um campo de texto chamado texto_artigo, upload de arquivo ou URL. Todos os nós seguintes podem acessar essas variáveis.
Dica: Mantenha as entradas mínimas e tipadas. Use "text" para strings, "number" para entradas numéricas, "select" para dropdowns.
O nó de IA central. Ele chama qualquer modelo configurado (GPT-4o, Claude, Gemini, Llama etc.) com um prompt de sistema e prompt de usuário. Variáveis de nós anteriores podem ser incluídas com {{nome_variavel}}.
Dica: Use o modo de saída estruturada (schema JSON) quando nós posteriores precisarem analisar programaticamente a resposta do LLM.
Pesquisa suas bases de conhecimento Dify por similaridade vetorial (RAG). Passe uma consulta e receba os chunks de documento mais relevantes de volta. Conecte o contexto recuperado a um nó LLM para respostas fundamentadas e factuais.
Dica: Ajuste o parâmetro Top-K (quantos chunks são recuperados) com base na sua janela de contexto. 3-5 é geralmente ótimo.
Execute Python ou JavaScript diretamente no workflow. Use-o para analisar JSON, transformar strings, calcular valores, filtrar arrays ou qualquer coisa que um script possa fazer. Variáveis de entrada de nós anteriores estão disponíveis como variáveis locais.
Dica: Os nós de código rodam em um ambiente sandbox. Sem acesso à rede — use nós de Requisição HTTP para chamadas externas.
Execute qualquer chamada de API REST — GET, POST, PUT, DELETE. Configure cabeçalhos, parâmetros de consulta e corpo da requisição com variáveis do workflow. A resposta (JSON, texto ou bruta) fica disponível para nós posteriores.
Dica: Armazene chaves de API sensíveis em variáveis de ambiente do Dify, não codificadas diretamente na configuração do nó.
Ramificação condicional. Avalie qualquer expressão (comparação de string, limite numérico, correspondência de regex, verificação de contenção) e direcione o workflow para diferentes ramificações. Você pode adicionar múltiplas condições "Else If" para lógica de roteamento complexa.
Dica: Use If/Else para tratamento de erros — por exemplo, se a confiança do LLM for baixa, direcione para uma resposta alternativa em vez de um resultado incerto.
Transforme e formate dados com templates Jinja2. Combine múltiplas variáveis em uma string, formate dados, itere sobre listas e aplique lógica condicional — tudo sem um nó de código completo.
Dica: Ideal para criar prompts dinâmicos que combinam múltiplas saídas anteriores antes de passá-las a um nó LLM.
Mescle saídas de múltiplas ramificações paralelas em uma única variável. Essencial quando seu workflow se divide em caminhos paralelos (ex.: chamar dois LLMs diferentes simultaneamente) e você precisa combinar os resultados antes do nó final.
Dica: Use o modo "array" para coletar todas as saídas de ramificação em uma lista, então processe com nó de código.
O nó de conclusão. Define o que o workflow retorna — uma ou mais variáveis de saída. Quando acionado via API, essas saídas são retornadas na resposta JSON. Quando usado em um chatflow, o conteúdo do nó Fim é exibido ao usuário.
Dica: Você pode ter múltiplos nós Fim (um por ramificação If/Else) para retornar saídas diferentes dependendo da rota.
Construir seu primeiro workflow
Vamos construir um resumidor simples de artigos — o clássico "Hello World" de pipelines de IA. Ele recebe um texto de artigo como entrada e retorna um resumo de 3 pontos.
Criar novo app de Workflow
No Dify Studio, clique em "+ Criar App" → selecione "Workflow". Dê um nome como "Resumidor de Artigos" e clique em Criar. Você chegará ao canvas com nós de Início e Fim vazios.
Configurar o nó Início
Clique no nó Início. Adicione uma variável de entrada: nomeie-a texto_artigo, defina o tipo como "Parágrafo" (texto longo). Isso é o que o usuário (ou chamador de API) fornecerá ao acionar o workflow.
Adicionar nó LLM
Clique no botão "+" no canvas. Adicione um nó LLM. Escolha seu modelo (ex.: GPT-4o Mini). No campo de prompt do usuário, insira: Resuma o artigo a seguir em exatamente 3 pontos. Seja conciso.
{{texto_artigo}}
Conectar Início → LLM → Fim
Arraste uma conexão do handle de saída do nó Início para a entrada do nó LLM. Em seguida, conecte a saída do nó LLM ao nó Fim. O nó Fim deve emitir a variável text do nó LLM.
Testar
Clique em "Executar" na barra superior. Um painel de teste aparece à direita. Cole qualquer texto de artigo no campo texto_artigo e clique em Executar. Você verá a saída e o rastreamento completo de execução — nó por nó, com contagens de tokens e latência.
Workflow vs. Chatbot vs. Agente — Quando usar cada um
O Dify oferece três tipos de app. A escolha certa é crítica — eles servem casos de uso fundamentalmente diferentes.
| Característica | Workflow | Chatbot | Agente |
|---|---|---|---|
| Modelo de interação | Execução única: Entrada → Saída | Conversa em múltiplas rodadas | Seleção dinâmica de ferramentas |
| Determinismo | Alto — pipeline fixo | Médio — LLM decide | Baixo — agente decide |
| Ideal para | Automação, processamento em lote | Suporte ao cliente, Q&A | Pesquisa, execução de tarefas |
| Capacidade de depuração | Excelente — rastreamento completo | Bom — logs de conversa | Mais difícil — etapas dinâmicas |
| Acionável via API | Sim — endpoint REST | Sim — API de chat | Sim — API de chat |
| Recuperação de conhecimento | Sim — por nó | Sim — por contexto | Sim — por ferramenta |
| Chamadas de API externas | Sim — nós de Requisição HTTP | Limitado — por plugin | Sim — por ferramentas |
| Execução paralela | Sim — suporte nativo | Não | Não |
3 exemplos práticos de workflows
Esses três pipelines cobrem os padrões de workflow Dify mais comuns do mundo real. Cada um está testado e pronto para produção.
Pipeline de Resumo de Conteúdo
Recebe qualquer texto de artigo e cria um resumo estruturado com um título, 3 pontos principais e uma conclusão de uma frase. Útil para equipes de conteúdo, editores de newsletter e assistentes de pesquisa.
Prompt LLM: "Você é um editor de conteúdo. A partir do artigo a seguir, crie: (1) um título atraente, (2) exatamente 3 pontos principais, (3) uma conclusão de uma frase. Formate como JSON. Artigo: {{texto_artigo}}"
Triagem de Suporte ao Cliente
Classifica tickets de suporte recebidos por intenção (faturamento, técnico, geral) e direciona cada categoria para uma resposta LLM especializada. Reduz escalações em 40-60% para equipes que o usam.
Lógica If/Else: Se intencao == "faturamento" → LLM de faturamento (conhece preços, política de reembolso). Se intencao == "tecnico" → LLM técnico (conhece documentação do produto). Senão → LLM de suporte geral.
Pipeline de Q&A sobre Documentos
Recebe uma pergunta, recupera os chunks de documento mais relevantes da sua base de conhecimento e os passa para um LLM para uma resposta fundamentada e baseada em fontes. Perfeito para documentos jurídicos, manuais técnicos e wikis internas.
Prompt LLM: "Responda a pergunta APENAS com o contexto fornecido. Se a resposta não estiver no contexto, diga isso. Contexto: {{chunks_recuperados}} — Pergunta: {{pergunta}}"
Executar workflows via API
Cada workflow Dify publicado recebe automaticamente um endpoint de API REST. É assim que você integra workflows em suas aplicações, aciona-os de agendadores ou conecta múltiplos workflows.
POST https://sua-instancia-dify/v1/workflows/run
curl -X POST 'https://sua-instancia-dify/v1/workflows/run' \
-H 'Authorization: Bearer SUA_CHAVE_API' \
-H 'Content-Type: application/json' \
-d '{
"inputs": {
"texto_artigo": "Seu conteúdo de artigo aqui..."
},
"response_mode": "blocking",
"user": "usuario-123"
}' blocking
Aguarda o resultado completo. Ótimo para workflows curtos abaixo de 30 segundos.
streaming
Retorna um fluxo de Server-Sent Events. Ótimo para workflows longos ou streaming de LLM para uma interface.
Dicas para workflows em produção
Fazer um workflow funcionar uma vez é fácil. Executá-lo de forma confiável em grande escala requer algumas considerações adicionais:
Usar saídas estruturadas de nós LLM
Ative o modo JSON em nós LLM e defina um schema. Isso torna a análise por nós de código posteriores confiável e evita formatação alucinada.
Adicionar tratamento de erros com If/Else
Verifique a saída de nós críticos antes de continuar. Se uma requisição HTTP retornar status 4xx, direcione para uma ramificação de tratamento de erro em vez de corromper silenciosamente os dados.
Manter prompts LLM focados
Em um workflow, cada nó LLM deve fazer uma coisa bem. Evite "mega-prompts" que classificam, resumem e formatam ao mesmo tempo — divida em nós LLM separados para melhor confiabilidade.
Monitorar o uso de tokens por execução de workflow
O Dify registra contagens de tokens por nó. Identifique seus nós mais caros e considere modelos menores (ex.: GPT-4o Mini) para tarefas de classificação onde profundidade de raciocínio é menos importante.
Fixar versões de modelos
Quando um workflow estiver em produção, fixe em uma versão específica do modelo (ex.: gpt-4o-2024-08-06) em vez de "latest". Atualizações de modelos podem alterar silenciosamente o comportamento de saída.
Perguntas frequentes
O que é um workflow Dify?
Um workflow Dify é um pipeline de IA visual baseado em nós. Você conecta nós (LLM, código, requisições HTTP, recuperação de conhecimento, condições) em um canvas para automatizar tarefas em múltiplas etapas. Ao contrário de chatbots, workflows rodam como pipeline fixo de entrada até saída — ideal para automação e processamento em lote.
Quando usar um workflow em vez de um chatbot?
Use workflows para tarefas de automação com entradas/saídas definidas (resumir documentos, processar dados, triagem). Use chatbots para conversas abertas. Use agentes para seleção dinâmica de ferramentas. Workflows são determinísticos e mais fáceis de depurar.
Os workflows Dify podem ser executados automaticamente por agendamento?
Os workflows Dify podem ser acionados via API, que você pode chamar de qualquer agendador (cron, n8n, Zapier, GitHub Actions). O próprio Dify não tem um agendador integrado, mas o gatilho de API torna o agendamento com ferramentas externas simples.
Os workflows Dify podem chamar APIs externas?
Sim. O nó de Requisição HTTP permite que seu workflow chame qualquer API REST — buscar dados de serviços externos, enviar webhooks, acionar plataformas de terceiros. Combine-o com nós de código para transformar respostas de API antes de passá-las para o LLM.
Hospedar o Dify e construir workflows
Os workflows Dify funcionam melhor em uma instância auto-hospedada, onde você controla o poder computacional, não tem limites de crédito e pode processar execuções ilimitadas de workflow. Comece por apenas €3,79/mês no Hetzner ou use uma implantação gerenciada com um clique no Elestio.