Actualizado marzo 2026 Workflow Builder Sin código

Guía Workflows Dify 2026: Construye pipelines de automatización IA

Los Workflows Dify son pipelines IA visuales basados en nodos que te permiten conectar LLMs, bases de datos, APIs y código en un canvas de arrastrar y soltar. Esta guía cubre cada tipo de nodo, te guía en la construcción de tu primer workflow y muestra tres ejemplos de pipelines listos para producción.

¿Qué son los Workflows Dify?

Un Workflow Dify es un constructor de pipelines visual donde encadenas nodos para automatizar tareas IA de múltiples pasos. Piénsalo como n8n o Zapier — pero construido nativamente para IA, con nodos de primera clase para llamar LLMs, buscar bases de conocimiento y manejar salidas estructuradas.

A diferencia de un Chatbot (que responde conversacionalmente turno a turno), un Workflow ejecuta un pipeline fijo desde una entrada definida hasta una salida definida. Lo disparas, ejecuta cada nodo en secuencia (o en paralelo), y devuelve un resultado. Esto hace los workflows ideales para automatización, procesamiento de documentos, enriquecimiento de datos y cualquier tarea donde el proceso es determinista.

Internamente, los Workflows Dify usan un motor de ejecución de grafos acíclicos dirigidos (DAG). Cada nodo recibe salidas de nodos anteriores como variables, las procesa y pasa resultados a los siguientes. Obtienes observabilidad completa — registros de ejecución, latencia por nodo, conteos de tokens — todo integrado.

Canvas visual de arrastrar y soltar
Nodos LLM nativos para IA
RAG Knowledge Retrieval integrado
Nodos de código Python y JavaScript
Petición HTTP a cualquier API externa
Ramificación condicional (If/Else)
Observabilidad completa de ejecución
Disparador REST API para automatización

Tipos de nodos principales

Cada Workflow Dify se construye con estos tipos de nodos fundamentales. Entender cada uno es la clave para diseñar pipelines efectivos.

Start

El punto de entrada de cada workflow. Defines las variables de entrada aquí — por ejemplo un campo de texto llamado texto_articulo, una subida de archivo o una URL. Todos los nodos siguientes pueden referenciar estas variables.

Consejo: Mantén las entradas mínimas y tipadas. Usa "text" para cadenas, "number" para entradas numéricas, "select" para listas desplegables.

LLM

El nodo IA central. Llama a cualquier modelo configurado (GPT-4o, Claude, Gemini, Llama, etc.) con un prompt de sistema y un prompt de usuario. Puedes inyectar variables de cualquier nodo anterior usando la sintaxis {{nombre_variable}}.

Consejo: Usa el modo de salida estructurada (esquema JSON) cuando los nodos posteriores necesiten parsear la respuesta del LLM programáticamente.

Knowledge Retrieval

Busca en tus Bases de Conocimiento Dify por similitud vectorial (RAG). Pasa una cadena de consulta y obtén de vuelta los fragmentos de documentos más relevantes. Conecta el contexto recuperado a un nodo LLM para respuestas fundadas y factuales.

Consejo: Configura el parámetro top-K (cuántos fragmentos recuperar) según tu presupuesto de ventana de contexto. 3-5 generalmente es óptimo.

Code

Ejecuta Python o JavaScript directamente en el workflow. Úsalo para parsear JSON, transformar cadenas, calcular valores, filtrar arrays, o cualquier cosa que un script pueda hacer. Las variables de entrada de nodos anteriores están disponibles como variables locales.

Consejo: Los nodos de código se ejecutan en un entorno sandbox. Sin acceso a red — usa nodos HTTP Request para llamadas externas.

HTTP Request

Realiza cualquier llamada API REST — GET, POST, PUT, DELETE. Configura cabeceras, parámetros de consulta y cuerpo de petición usando variables del workflow. La respuesta (JSON, texto o raw) está disponible para nodos posteriores.

Consejo: Almacena las claves API sensibles en variables de entorno de Dify, no codificadas en la config del nodo.

If/Else

Ramificación condicional. Evalúa cualquier expresión (comparación de cadena, umbral numérico, coincidencia regex, verificación de contenido) y dirige el workflow a diferentes ramas. Puedes añadir múltiples condiciones "Else If" para lógica de enrutamiento compleja.

Consejo: Usa If/Else para manejar casos de error — ej. si la confianza del LLM es baja, dirige a una respuesta de respaldo en lugar de devolver una suposición.

Template Transform

Transforma y formatea datos con plantillas Jinja2. Combina múltiples variables en una sola cadena, formatea fechas, itera sobre listas y aplica lógica condicional — sin escribir un nodo Code completo.

Consejo: Ideal para construir prompts dinámicos que combinan múltiples salidas anteriores antes de pasarlas a un nodo LLM.

Variable Aggregator

Fusiona salidas de múltiples ramas paralelas en una sola variable. Esencial cuando tu workflow se divide en caminos paralelos (ej. llamar dos LLMs diferentes simultáneamente) y necesitas combinar resultados antes del nodo End.

Consejo: Usa el modo "array" para recopilar todas las salidas de ramas en una lista, luego procesa con un nodo Code.

End

El nodo terminal. Define qué devuelve el workflow — una o más variables de salida. Cuando se dispara via API, estas salidas se devuelven en la respuesta JSON. Cuando se usa en un Chatflow, el contenido del nodo End se muestra al usuario.

Consejo: Puedes tener múltiples nodos End (uno por rama If/Else) para devolver diferentes salidas según el camino de enrutamiento tomado.

Construye tu primer Workflow

Construyamos un simple resumidor de artículos — el clásico "Hello World" de los pipelines IA. Toma un texto de artículo como entrada y devuelve un resumen de 3 puntos.

1

Crear una nueva app Workflow

En Dify Studio, haz clic en "+ Crear App" → selecciona "Workflow". Dale un nombre como "Resumidor de artículos" y haz clic en Crear. Llegarás al canvas con un nodo Start y End vacíos.

2

Configurar el nodo Start

Haz clic en el nodo Start. Añade una variable de entrada: nómbrala texto_articulo, establece el tipo en "Paragraph" (texto largo). Esto es lo que el usuario (o llamante de API) proporcionará al disparar el workflow.

3

Añadir un nodo LLM

Haz clic en el botón "+" en el canvas. Añade un nodo LLM. Selecciona tu modelo (ej. GPT-4o Mini). En el campo de prompt de usuario, escribe: Resume el siguiente artículo en exactamente 3 puntos. Sé conciso. {{texto_articulo}}

4

Conectar Start → LLM → End

Arrastra una conexión desde el handle de salida del nodo Start hasta la entrada del nodo LLM. Luego conecta la salida del nodo LLM al nodo End. El nodo End debe producir la variable text del nodo LLM.

5

Probarlo

Haz clic en "Ejecutar" en la barra superior. Un panel de prueba aparece a la derecha. Pega cualquier texto de artículo en el campo texto_articulo y haz clic en Ejecutar. Verás la salida y la traza completa de ejecución — nodo por nodo, con conteos de tokens y latencia.

Lo que construiste: Start (entrada texto_articulo) → LLM (prompt de resumen) → End (resumen de 3 puntos). Este mismo patrón escala a cualquier pipeline de texto-entrada, texto-salida.

Workflow vs Chatbot vs Agent — Cuándo usar cada uno

Dify ofrece tres tipos de aplicaciones. Elegir el correcto importa — sirven casos de uso fundamentalmente diferentes.

Característica Workflow Chatbot Agent
Modelo de interacción Ejecución única: entrada → salida Conversación multi-turno Selección dinámica de herramientas
Determinismo Alto — pipeline fijo Medio — LLM decide Bajo — agente decide
Ideal para Automatización, procesamiento por lotes Soporte al cliente, Q&A Investigación, completar tareas
Depuración Excelente — traza completa Buena — registros de conversación Más difícil — pasos dinámicos
Disparable via API Sí — endpoint REST Sí — API de chat Sí — API de chat
Recuperación de conocimiento Sí — vía nodo Sí — vía contexto Sí — vía herramienta
Llamadas a API externas Sí — nodo HTTP Request Limitado — vía plugins Sí — vía herramientas
Ejecución paralela Sí — soporte nativo No No
Regla general: Si el proceso es el mismo cada vez y puedes dibujar un diagrama de flujo, usa un Workflow. Si los usuarios necesitan conversación de ida y vuelta, usa un Chatbot. Si la IA necesita decidir qué herramientas llamar, usa un Agent.

3 ejemplos prácticos de Workflows

Estos tres pipelines cubren los patrones de Workflow Dify más comunes en el mundo real. Cada uno está probado en batalla y listo para producción.

Ejemplo 1

Pipeline de resumen de contenido

Toma cualquier texto de artículo y produce un resumen estructurado con un titular, 3 puntos clave y una frase de conclusión. Útil para equipos de contenido, editores de newsletters y asistentes de investigación.

Start (texto_articulo) LLM (resumir + estructurar) End (resumen)

Prompt LLM: "Eres un editor de contenido. A partir del artículo, devuelve: (1) un titular atractivo, (2) exactamente 3 puntos clave, (3) una frase de conclusión. Formato JSON. Artículo: {{texto_articulo}}"

Ejemplo 2

Clasificación de soporte al cliente

Clasifica los tickets de soporte entrantes por intención (facturación, técnico, general), luego enruta cada categoría a una respuesta LLM especializada adaptada para ese tema. Reduce las escalaciones un 40-60% para los equipos que lo usan.

Start (texto_ticket) LLM (clasificar intención) If/Else (enrutar por categoría) LLM (respuesta especializada) End

Lógica If/Else: Si intención == "facturación" → LLM de facturación (conoce precios, política de reembolsos). Si intención == "técnico" → LLM técnico (conoce docs del producto). Si no → LLM de soporte general.

Ejemplo 3

Pipeline Q&A sobre documentos

Toma una pregunta, recupera los fragmentos de documentos más relevantes de tu base de conocimiento, luego los pasa a un LLM para una respuesta fundamentada con citas. Perfecto para documentos legales, manuales técnicos y wikis internas.

Start (pregunta) Knowledge Retrieval (top-5 fragmentos) LLM (responder con contexto) End (respuesta)

Prompt LLM: "Responde la pregunta usando SOLO el contexto proporcionado. Si la respuesta no está en el contexto, dilo. Contexto: {{fragmentos_recuperados}} — Pregunta: {{pregunta}}"

Ejecutar Workflows via API

Cada Workflow Dify publicado obtiene automáticamente un endpoint API REST. Así es como integras workflows en tus aplicaciones, los disparas desde planificadores, o encadenas múltiples workflows.

POST https://tu-instancia-dify/v1/workflows/run

curl -X POST 'https://tu-instancia-dify/v1/workflows/run' \
  -H 'Authorization: Bearer TU_CLAVE_API' \
  -H 'Content-Type: application/json' \
  -d '{
    "inputs": {
      "texto_articulo": "El contenido de tu artículo aquí..."
    },
    "response_mode": "blocking",
    "user": "usuario-123"
  }'

blocking

Espera el resultado completo antes de responder. Ideal para workflows cortos de menos de 30 segundos.

streaming

Devuelve un flujo Server-Sent Events. Ideal para workflows largos o streaming de salida LLM hacia una UI.

Consejos para Workflows en producción

Lograr que un workflow funcione una vez es fácil. Hacerlo funcionar de forma fiable a escala requiere algunas consideraciones adicionales:

Usar salidas estructuradas de nodos LLM

Activa el modo JSON en tus nodos LLM y define un esquema. Esto hace que el parsing por nodos Code posteriores sea fiable y elimina el formateo alucinado.

Añadir manejo de errores con If/Else

Verifica la salida de los nodos críticos antes de continuar. Si una petición HTTP devuelve un estado 4xx, enruta a una rama de manejo de errores en lugar de dejar que los datos corrompan silenciosamente los siguientes pasos.

Mantener los prompts LLM enfocados

En un workflow, cada nodo LLM debe hacer una cosa bien. Evita los "mega-prompts" que intentan clasificar, resumir y formatear en una sola llamada — divídelos en nodos LLM separados para mejor fiabilidad.

Monitorear el uso de tokens por ejecución

Dify registra conteos de tokens por nodo. Identifica tus nodos más costosos y considera usar modelos más pequeños (ej. GPT-4o Mini) para tareas de clasificación donde la profundidad de razonamiento es menos importante.

Fijar las versiones de modelos

Cuando un workflow está en producción, fija a una versión de modelo específica (ej. gpt-4o-2024-08-06) en lugar de "latest". Las actualizaciones de modelos pueden cambiar silenciosamente el comportamiento de salida.

Preguntas frecuentes

¿Qué es un Workflow de Dify?

Un Workflow Dify es un pipeline IA visual basado en nodos. Conectas nodos (LLM, código, peticiones HTTP, recuperación de conocimiento, condiciones) en un canvas para automatizar tareas de múltiples pasos. A diferencia de los chatbots, los workflows ejecutan un pipeline fijo de entrada a salida — ideal para automatización y procesamiento por lotes.

¿Cuándo usar un Workflow en lugar de un Chatbot?

Usa un Workflow para tareas de automatización con entradas/salidas definidas (resumir documentos, procesar datos, clasificación). Usa un Chatbot para conversaciones abiertas. Usa un Agente para selección dinámica de herramientas. Los Workflows son deterministas y más fáciles de depurar.

¿Pueden los Workflows de Dify ejecutarse automáticamente?

Los Workflows Dify pueden dispararse via API, que puedes llamar desde cualquier planificador (cron, n8n, Zapier, GitHub Actions). Dify no tiene planificador integrado, pero el trigger API facilita la programación con herramientas externas.

¿Pueden los Workflows Dify llamar APIs externas?

Sí. El nodo HTTP Request permite que tu workflow llame cualquier API REST — obtener datos de servicios externos, enviar webhooks, interactuar con plataformas de terceros. Combínalo con nodos de Código para transformar respuestas API antes de pasarlas al LLM.

Aloja Dify y empieza a construir Workflows

Los Workflows Dify funcionan mejor en una instancia auto-alojada donde controlas el cómputo, no tienes límites de créditos y puedes procesar ejecuciones de workflow ilimitadas. Empieza desde €3,79/mes en Hetzner, o usa un despliegue gestionado en un clic en Elestio.

Desplegar en Hetzner → Un clic en Elestio → Comparar todas las opciones