Perguntas Frequentes sobre Hospedagem do Dify
Respostas às perguntas mais comuns sobre auto-hospedagem do Dify — requisitos de hardware, configuração Docker, opções de hospedagem gratuita, suporte a GPU e muito mais.
O Dify requer no mínimo 2 vCPU, 4 GB de RAM e 50 GB de armazenamento SSD. Recomendamos 4 vCPU e 8 GB de RAM para uso confortável. A configuração padrão do Docker Compose executa mais de 10 contêineres, incluindo Nginx, servidor API, worker, PostgreSQL, Redis e o banco de dados vetorial Weaviate.
Sim, parcialmente. O Railway oferece US$5 de crédito gratuito por mês, o que pode manter uma pequena instância do Dify funcionando. O Render tem um plano gratuito, mas entra em modo de espera após inatividade e possui apenas 512 MB de RAM (insuficiente). Para hospedagem confiável, a opção paga mais barata é o Hetzner a €3,79/mês.
O Dify Cloud gerencia toda a infraestrutura para você — basta se cadastrar e começar a usar. A auto-hospedagem oferece controle total, sem limites de mensagens e privacidade dos dados, mas requer configuração técnica. Em termos de custo, a auto-hospedagem é muito mais barata para usuários ativos: €5,59/mês no Hetzner contra US$59/mês no Dify Cloud Pro.
O Dify em si não requer GPU — ele chama APIs LLM (OpenAI, Anthropic, etc.) remotamente. No entanto, se você quiser executar modelos locais sem custos de API, pode instalar o Ollama em um servidor GPU e conectá-lo ao Dify. O Dify suporta nativamente o Ollama como provedor de modelos.
Em um VPS recém-provisionado, conte de 30 a 60 minutos para a configuração inicial: 10 min de configuração do servidor, 5 min para instalar o Docker, 5 min para clonar e configurar o Dify, 10 min para o primeiro início (download das imagens), 10 min para configuração do SSL. Após a primeira instalação, as atualizações levam menos de 5 minutos.
Sim — na auto-hospedagem, todos os dados permanecem no seu servidor. Nenhum dado é enviado aos servidores do Dify, exceto telemetria (que pode ser desativada). Use o Hetzner (Alemanha/Finlândia) para residência completa dos dados na UE. Você controla todos os dados e pode configurar o Dify para usar apenas provedores LLM com sede na Europa.
Sim. Instale o Ollama no mesmo servidor ou em um servidor GPU separado, depois configure o Dify para usar o Ollama como provedor de modelos. Modelos locais populares: Llama 3.1 8B (uso geral), Mistral 7B (rápido), CodeLlama 13B (programação). Você precisará de um servidor GPU para desempenho aceitável com modelos acima de 7B parâmetros.
Navegue até o diretório dify/docker e execute: git pull && docker compose pull && docker compose up -d. O Dify usa atualizações contínuas com migrações de banco de dados gerenciadas automaticamente. Sempre faça backup do seu banco de dados PostgreSQL antes de atualizações de versões principais.
O Dify suporta mais de 50 provedores de modelos, incluindo OpenAI, Anthropic (Claude), Google Gemini, Mistral, Cohere, Azure OpenAI, AWS Bedrock, Hugging Face, Replicate, Together AI, e modelos locais via Ollama, LocalAI e LM Studio.
Custo do servidor: €5,59/mês (Hetzner CX32) suporta confortavelmente 10 usuários simultâneos. Os custos da API LLM dependem do uso — um usuário típico enviando 50 mensagens/dia com GPT-4o-mini custa aproximadamente US$0,10/dia por usuário. Para 10 usuários: ~US$30 servidor + custos de API. Total: US$35–50/mês contra US$59–159/mês no Dify Cloud.
O Dify funciona via Docker, então tecnicamente sim com o Docker Desktop para Windows. No entanto, as limitações do WSL2 e a sobrecarga do Docker Desktop tornam a hospedagem Windows impratica para produção. Use sempre um VPS Linux (Ubuntu 22.04 recomendado) para implantações do Dify em produção.
O núcleo do Dify é open source sob a licença Apache 2.0. Algumas funcionalidades enterprise (SSO, logs de auditoria, permissões avançadas) requerem a Edição Enterprise com licença comercial. Para a maioria dos usuários que fazem auto-hospedagem, a versão open source é completa e totalmente gratuita.
Ainda tem dúvidas?
Consulte nossos guias detalhados ou entre em contato diretamente. Geralmente respondemos em até 24 horas.