Dify Hosting FAQ
Antwoorden op de meest gestelde vragen over het zelf hosten van Dify — hardwarevereisten, Docker-installatie, gratis hostingopties, GPU-ondersteuning en meer.
Dify vereist minimaal 2 vCPU, 4 GB RAM en 50 GB SSD-opslag. We raden 4 vCPU en 8 GB RAM aan voor comfortabel gebruik. De standaard Docker Compose-configuratie draait meer dan 10 containers, waaronder Nginx, API-server, worker, PostgreSQL, Redis en de Weaviate vectordatabase.
Ja, gedeeltelijk. Railway biedt $5 gratis krediet per maand waarmee een kleine Dify-instantie kan worden uitgevoerd. Render heeft een gratis tier, maar schakelt na inactiviteit uit en heeft slechts 512 MB RAM (te weinig). Voor betrouwbaar hosten is de goedkoopste betaalde optie Hetzner voor €3,79/maand.
Dify Cloud beheert alle infrastructuur voor u — u registreert zich gewoon en begint te gebruiken. Zelf hosten geeft u volledige controle, geen berichtlimieten en gegevensprivacy, maar vereist technische installatie. Qua kosten is zelf hosten veel goedkoper voor actieve gebruikers: €5,59/maand op Hetzner versus $59/maand voor Dify Cloud Pro.
Dify zelf heeft geen GPU nodig — het roept LLM-API's (OpenAI, Anthropic, enz.) op afstand aan. Als u echter lokale modellen wilt uitvoeren zonder API-kosten, kunt u Ollama op een GPU-server installeren en verbinden met Dify. Dify ondersteunt Ollama native als modelprovider.
Op een vers VPS kunt u rekenen op 30 tot 60 minuten voor de initiële installatie: 10 min serverconfiguratie, 5 min Docker-installatie, 5 min Dify klonen en configureren, 10 min eerste opstart (images downloaden), 10 min SSL-installatie. Na de eerste installatie duren updates minder dan 5 minuten.
Ja — bij zelf hosten blijven alle gegevens op uw server. Er worden geen gegevens naar Dify-servers gestuurd, behalve telemetrie (die kan worden uitgeschakeld). Gebruik Hetzner (Duitsland/Finland) voor volledige EU-gegevensresidentie. U beheert alle gegevens en kunt Dify configureren om alleen EU-gebaseerde LLM-providers te gebruiken.
Ja. Installeer Ollama op dezelfde server of een aparte GPU-server en configureer Dify om Ollama als modelprovider te gebruiken. Populaire lokale modellen: Llama 3.1 8B (algemeen gebruik), Mistral 7B (snel), CodeLlama 13B (programmeren). U heeft een GPU-server nodig voor acceptabele prestaties bij modellen groter dan 7B parameters.
Navigeer naar uw dify/docker-map en voer uit: git pull && docker compose pull && docker compose up -d. Dify gebruikt rolling updates waarbij databasemigraties automatisch worden beheerd. Maak altijd een back-up van uw PostgreSQL-database vóór grote versie-updates.
Dify ondersteunt meer dan 50 modelproviders, waaronder OpenAI, Anthropic (Claude), Google Gemini, Mistral, Cohere, Azure OpenAI, AWS Bedrock, Hugging Face, Replicate, Together AI en lokale modellen via Ollama, LocalAI en LM Studio.
Serverkosten: €5,59/maand (Hetzner CX32) verwerkt 10 gelijktijdige gebruikers comfortabel. LLM API-kosten zijn afhankelijk van gebruik — een typische gebruiker die 50 berichten per dag stuurt met GPT-4o-mini kost ongeveer $0,10/dag per gebruiker. Voor 10 gebruikers: ~$30/maand server + API-kosten. Totaal: $35-50/maand versus $59-159/maand op Dify Cloud.
Dify werkt via Docker, dus technisch gezien wel met Docker Desktop voor Windows. WSL2-beperkingen en Docker Desktop-overhead maken Windows-hosting echter onpraktisch voor productie. Gebruik altijd een Linux VPS (Ubuntu 22.04 aanbevolen) voor productie-Dify-implementaties.
De kern van Dify is open source onder Apache 2.0-licentie. Sommige enterprise-functies (SSO, auditlogs, geavanceerde rechten) vereisen de Enterprise Edition met een commerciële licentie. Voor de meeste zelf-hosters is de open source versie volledig uitgerust en volledig gratis.
Heeft u nog vragen?
Bekijk onze gedetailleerde gidsen of neem rechtstreeks contact met ons op. We reageren doorgaans binnen 24 uur.