Dify托管常见问题
自托管Dify最常见问题的解答——硬件要求、Docker配置、免费托管选项、GPU支持等。
Dify至少需要2个vCPU、4GB内存和50GB SSD存储空间。我们建议使用4个vCPU和8GB内存以获得舒适的使用体验。默认的Docker Compose配置运行10个以上的容器,包括Nginx、API服务器、工作进程、PostgreSQL、Redis和Weaviate向量数据库。
是的,部分可以。Railway每月提供5美元的免费额度,可以运行一个小型Dify实例。Render有免费套餐,但会在闲置后关闭,且只有512MB内存(太小了)。如需可靠的免费托管,最便宜的付费选项是Hetzner,每月仅需€3.79。
Dify Cloud为您处理所有基础设施——您只需注册并开始使用。自托管让您拥有完全控制权、无消息限制和数据隐私,但需要技术设置。从成本角度来看,自托管对活跃用户来说要便宜得多:Hetzner上每月€5.59,而Dify Cloud Pro每月59美元。
Dify本身不需要GPU——它远程调用LLM API(OpenAI、Anthropic等)。但是,如果您想在没有API费用的情况下运行本地模型,可以在GPU服务器上安装Ollama并将其连接到Dify。Dify原生支持Ollama作为模型提供商。
在全新的VPS上,初始设置大约需要30-60分钟:10分钟服务器配置、5分钟Docker安装、5分钟克隆和配置Dify、10分钟首次启动(镜像下载)、10分钟SSL设置。首次安装后,更新只需不到5分钟。
是的——自托管时,所有数据都保留在您的服务器上。除了遥测数据(可以禁用)外,没有任何数据发送到Dify的服务器。使用Hetzner(德国/芬兰)可实现完整的欧盟数据驻留。您控制所有数据,并可以将Dify配置为仅使用基于欧盟的LLM提供商。
可以。在同一台服务器或单独的GPU服务器上安装Ollama,然后将Dify配置为使用Ollama作为模型提供商。常见的本地模型:Llama 3.1 8B(通用)、Mistral 7B(快速)、CodeLlama 13B(编程)。对于超过7B参数的模型,您需要GPU服务器才能获得可接受的性能。
进入dify/docker目录,运行:git pull && docker compose pull && docker compose up -d。Dify使用滚动更新,数据库迁移自动处理。在进行重大版本更新前,请务必备份您的PostgreSQL数据库。
Dify支持50多个模型提供商,包括OpenAI、Anthropic(Claude)、Google Gemini、Mistral、Cohere、Azure OpenAI、AWS Bedrock、Hugging Face、Replicate、Together AI,以及通过Ollama、LocalAI和LM Studio运行的本地模型。
服务器费用:€5.59/月(Hetzner CX32)可以轻松处理10个并发用户。LLM API费用取决于使用情况——使用GPT-4o-mini每天发送50条消息的典型用户每天约需0.10美元。10个用户:约30美元/月服务器费用 + API费用。总计:35-50美元/月,而Dify Cloud需要59-159美元/月。
Dify通过Docker运行,所以从技术上说,使用Docker Desktop for Windows是可以的。但是,WSL2的限制和Docker Desktop的开销使得Windows托管对于生产环境来说不切实际。对于生产Dify部署,请始终使用Linux VPS(推荐Ubuntu 22.04)。
Dify的核心采用Apache 2.0许可证开源。某些企业功能(SSO、审计日志、高级权限)需要具有商业许可证的企业版。对于大多数自托管用户,开源版本功能完整且完全免费。