Bijgewerkt maart 2026 RAG-handleiding Gevorderd

Dify RAG Handleiding 2026: Vragen beantwoorden vanuit eigen documenten

Retrieval-Augmented Generation (RAG) is de krachtigste functie van Dify. Deze handleiding laat je precies zien hoe je een AI bouwt die je documenten doorzoekt voor het beantwoorden — en zo nauwkeurige, onderbouwde antwoorden geeft in plaats van geconstrueerde gissingen.

Wat is Dify RAG?

RAG staat voor Retrieval-Augmented Generation. Deze techniek geeft je AI toegang tot je eigen documenten, databases en kennisbronnen — in plaats van alleen te antwoorden vanuit algemene trainingsdata doorzoekt het eerst je inhoud en genereert een antwoord op basis van wat het gevonden heeft.

Standaard LLM's zoals GPT-4 of Claude hallucineren wanneer gevraagd naar interne documenten, productspecificaties of bedrijfsbeleid — simpelweg omdat ze deze data niet kennen. Dify RAG lost dit op door een kennisbank te maken van je bestanden en de meest relevante tekstfragmenten als context in te voegen voordat het model antwoordt.

Het resultaat: een AI-chatbot die nauwkeurig antwoordt vanuit je echte data, bronnen citeert en "Ik weet het niet" zegt wanneer de informatie niet beschikbaar is — in plaats van iets te verzinnen.

Antwoorden vanuit je documenten
Dramatisch minder hallucinaties
Citeert specifieke tekstpassages
Werkt met PDF, Word, TXT, Markdown
Geen fine-tuning van het model nodig
Kennisbase altijd bij te werken

Hoe Dify RAG intern werkt

Het begrijpen van de pipeline helpt je bij de configuratie. Zo verloopt het proces wanneer je een document uploadt en je chatbot een vraag stelt:

1

Documentopname

Je uploadt een bestand. Dify extraheert de tekstinhoud uit PDF's, Word-documenten, Markdown, enz.

2

Chunking

De tekst wordt opgesplitst in kleinere fragmenten (typisch 500–1000 tokens) zodat de zoekopdracht nauwkeurig is.

3

Embedding

Elk fragment wordt omgezet naar een vector (lijst met getallen) met een embedding-model zoals text-embedding-3-small.

4

Vectoropslag

De vectoren worden opgeslagen in een vectordatabase (ingebouwd, pgvector, Qdrant, Weaviate, Milvus of Pinecone).

5

Query-retrieval

Wanneer een gebruiker een vraag stelt, wordt deze ook ingebed en worden de meest gelijkende fragmenten opgehaald uit de vectoropslag.

6

Context-injectie

De opgehaalde fragmenten worden als context ingevoegd in de LLM-prompt. Het model antwoordt op basis van deze echte data.

Belangrijk te begrijpen: RAG verandert het LLM niet. Het voegt een retrieval-stap toe voor de generatie. Dit betekent dat je je kennisbank op elk moment kunt bijwerken zonder het model aan te raken.
1

Kennisbank opzetten

De kennisbank is de plek waar je documenten uploadt en indexeert. Volg deze stappen:

1

Dify openen → tabblad "Knowledge"

Klik bovenaan in de navigatie op "Knowledge" (Kennis). Hier bevinden zich al je documentenverzamelingen.

2

Nieuwe kennisbank aanmaken

Klik op "+ Kennis aanmaken". Geef het een beschrijvende naam (bijv. "Productdocumentatie", "Support-FAQ").

3

Bestanden uploaden

Sleep bestanden naar binnen of selecteer ze via de browser. Ondersteund: PDF, Word (.docx), TXT, Markdown (.md), HTML, CSV. Meerdere bestanden tegelijk mogelijk.

4

Chunking-strategie kiezen

Kies "Automatisch" voor de meeste gevallen. Dit splitst documenten op paragrafen en koppen. Voor dichte technische documenten: "Aangepast" met 800-token chunks en 150-token overlap.

5

Embedding-model selecteren

Kies je embedding-model. OpenAI text-embedding-3-small wordt aanbevolen — snel, goedkoop en nauwkeurig. Bij zelf hosten werkt nomic-embed-text via Ollama ook offline.

6

Documenten indexeren

Klik op "Opslaan & Verwerken". Dify chunkt en embedt alles. Afhankelijk van de documentgrootte duurt dit 1–5 minuten. Een voortgangsbalk toont de status.

Tip: Goed opgemaakte documenten worden beter geïndexeerd. Verwijder kop- en voetteksten, paginanummers en standaardteksten uit je PDF's voor het uploaden om de retrieval-kwaliteit te verbeteren.
2

RAG verbinden met je app

Zodra je kennisbank geïndexeerd is, verbind je die met een chatbot of agent:

1

Open je chatbot of agent in Studio

2

Zoek in het linker paneel de sectie "Context"

3

Klik op "+ Context toevoegen" en kies je kennisbank

4

Stel de ophaalmode in op "Semantisch zoeken" (aanbevolen) voor betekenisgebaseerde retrieval of "Volledige tekstzoekopdracht" voor trefwoordmatching

5

Stel "Top K" in op 3–5 (hoeveel fragmenten per verzoek worden opgehaald). Begin met 3.

6

Schakel "Scoredrempel" in op 0,5 om irrelevante resultaten te filteren

7

Test in het voorbeeldvenster met vragen uit je documenten. Controleer of de bot correcte informatie geeft.

Pro-tip: Voeg toe aan je systeemprompt: "Wanneer je antwoordt vanuit de verstrekte context, vermeld altijd de naam van het brondocument." Dit maakt transparant welk document als bron diende.
3

Ondersteunde vectordatabases

Dify ondersteunt meerdere vectoropslagen. Voor de meeste gebruikers is de ingebouwde opslag voldoende. Voor grote deployments (miljoenen documenten) schakel je over naar een speciale vectordatabase:

Vectoropslag Installatie Ideaal voor Kosten
Ingebouwd (Standaard) Aanbevolen Geen De meeste gebruikers — tot ~100k documenten Gratis
pgvector PostgreSQL-extensie Bestaande PostgreSQL-gebruikers Gratis (zelf gehost)
Qdrant Docker-container Zelf gehost, hoge prestaties Gratis (zelf gehost)
Weaviate Docker of Cloud Multimodale data (tekst + afbeeldingen) Gratis / betaalde cloud
Milvus Docker of Zilliz Cloud Miljarden vectoren, Enterprise Gratis / betaalde cloud
Pinecone Alleen API-sleutel Volledig beheerd, geen infrastructuurwerk Betaalde SaaS
Aanbeveling: Begin met de ingebouwde vectoropslag. Die vereist geen configuratie en werkt goed voor de meeste projecten. Schakel alleen over naar een externe opslag als je meer dan 100.000 document-chunks hebt.
4

RAG-tips voor de beste resultaten

Deze configuratietips verbeteren je RAG-nauwkeurigheid aanzienlijk:

Optimale chunkgrootte: 500–1000 tokens

Te klein = ontbrekende context. Te groot = verwaterde relevantie. Voor de meeste documenten is 600 tokens met 100 token overlap ideaal.

Brondocumenten opschonen

Verwijder terugkerende kop- en voetteksten, paginanummers en navigatie-elementen. Deze creëren ruis die de retrieval-kwaliteit vermindert.

Metadata-filtering gebruiken

Label documenten met categorieën (bijv. "Product: Facturering", "Type: FAQ"). Filters maken nauwkeurige retrieval mogelijk uit relevante subsets.

Kennisbanken per onderwerp scheiden

Meng de producthandleiding niet met het personeelsbeleid. Aparte datasets maken nauwkeuriger retrieval mogelijk. Je kunt meerdere bases aan één app koppelen.

Hybride zoeken gebruiken

Dify ondersteunt een hybride modus (semantisch + trefwoordzoeken gecombineerd). Ideaal voor exacte termen zoals productcodes of eigennamen.

Retrieval monitoren in de logs

Ga naar Logs & Annotaties in je app om te zien welke chunks voor elk verzoek zijn opgehaald. Gebruik dit voor foutanalyse bij slechte antwoorden.

Ophaalmodi uitgelegd

Dify biedt drie ophaalmodi. Kies op basis van je inhoudstype:

Aanbevolen

Semantisch zoeken

Vindt conceptueel vergelijkbare inhoud, zelfs als de exacte woorden afwijken. Ideaal voor vragen in natuurlijke taal over complexe onderwerpen. Gebruikt vectorgelijkenis.

Volledige tekstzoekopdracht

Trefwoordgebaseerd zoeken zoals een klassieke zoekmachine. Beter bij exacte termen: productcodes, namen, ID's. Snel en voorspelbaar.

Hybride zoekopdracht

Combineert semantisch en volledige tekstzoeken met een re-ranker. Beste algemene nauwkeurigheid, maar langzamer. Vereist een re-ranker-model (bijv. cohere-rerank).

Externe databronnen & synchronisatie

Dify gaat verder dan eenvoudige bestandsuploads. Je kunt externe bronnen verbinden die automatisch synchroniseren:

Notion

Verbind je Notion-werkruimte. Dify synchroniseert pagina's automatisch. Ideaal voor teamwiki's en documentatie.

Web-scraping

Geef een URL op en Dify haalt de pagina op en indexeert die. Goed voor publieke documentatiesites.

Aangepaste API

Bouw een retrieval-plugin via de External Knowledge Base API. Verbind elke database of eigen databron.

Bestandsync via API

Upload en update documenten programmatisch via de Dataset API. Nuttig voor CMS-integraties.

Veelgestelde vragen

Wat is Dify RAG?

RAG staat voor Retrieval-Augmented Generation. Met Dify RAG kan je AI je eigen documenten, PDF's of databases doorzoeken voor het beantwoorden — dit vermindert hallucinaties aanzienlijk en verbetert de nauwkeurigheid bij vakspecifieke vragen.

Welke bestandsformaten ondersteunt Dify RAG?

De Dify kennisbank ondersteunt PDF, Word (.docx), Plaintext (.txt), Markdown (.md), HTML en CSV-bestanden. Je kunt ook externe databronnen verbinden via de API of synchroniseren met Notion.

Hoe vermindert Dify RAG hallucinaties?

In plaats van alleen te vertrouwen op de trainingskennis van het LLM, haalt Dify RAG relevante tekstfragmenten op uit je documenten en voegt ze in als context. Het model antwoordt vervolgens op basis van je werkelijke data.

Welke vectordatabases werken met Dify RAG?

Dify ondersteunt meerdere vectoropslagen: ingebouwd (standaard, geen installatie), pgvector (PostgreSQL), Qdrant, Weaviate, Milvus en Pinecone. De ingebouwde opslag is voldoende voor de meeste gebruikers.

Klaar om Dify met RAG zelf te hosten?

Zelf hosten van Dify geeft je volledige controle over je data — cruciaal als je kennisbank gevoelige documenten bevat. Draai Dify op je eigen server vanaf €3,79/maand op Hetzner of gebruik een volledig beheerde instantie op Elestio in minder dan 5 minuten.

Dify zelf hosten op Hetzner → Beheerde Dify op Elestio Alle hosting-opties vergelijken