Gepubliceerd op: 12 sep 2025

Model Context Protocol bij Blenddata: Zo laten we AI praten met onze data

AuteurKevin BeversFunctiePlatform Engineer

Tag(s)

Expert GenAI

In de wereld van kunstmatige intelligentie en data-analyse zijn we constant op zoek naar manieren om AI-tools effectiever te maken. Een van de grootste uitdagingen is het verbinden van AI-systemen met bestaande databronnen en tools. Het Model Context Protocol (MCP) biedt hiervoor een elegante oplossing. In deze blogpost nemen we je mee in onze ervaring met het implementeren van MCP bij Blenddata en laten we zien hoe dit protocol de manier waarop AI met data kan werken, revolutioneert.

AuteurKevin BeversFunctiePlatform Engineer

Tag(s)

Expert GenAI

Wat is het Model Context Protocol (MCP)?

Het Model Context Protocol (MCP) is een gestandaardiseerde manier om Large Language Models (LLMs) direct toegang te geven tot tools, API’s, databases, documentatie en andere databronnen. In plaats van dat je informatie moet kopiëren en plakken, kan de AI direct gebruik maken van deze tools en bronnen om context te krijgen en taken uit te voeren. Dit opent een wereld van nieuwe mogelijkheden.

Een veelvoorkomend probleem bij bedrijven is dat waardevolle informatie en tools wel beschikbaar zijn, maar niet toegankelijk voor AI-tools. Medewerkers moeten handmatig informatie opzoeken, kopiëren en plakken om AI-input te krijgen. Dit kost tijd en belemmert de productiviteit. MCP lost dit op door je LLM direct te verbinden met je bestaande tooling en databronnen

Waarom is MCP belangrijk, welke kansen biedt het?

MCP is belangrijk om drie kernredenen:

  1. Standaardisering – Voor MCP bestond er geen gestandaardiseerde manier om LLMs te verbinden met tools en databronnen. Elke integratie was een custom oplossing. MCP biedt een universele standaard die door de hele industrie wordt ondersteund.
  2. Directe tool-integratie – MCP maakt het mogelijk om je LLM direct te laten communiceren met je bestaande tooling, API’s en databronnen. Dit betekent dat je AI niet alleen kan praten, maar ook kan handelen door gebruik te maken van je tools.
  3. Nieuwe workflows mogelijk maken – Door deze verbindingen ontstaan er nieuwe use cases die voorheen niet mogelijk waren, zoals het direct bevragen van databases via natuurlijke taal of AI-assistenten die toegang hebben tot actuele documentatie en codebases.

Concrete voorbeelden:

  • Talk to your data – Stel vragen aan je database via natuurlijke taal en krijg direct antwoorden
  • Development ondersteuning – AI die toegang heeft tot je API-docs, dbt-modellen en codebase voor betere projectbegrip

Bij Blenddata zagen we hierin een kans om onze workflows toegankelijker te maken en de ontwikkelervaring te verbeteren door MCP te integreren in onze dagelijkse processen.

Hoe hebben we MCP bij Blenddata geïmplementeerd?

Tijdens ons onderzoek naar LLMs in combinatie met onze data kwam MCP naar voren als de beste oplossing. We wilden verkennen hoe we een LLM konden laten werken met onze data uit de data pipelines, en MCP bood precies wat we zochten: een gestandaardiseerde manier om AI-tools te verbinden met databronnen.

Onze implementatie in 5 stappen:

Stap 1: Data context opzetten met dbt MCP

  • Tool: Bestaande dbt MCP server (aangepast)
  • Wat we deden: We hebben onze Blenddata data stack door middel van dbt docs automatisch documentatie van onze datamodellen en hun onderlinge relaties. Op deze documentatie hebben we een MCP-server aangesloten, waardoor de LLM nu de context van de data-modellen kan bevragen.
  • Aanpassing: We hebben de bestaande server aangepast zodat we met een tool call de projectomschrijving pagina kunnen ophalen, wat veel beter werkt voor de AI.

Stap 2: Database toegang via PostgreSQL MCP

  • Tool: Bestaande Microsoft MCP server voor PostgreSQL (aangepast)
  • Wat we deden: Voor onze database die op PostgreSQL draait op Azure hebben we een bestaande MCP server van Microsoft gebruikt en licht aangepast.
  • Veiligheidsmaatregel: We hebben de tools voor het aanpassen en verwijderen van data uitgeschakeld voor veiligheid.

Stap 3: Test data selecteren

  • Data: Interne AFAS-data over productiviteit, omzet en projecturen
  • Reden: Omdat we hier al dashboards voor hadden, was dit de ideale manier om “chatten met je data” te testen.

Stap 4: AI workflow configureren

  • Tools: System prompts en gefinetuned prompts
  • Wat we deden: We hebben prompts gefinetuned en workflows uitgezet door middel van system prompts (regels). De AI haalt eerst dbt-contextinformatie op op basis van de metrics die worden bevraagd, en maakt daar vervolgens een SQL-query mee.

Stap 5: Model vergelijking en client ontwikkelen

  • Tools: Verschillende LLM modellen (o3-mini, GPT-4.1, GPT-4.1-mini) en eigen Python UI
  • Wat we deden: We hebben een eigen MCP client gebouwd – een Python UI die gebruik maakt van MCP servers, en verschillende modellen getest om de beste performance-to-cost ratio te vinden.

Wat hebben we geleerd van onze MCP-implementatie?

Onze testresultaten laten zien dat MCP extreem handig kan zijn in development-scenario’s, maar voor dashboard-eindproducten zijn er nog extra stappen nodig.

Onze 4 belangrijkste inzichten:

  1. MCP is nu al een game-changer voor development – We raden ieder bedrijf aan om hun AI-assistent te verbinden aan bestaande tooling. Zo heb ik mijn Notion, Terraform-documentatie en dbt docs aan mijn Cursor IDE hangen, waardoor ik makkelijk informatie kan bevragen zonder heen en weer plakken.
  2. GPT-4.1-mini biedt de beste performance-to-cost ratio – Tijdens onze model vergelijking bleek GPT-4.1-mini de beste keuze voor MCP-implementaties waar kosten een factor zijn, terwijl de tool usage accuracy identiek was aan GPT-4.1.
  3. Hybride aanpak werkt voor dashboards – We kunnen MCP gebruiken als dashboard chatbot waarbij alle data al voorgekauwd is via SQL queries van analisten. De LLM krijgt deze vooropgezette queries als tools, waarna eindgebruikers ermee kunnen chatten.
  4. Betrouwbaarheid blijft de grootste uitdaging – MCP biedt waardevolle interne toepassingen, maar is nog niet klaar voor zero-shot klantgerichte applicaties. Betrouwbaarheid en nauwkeurigheid blijven de grootste uitdagingen, hoewel dit snel kan veranderen met de continue ontwikkeling van LLM’s.

TLDR

✅ Werkt goed:

  1. Developer tools en codebegrip
  2. Interactie met documentatie en API’s
  3. Brug naar bestaande tooling (CLI’s, documentatie)

⚠️ Uitdagingen:

  1. Text-to-SQL is niet altijd 100% betrouwbaar
  2. Context inconsistentie tussen verschillende tools
  3. Hallucinatie risico bij complexe queries

🔒 Veiligheidsrichtlijnen:

  1. Alleen leesrechten op databases
  2. Test eerst met kleine datasets
  3. Log welke tools worden gebruikt

Hoe kan jij starten met MCP servers gebruiken?

Wil je zelf aan de slag met MCP? We laten je zien hoe je in een paar stappen je eigen MCP setup kunt opzetten. We gebruiken Notion als voorbeeld, maar je kunt dit proces toepassen op andere MCP servers.

Stap 1: Download Cursor IDE Download Cursor IDE van cursor.com/downloads. Dit is onze MCP client die we gaan gebruiken.

Stap 2: Kies een MCP Server Voor deze tutorial gebruiken we de Notion MCP server van makenotion/notion-mcp-server. Dit is een goede keuze omdat Notion voor de meeste mensen toegankelijk is.

Stap 3: Zet Docker Desktop op Zorg dat Docker Desktop up-to-date is. We gaan de Docker MCP toolkit (beta) gebruiken om de installatie te vereenvoudigen. Je kunt dit ook doen via de mcp config .json die de meeste clients hebben.

Stap 4: Voeg de Notion MCP server toe In Docker Desktop ga je naar de MCP toolkit en voeg je de Notion MCP server toe. Dit proces is visueel en gebruiksvriendelijk.

Stap 5: Configureer de Notion MCP server Je hebt een Notion API token nodig. Ga naar notion.so/profile/integrations om dit aan te maken. Volg de instructies op de Notion MCP GitHub pagina voor de exacte stappen.

Stap 6: Verbind Cursor met de MCP toolkit In de MCP toolkit ga je naar het clients tabblad en klik je op “connect” bij Cursor. Dit voegt de docker mcp toolkit toe aan de mcp.json van Cursor.

Stap 7: Herstart Cursor (optioneel) Herstart Cursor om er zeker van te zijn dat alles correct is geladen.

Stap 8: Controleer de verbinding Ga naar File > Preferences > Cursor Settings > Tools & Integrations om te zien of de MCP server correct is verbonden.

Stap 9: Test het uit! Start een nieuwe chat (Ctrl + I) en probeer het uit. Je kunt nu vragen stellen over je Notion data en de AI heeft direct toegang tot je Notion workspace.

Voorbeeld prompts om te proberen:

  1. “Wat zijn mijn laatste taken in Notion?”
  2. “Toon me de belangrijkste notities van deze week”
  3. “Help me een nieuwe pagina structuur maken voor mijn project”

Onze aanbevelingen voor beginners

  1. Begin klein: Start met eenvoudige mcp servers en use cases
  2. Test grondig: Valideer resultaten die terugkomen van de tooling (het blijft een LLM!)
  3. Focus op development: Gebruik MCP als developer aid, niet als eindgebruikers tool

Tip: MCP servers gebruiken om je AI-assistant context te geven is ideaal voor nieuwe teamleden om snel inzicht te krijgen in complexe projecten. Bijvoorbeeld: “Ik ga aan project X werken, help me de datamodellen te begrijpen.”

Wij maken jouw data toegankelijk voor AI

Blenddata is een data engineering consultancy die zich specialiseert in het bouwen van betrouwbare datapipelines en moderne data-architecturen. We helpen bedrijven om hun data toegankelijk en bruikbaar te maken.

Met onze ervaring in MCP kunnen we jouw organisatie helpen om AI-tools te gaan gebruiken. Of het nu gaat om dbt-documentatie, databases of andere bronnen, we kunnen je helpen om de kracht van AI te benutten in je dagelijkse werk.

wil jouw bedrijf ontdekken hoe AI ingezet kan worden?

Of ben jij als ontwikkelaar nieuwsgierig naar de mogelijkheden, neem contact met ons op!

Contact

Vincent Fokker

Co-founder | Data Architect

Share this page

Blenddata © 2025 | Alle rechten voorbehouden

Website made by: Gewest13