Tutorials

MCP uitgelegd, de stekker van je AI-agent

· 6 min leestijd

Als je in 2026 iets met AI-agents doet, ben je vrijwel zeker het acroniem MCP tegengekomen. Model Context Protocol, afgeleid van Anthropic, is in een jaar tijd uitgegroeid tot de industriestandaard voor hoe AI-agents met externe tools en data praten. Laten we uitpakken wat het is, waarom het bestaat, en wanneer je het moet gebruiken.

Het probleem dat MCP oplost

Voordat MCP bestond, had elke AI-applicatie een eigen manier om tools aan het model te koppelen. Wilde je je agent aan je database laten praten? Schrijf een custom integratie. Wilde je dezelfde database aan een andere agent koppelen? Schrijf de integratie opnieuw. Elke combinatie van client (agent) en server (tool/data) vroeg om werk.

Dat is hetzelfde probleem dat USB oploste in de jaren negentig. Voor USB had elke printer, scanner en muis een eigen connector. Na USB plug je van alles in van alles. MCP doet ditzelfde voor AI-agents en tools.

De kern van het protocol

MCP definieert drie dingen in een gestandaardiseerd formaat:

  • Tools — functies die de agent mag aanroepen (bijv. search_jira, create_file)
  • Resources — lees-data die de agent mag opvragen (bijv. een bestandssysteem, een kennisbank)
  • Prompts — herbruikbare templates die de server aanbiedt

Een MCP-server implementeert die drie concepten. Een MCP-client (je agent) maakt er gebruik van. Ze praten via een eenvoudig JSON-RPC protocol over stdio, HTTP of WebSocket.

Een concreet voorbeeld

Stel je bouwt een agent die je helpt met klantenservice. Je hebt nodig: toegang tot je ticketsysteem (Zendesk), toegang tot je product-documentatie (Confluence), en toegang tot je codebase (GitHub).

Vóór MCP zou je drie custom integraties schrijven. Met MCP gebruik je drie bestaande servers: mcp-server-zendesk, mcp-server-confluence en mcp-server-github. Je configureert ze in je agent met een paar regels JSON en je bent klaar. Het model ziet automatisch alle tools die die servers aanbieden.

De brede ecosystemen zijn het mooie. Zoekmachines hebben honderden MCP-servers geïndexeerd voor vrijwel elke grote SaaS-tool. Slack, Notion, Linear, Jira, Figma, Stripe, je noemt het.

Zelf een MCP-server bouwen

Schrijft een eigen MCP-server is simpel. Anthropic's SDK kent implementaties in Python en TypeScript. Een minimale server in Python is ongeveer 50 regels code: je definieert tools (naam, beschrijving, input schema), implementeert de functies, en start de server.

Wanneer bouw je je eigen? Als de data of tool intern is (je bedrijfsspecifieke API, een interne database, een custom workflow). Voor alles wat publiek is, check eerst of er al een server bestaat. Waarschijnlijk wel.

Het model verandert niet

Een belangrijke nuance: MCP is een transportlaag, geen modelfeature. Het model zelf weet niet eens dat het MCP is. De client leest de tool-definities uit de MCP-server en stuurt ze in het standaard tool-use formaat naar het model. Het model doet wat het altijd al deed: kijken welke tool past bij de vraag, en die aanroepen.

Dat betekent ook dat MCP werkt met elk model dat tool use ondersteunt: Claude, GPT, Gemini, lokale modellen via LlamaIndex. Dat is bewust zo ontworpen.

Beveiliging is niet triviaal

Als je een agent toegang geeft tot MCP-servers, geef je effectief toegang tot alle tools die die servers blootstellen. Kwaadaardige servers kunnen data exfiltreren of schadelijke tools aanbieden die het model laat uitvoeren. In 2025 zagen we meerdere incidenten met prompt injection via vervuilde MCP-resources.

Daarom gelden een paar regels: gebruik alleen servers die je vertrouwt, draai lokale servers in een sandbox, en limiteer wat een agent zelfstandig mag zonder menselijke goedkeuring. Dit raakt direct aan het bredere veiligheidsverhaal rond AI-safety van moderne modellen.

Hoe begin je?

Installeer een MCP-compatibele client, zoals Claude Desktop, Claude Code, Cursor, of de OpenAI Agents SDK. Open de configuratie, voeg een MCP-server toe (bijv. @modelcontextprotocol/server-filesystem), geef het pad waar de agent mag lezen, en start je client.

Binnen vijf minuten heeft je agent toegang tot een lokale directory en kan je hem vragen bestanden te lezen, te bewerken of te zoeken. Vanaf daar schaal je op naar complexere servers. Voor een complete gids zie ons artikel over je eerste agent bouwen.

Plumbing is het nieuwe innovatie

MCP is niet glamoureus. Het is plumbing. Maar dat is precies waarom het werkt. Een stukje standaardisatie op het juiste moment is meer waard dan honderd slimme innovaties die niet compatible zijn. Voor de officiële specificatie zie de MCP-documentatie. Reken erop dat elke serieuze AI-tool in 2026 MCP-compatibel is, of er heel hard mee bezig is.

Michael Groeneweg
Geschreven door Michael Groeneweg AI-consultant bij Digital Impact en oprichter van UnicornAI.nl

Michael is AI-consultant bij Digital Impact in Rotterdam en oprichter van UnicornAI.nl, waar hij AI-oplossingen en SaaS-integraties bouwt voor bedrijven. Al tien jaar ondernemer, en sinds een paar jaar weigert hij iets te doen waar geen AI in verweven zit, zakelijk noch prive, tot mild ongenoegen van zijn omgeving. Zijn reizen door de wereld zijn inmiddels een serie experimenten in wat AI wel en niet kan vanaf een terrasje in Lissabon of een treinstation in Tokio. Hij test obsessief nieuwe tools, bouwt oplossingen voor klanten, en vindt dat niemand de hype moet geloven, maar ook niemand meer kan doen alsof AI niet alles verandert. Houdt van goede koffie, lange vluchten en mensen die met AI bouwen in plaats van er alleen over praten.