Back to Blog

Wat is het Model Context Protocol (MCP)? Een uitleg voor iedereen die met AI werkt

Als je met AI-tools werkt, ben je waarschijnlijk al tegen deze frustratie aangelopen: je AI-assistent kan indrukwekkende analyses maken en complexe vragen beantwoorden, maar zodra je het iets wilt laten doen met je eigen bedrijfsdata - een document uit Google Drive ophalen, informatie uit Slack zoeken, of je database raadplegen - loop je tegen beperkingen aan. Je moet alles handmatig kopiëren en plakken, of je hebt geluk en er bestaat al een specifieke integratie voor jouw combinatie van tools.

Dit is het kernprobleem dat het Model Context Protocol probeert op te lossen. Maar voordat we ingaan op wat MCP precies is, is het belangrijk om te begrijpen waarom dit probleem überhaupt bestaat.

Het fundamentele probleem: AI-modellen leven in isolatie

Wanneer je ChatGPT, Claude of een ander AI-model gebruikt, werkt het in principe met twee soorten kennis. Ten eerste heeft het de training data waarop het getraind is - een enorme hoeveelheid tekst van het internet, boeken en andere bronnen. Ten tweede heeft het de informatie die jij expliciet in je conversatie stopt - je prompt, eventuele documenten die je uploadt, en de eerdere berichten in jullie gesprek.

Maar dat is ook alles. Het model heeft geen toegang tot je e-mail, je bedrijfsdocumentatie, je projectmanagement tools, of welke andere databron dan ook waar jouw werk zich afspeelt. Dit is logisch vanuit privacy-perspectief, maar het beperkt enorm hoe nuttig AI kan zijn voor je dagelijks werk.

Bedrijven hebben dit natuurlijk al langer onderkend. Daarom zie je dat veel tools hun eigen AI-integraties bouwen. Notion heeft AI-features die je Notion-content kunnen doorzoeken. Slack voegt AI toe die je conversaties kan samenvatten. Maar dit leidt tot een versnipperd landschap. Elke tool bouwt zijn eigen oplossing, en die oplossingen praten niet met elkaar.

MCP: een gemeenschappelijke taal voor AI en data

Het Model Context Protocol is een open standaard die één universele manier definieert waarop AI-applicaties kunnen communiceren met databronnen. Je kunt het vergelijken met hoe HTTP het mogelijk maakt dat elke webbrowser met elke website kan communiceren, zonder dat de browser hoeft te weten hoe de backend van die specifieke website werkt.

Laten we dit concreet maken met een voorbeeld. Stel je voor dat je werkt aan een project en je wilt dat je AI-assistent je helpt met een analyse van alle discussies die je team hierover heeft gevoerd. Die discussies zitten verspreid over Slack-berichten, Google Docs commentaren, en misschien GitHub issues als het een software-project is. Zonder MCP zou je AI-tool drie separate integraties nodig hebben, elk speciaal gebouwd voor die specifieke dienst. Met MCP werkt het anders.

Hoe MCP werkt: servers en clients

MCP bestaat uit twee hoofdcomponenten die met elkaar praten. Aan de ene kant heb je MCP servers. Dit zijn programma's die toegang geven tot een specifieke databron via het MCP protocol. Je kunt bijvoorbeeld een MCP server hebben voor je Google Drive. Deze server weet hoe hij moet inloggen op je Google Drive, hoe hij bestanden moet zoeken en ophalen, en hoe hij die informatie moet formatteren volgens de MCP standaard.

Aan de andere kant heb je MCP clients. Dit zijn de AI-applicaties zelf - denk aan Claude Desktop, of een AI-powered code editor. Deze clients weten hoe ze via het MCP protocol met servers kunnen communiceren. Ze hoeven niet te weten hoe Google Drive technisch werkt, ze hoeven alleen te weten hoe ze via MCP moeten vragen naar bestanden.

De communicatie tussen client en server gebeurt via een technologie genaamd JSON-RPC over standaard input en output. Dit klinkt misschien technisch, maar het belangrijkste om te begrijpen is dat het een bewust simpele keuze is. De servers draaien als aparte processen op je eigen computer of in je eigen netwerk, en communiceren via standaard kanalen die elk besturingssysteem ondersteunt.

Wat maakt MCP anders dan bestaande oplossingen?

Je vraagt je misschien af hoe dit verschilt van andere benaderingen die je misschien bent tegengekomen. Een belangrijke techniek in AI is Retrieval Augmented Generation, of RAG. Bij RAG zoekt het systeem relevante stukjes tekst op uit een database en stopt die in de context van het AI-model voordat het antwoord genereert. Dit werkt goed voor het doorzoeken van documentatie of kennisbanken.

Leest de intro over RAG - Retrieval Augmented Generation

MCP gaat een stap verder op twee manieren. Ten eerste is het niet beperkt tot het ophalen van tekst. Een MCP server kan ook tools beschikbaar stellen die acties uitvoeren. Je kunt bijvoorbeeld een MCP server bouwen die niet alleen issues uit je projectmanagement systeem kan opzoeken, maar ook nieuwe issues kan aanmaken of de status van bestaande issues kan wijzigen. Het AI-model krijgt dus niet alleen leestoegang maar ook schrijftoegang, waar dat zinvol is.

Ten tweede is MCP ontworpen als een standaard die door verschillende AI-tools gebruikt kan worden. Bij RAG bouwt elke applicatie meestal zijn eigen systeem. Met MCP bouw je één keer een server voor, bijvoorbeeld, je bedrijfswiki, en dan kan elke AI-tool die MCP ondersteunt daarbij. Dit scheelt enorm veel dubbel werk.

De praktische implementatie

Laten we even kijken hoe dit er in de praktijk uitziet. Stel je bouwt een MCP server voor je CRM database. Deze server definieert een aantal dingen. Ten eerste definieert het welke resources het aanbiedt - bijvoorbeeld toegang tot specifieke tabellen zoals contacten of leads. Ten tweede kan het tools definiëren - bijvoorbeeld een tool om een contact te updaten of om een nieuwe lead aan te maken. Ten derde kan het prompts definiëren - voorgedefinieerde vragen die vaak gesteld worden en die optimaal geformuleerd zijn.

Wanneer je AI-applicatie verbinding maakt met deze MCP server, krijgt het een lijst van wat er allemaal beschikbaar is. Het model kan dan tijdens een conversatie besluiten dat het informatie uit het CRM nodig heeft. Het vraagt via het protocol aan de server om een specifieke query uit te voeren. De server doet dat, geeft de resultaten terug in een gestructureerd format, en het model gebruikt die informatie om je vraag te beantwoorden.

Het belangrijke hier is dat jij als gebruiker controle houdt. De MCP servers draaien op jouw infrastructuur. Je bepaalt welke data ze toegankelijk maken en welke acties ze kunnen uitvoeren. Het is niet zo dat alle data automatisch naar Anthropic of OpenAI wordt gestuurd.

Waarom nu en wat zijn de uitdagingen?

Anthropic heeft MCP eind november 2024 gelanceerd als open source project. Het is niet de eerste poging om AI en bedrijfsdata beter te verbinden, maar het is wel een poging om dit via een open standaard te doen in plaats van via proprietary oplossingen.

Er zijn al pre-built MCP servers beschikbaar voor populaire diensten zoals Google Drive, Slack, GitHub en Postgres. Bedrijven zoals Block en Apollo experimenteren ermee, en development tool makers zoals Replit, Codeium en Sourcegraph voegen ondersteuning toe aan hun platformen.

Maar hier komt wel de grootste uitdaging. Technische standaarden slagen of falen vaak niet op basis van hun technische kwaliteit, maar op basis van adoptie. OpenAI heeft recent een eigen feature gelanceerd genaamd "Work with Apps" die een vergelijkbaar probleem probeert op te lossen, maar dan via partnerships en hun eigen aanpak. Google zal ongetwijfeld ook hun eigen visie hebben. Het risico bestaat dat we eindigen met meerdere incompatibele protocollen in plaats van één universele standaard.

Wat betekent dit voor jou?

Als je nadenkt over hoe AI ingezet kan worden binnen je organisatie op een manier die verder gaat dan algemene vragen beantwoorden, dan is MCP relevant om te volgen. Het belooft een toekomst waarin je niet voor elke nieuwe AI-tool opnieuw alle integraties hoeft te bouwen. Je bouwt eenmalig de verbinding tussen je datasources en het MCP protocol, en elke tool die MCP ondersteunt kan er dan gebruik van maken.

We zitten echter nog wel in een vroege fase. De SDKs zijn beschikbaar in verschillende programmeertalen zoals Python, TypeScript, PHP, Go en Ruby. De documentatie groeit. Early adopters experimenteren ermee. Maar het is nog geen gevestigde standaard die overal ondersteund wordt.

De komende zes tot twaalf maanden zullen cruciaal zijn. We zullen zien of MCP voldoende momentum krijgt bij zowel AI-providers als tool-makers, of dat we een gefragmenteerd landschap krijgen met meerdere concurrerende standaarden. Voor nu is het vooral interessant om te volgen als je strategisch nadenkt over AI-integratie binnen je organisatie.

Heb je vragen over specifieke aspecten van MCP, of ben je benieuwd hoe dit zou kunnen werken voor jouw situatie? Ik denk graag met je mee over de praktische implicaties.