Wat is het Model Context Protocol?
Het Model Context Protocol (MCP) is een open standaard die in november 2024 door Anthropic werd gepubliceerd en sindsdien is uitgegroeid tot de facto koppelstandaard voor AI-modellen. MCP bepaalt hoe een AI-model verbinding maakt met externe tools, databases en diensten.
Vergelijk het met hoe USB werkt voor randapparatuur: voor USB had iedere fabrikant zijn eigen aansluiting. Daarna hoefde je nog maar een kabel te kopen. MCP doet hetzelfde voor AI-integraties: in plaats van tientallen losse connectoren schrijf je eenmalig een MCP-server en werkt die met elk compatibel model.
In 2026 ondersteunen Claude, ChatGPT (via OpenAI API), Google Gemini, Mistral en de meeste open-source modellen via Ollama het protocol. n8n, Make en Zapier hebben MCP-nodes. De standaard is in korte tijd mainstream geworden.
Waarom is MCP relevant voor MKB?
Voor grotere bedrijven met eigen developerteams was AI-integratie altijd al mogelijk via maatwerkkoppelingen. MCP verandert dat: het maakt complexe AI-integraties toegankelijk zonder programmeerkennis op serverniveau.
Concreet betekent dit dat je Claude of ChatGPT rechtstreeks kunt laten werken met:
Het verschil met klassieke API-koppelingen: MCP is conversationeel. Je geeft het model toegang tot een tool en het model beslist zelf wanneer en hoe het die tool inzet om een vraag te beantwoorden.
Hoe werkt MCP in de praktijk?
MCP werkt met twee componenten: een MCP-client (het AI-model of de applicatie die het model aanstuurt) en een MCP-server (de verbinding met een specifieke dienst of dataset).
MCP-client
De MCP-client is de kant van het AI-model. Claude Desktop, de ChatGPT-desktop-app en tools als Cursor (de AI-code-editor) zijn voorbeelden van MCP-clients. Ze kunnen verbinding maken met MCP-servers en zo de mogelijkheden van het model uitbreiden.
MCP-server
Een MCP-server is een kleine software-laag die een externe dienst bereikbaar maakt voor het model. Er zijn al honderden kant-en-klare MCP-servers beschikbaar voor populaire tools: GitHub, Google Drive, Notion, Slack, PostgreSQL en vele anderen.
Je installeert een MCP-server lokaal of op een kleine VPS en configureert je AI-tool om er verbinding mee te maken. Daarna kun je direct in de chat vragen stellen als: "Maak een overzicht van alle openstaande facturen ouder dan 30 dagen" en het model haalt die data zelf op.
MCP versus klassieke automatisering
MCP en tools als n8n of Make vullen elkaar aan, maar ze zijn niet hetzelfde.
n8n en Make: workflow-automatisering
n8n en Make zijn sterk in gestructureerde, repetitieve taken: elke maandag een rapport sturen, nieuwe leads automatisch in je CRM zetten, facturen verwerken. De logica staat vast in het workflow-ontwerp.
MCP: conversationele toegang tot data
MCP is sterk wanneer de taak varieert en menselijk oordeel nodig heeft. "Welke klant heeft de meeste kans om te churnen en wat zou ik hen kunnen aanbieden?" is een vraag die een workflow niet kan beantwoorden, maar een model met MCP-toegang tot je CRM wel.
De beste aanpak in 2026: gebruik n8n of Make voor voorspelbare automatiseringen en MCP voor ad-hoc analyses en beslissingsondersteuning.
Aan de slag met MCP: drie praktische startpunten
Kosten en vereisten
MCP zelf is gratis en open-source. Wat je betaalt, zijn de API-kosten van het AI-model dat je gebruikt. Claude 3.7 Sonnet kost via de API ongeveer 3 dollar per miljoen invoertokens; voor de meeste MKB-gebruiksscenarios blijf je ruim onder 20 euro per maand.
Technische vereisten: je hebt een computer nodig waarop je software kunt installeren (Node.js of Python), of een medewerker of bureau dat dat eenmalig voor je opzet. Daarna is het gebruik volledig laagdrempelig.
Veiligheid en privacy
Een veelgestelde vraag: gaat mijn bedrijfsdata dan naar OpenAI of Anthropic? Dat hangt af van hoe je MCP gebruikt. De MCP-server draait op jouw eigen machine of server. Alleen de query die je stelt en het antwoord dat het model geeft worden via de API verstuurd.
Werk je met gevoelige data, dan kun je kiezen voor een lokaal draaiend model via Ollama dat ook MCP ondersteunt. Dan verlaat er helemaal niets jouw netwerk.
Conclusie: MCP is de infrastructuur van de AI-agent-laag
MCP is geen hype. Het is de technische basis waarop AI-agents worden gebouwd. Nu al gebruiken duizenden bedrijven het dagelijks om AI-modellen productief te maken met echte bedrijfsdata.
Voor MKB-ondernemers die AI willen inzetten voor meer dan tekstgeneratie, is MCP de schakel die ontbreekt: de verbinding tussen slim model en jouw systemen. Begin klein met Claude Desktop en een lokale bestandsserver. Bouw van daaruit verder.