Door Amber Wolff, Content Manager
Het Model Context Protocol (MCP) ontwikkelt zich tot een krachtige manier om AI-systemen uit te breiden met externe tools, databronnen en workflows. Het biedt een schone, flexibele manier om modellen te verbinden met de echte wereld – en dat maakt het een groot succes voor ontwikkelaars en productteams.
Maar naarmate de belangstelling toeneemt, komt er één zorg steeds weer terug: MCP is nog niet bedrijfsklaar als het gaat om beveiliging.
Waarom beveiliging een probleem is voor MCP's
De MCP van Anthropic maakt ongekende connectiviteit mogelijk, wat heeft geleid tot de wijdverbreide en snelle acceptatie ervan. Maar deze connectiviteit is een tweesnijdend zwaard.
Meerdere recent ontdekte CVE's geven aan dat MCP ontpopt zich als een nieuw aanvalsoppervlakEn net zoals AWS minder dan tien jaar geleden te kampen had met het probleem van onbeveiligde S3-buckets, is er nu een schokkend aantal MCP-servers blootgesteld aan het internet: beveiligingsleverancier Trend Micro ontdekte bijna 500 van dergelijke gevallen, terwijl Knostic AI er zelf meer dan drie keer zoveel ontdekte.
Helaas zijn de veiligheidsrisico's die hiermee gepaard gaan enorm. Onderzoek door API-beveiligingstestbedrijf Pynt ontdekte dat één enkele MCP-plug-in een kans van 9% op een kwetsbaarheidsexploitatie introduceert. Met slechts drie onderling verbonden servers is de kans op een exploit groter dan niet. En met tien MCP-plug-ins, ontdekte Pynt, is de kans op exploitatie vrijwel zeker, met een kans van 92%.
Erger nog, in tegenstelling tot traditionele beveiligingsproblemen, die vaak kunnen worden opgelost door simpelweg een patch te implementeren, opereert MCP doorgaans onder de applicatielaag, waardoor problemen moeilijk te detecteren en aan te pakken zijn.
Wat MCP mist
Hoewel MCP veelbelovend is, mist het huidige ecosysteem een aantal cruciale waarborgen die grote organisaties nodig hebben. Tegenwoordig werken MCP-implementaties vaak met:
- Geen standaard authenticatie- of autorisatiemodel
- Zwakke sandboxing rond externe tooluitvoering
- Hoge blootstelling aan snelle injectieaanvallen
- Beperkte beleidshandhaving, alleen beperkt tot individuele gebruikers of sessies
- Minimale monitoring- en auditkaders
Deze hiaten vormen niet alleen een theoretisch risico, ze creëren ook reële mogelijkheden voor escalatie van bevoegdheden, datalekken, onbedoelde uitvoering van tools en schendingen van de naleving.
Wat moet er veranderen
Om MCP veilig te kunnen implementeren in zakelijke of gereguleerde omgevingen, hebben we een sterkere basis nodig. Dat betekent dat we moeten bouwen aan:
1. Sterke authenticatie en fijnmazige toegangscontrole
Hulpmiddelen en gegevens mogen alleen door geautoriseerde personen kunnen worden aangeroepen en machtigingen moeten worden afgebakend, afgedwongen en intrekbaar zijn.
2. Sandboxing en uitvoeringsisolatie
Elk extern hulpmiddel dat door een AI-model wordt aangeroepen, moet in een zorgvuldig afgebakende omgeving worden uitgevoerd, en niet rechtstreeks op een productienetwerk of bestandssysteem.
3. Verdediging tegen snelle injectie en invoervalidatie
Modellen hebben voorzieningen nodig om te voorkomen dat ze gemanipuleerd worden en op onbedoelde wijze tools aanroepen.
4. Auditing, monitoring en nalevingsregistratie
Bedrijven moeten kunnen bijhouden wie wanneer, hoe en waarom toegang heeft gehad tot wat.
5. Snelheidsbeperking en DoS-beveiliging
Tool-eindpunten moeten bestand zijn tegen onbeheerste prompts en recursieve tool-aanroepen.
6. Beveiligd transport (TLS/SSL)
Elke MCP-verbinding moet gecodeerd zijn, punt uit.
7. Gegevensminimalisatie standaard
Het model mag alleen de gegevens zien die nodig zijn voor een bepaalde taak, niets meer.
The Bottom Line
MCP ontsluit krachtige nieuwe mogelijkheden. Maar zonder robuuste toegangscontrole, uitvoeringsisolatie, monitoring en injectiebestendige interfaces brengt het ook aanzienlijke risico's met zich mee.
De volgende golf van MCP-adoptie — vooral in grote bedrijven — zal afhangen van het dichten van deze beveiligingslekken.
Degenen die dit goed oplossen, zullen MCP niet alleen veiliger maken, maar ook vormgeven aan de manier waarop AI-systemen op grote schaal met de echte wereld omgaan.