Welches Problem MCP löst
Vor MCP brauchte jeder KI-Assistent, der mit einem externen Werkzeug interagieren wollte, eine eigens dafür gebaute Integration. Sollte Claude Ihre GitHub-Issues lesen, musste jemand spezifischen Code dafür schreiben. Sollte er zusätzlich Ihre Datenbank abfragen, war das eine separate Integration. Und wechselten Sie von Claude zu GPT, begannen Sie von vorn.
So entstand eine fragmentierte Landschaft, in der Werkzeug-Hersteller für jede KI-Plattform eigene Adapter schrieben und KI-Entwickler eine wachsende Menge maßgeschneiderter Konnektoren pflegten.
Das Model Context Protocol ändert das, indem es einen einheitlichen, offenen Standard für die Kommunikation zwischen KI-Modellen und externen Diensten bereitstellt. Stellen Sie es sich vor wie USB für KI-Werkzeuge. Vor USB hatte jedes Peripheriegerät seinen eigenen Stecker. Nach USB lässt sich jedes Gerät an jeden Computer anschließen. MCP leistet Ähnliches für das KI-Ökosystem.
Wie MCP in der Praxis arbeitet
Im Kern definiert MCP eine Client-Server-Architektur. Der KI-Assistent agiert als Client, externe Werkzeuge laufen als MCP-Server. Das Protokoll legt genau fest, wie beide Seiten kommunizieren: welche Nachrichten sie senden, welches Format sie haben und wie Fehler behandelt werden.
Ein MCP-Server stellt Fähigkeiten bereit. Das können Tools (Funktionen, die die KI aufrufen kann), Resources (Daten, die die KI lesen kann) oder Prompts (Vorlagen, die die KI nutzen kann) sein. Verbindet sich ein KI-Assistent mit einem MCP-Server, entdeckt er die verfügbaren Fähigkeiten und kann sie in Konversationen nutzen.
Die eigentliche Kommunikation läuft über eine Transportschicht. Bei lokalen Servern üblicherweise stdio (Standard-Ein- und -Ausgabe). Bei entfernten Servern HTTP mit Server-Sent Events. Die Transportschicht ist vom Protokoll selbst getrennt, sodass neue Transportmechanismen ergänzt werden können, ohne wie Werkzeuge definiert werden zu ändern.
Was den Unterschied zu Function Calling ausmacht
Eine berechtigte Frage ist, wie sich MCP von den Function-Calling-Funktionen unterscheidet, über die Modelle wie GPT-4 und Claude bereits verfügen. Function Calling erlaubt Ihnen, Werkzeuge in der API-Anfrage zu definieren, und das Modell erzeugt strukturierte Aufrufe. Das passt gut für Anwendungs-Entwickler, die konkrete Produkte bauen.
MCP wirkt auf einer anderen Ebene. Statt Werkzeuge pro Anfrage zu definieren, sind MCP-Server eigenständige Dienste, die jeder kompatible KI-Client entdecken und nutzen kann. Eine Entwicklerin baut einen MCP-Server einmal, und er funktioniert mit Claude Desktop, Cursor, Windsurf und jedem weiteren protokollkompatiblen Client. Die Werkzeugdefinitionen liegen beim Server, nicht im Anwendungscode.
Diese Unterscheidung zählt, weil sie Werkzeug-Erstellung von Werkzeug-Konsum trennt. Wer einen Postgres-MCP-Server baut, muss nicht wissen, welcher KI-Assistent ihn nutzt. Und wer Claude verwendet, muss nicht wissen, wie der Postgres-Server intern arbeitet. Sie verbinden ihn und stellen Fragen zu ihrer Datenbank.
Das Sicherheitsmodell
MCP wählt einen zustimmungsbasierten Sicherheitsansatz. Wenn ein MCP-Server Werkzeuge anbietet, präsentiert der KI-Client sie dem Nutzer. Vor jedem Werkzeugaufruf muss der Nutzer ihn freigeben (oder Auto-Freigaben für vertrauenswürdige Server konfigurieren). So bleibt der Mensch bei sensiblen Operationen im Loop.
Das Protokoll unterstützt auch Authentifizierung. Entfernte MCP-Server können OAuth-Tokens oder API-Schlüssel verlangen, und der Client steuert den Auth-Fluss. Damit kann ein MCP-Server für die interne API Ihres Unternehmens dieselben Zugriffskontrollen erzwingen wie für jeden anderen Client.
Eine Herausforderung, an der die Community noch arbeitet, ist Sandboxing. Ein schlecht geschriebener oder bösartiger MCP-Server könnte auf Ressourcen zugreifen, die er nicht sollte. Aktuelle Best Practice ist, nicht vertrauenswürdige Server in isolierten Umgebungen laufen zu lassen und sorgfältig zu prüfen, welche Berechtigungen jeder Server verlangt.
Warum das fürs Ökosystem zählt
Die praktische Wirkung von MCP: Es schuf eine gemeinsame Grundlage für die Entwicklung von KI-Werkzeugen. Vor MCP war die Zahl der für einen KI-Assistenten verfügbaren Werkzeuge begrenzt durch das, was jemand speziell für ihn integriert hatte. Nach MCP wächst die Zahl mit dem gesamten Ökosystem.
Anfang 2026 sind über 10.000 MCP-Server verfügbar in verschiedenen Registries und Verzeichnissen. Sie reichen von Datenbankzugriff über Dateiverwaltung bis zu API-Integrationen mit verbreiteten Diensten. Diese Größenordnung wäre ohne ein gemeinsames Protokoll nicht möglich gewesen.
Für Entwickler bedeutet MCP: einmal bauen, überall nutzen. Für Nutzer: der gewählte Assistent begrenzt nicht die nutzbaren Werkzeuge. Und für die Branche: die Energie, die in redundante Integrationen floss, kann nun in bessere Werkzeuge fließen.
Weiterführende Lektüre
Stöbern Sie in MCP-Servern auf Skillful.sh. Durchsuchen Sie über 137.000 KI-Werkzeuge auf Skillful.sh.