Unser basecom Blog - Innovative News

Digital Insights: Model Context Protocol – Die Brücke zwischen KI und realen Daten

Geschrieben von Peter van der Zwaag | 03.07.25 12:29

Der Einsatz von KI-Technologien hält für Unternehmen und Organisationen enorme Potenziale bereit. Um die Möglichkeiten großer Sprachmodelle aber wirklich nutzen zu können, müssen diese LLMs effektiv und sicher in die eigene Systemlandschaft integriert werden. Das Model Context Protocol kann dabei in Zukunft eine entscheidende Rolle spielen. 

Die rasante Weiterentwicklung der künstlichen Intelligenz, insbesondere großer Sprachmodelle, hat beispiellose Fähigkeiten im Bereich des Denkens und des Sprachverständnisses freigesetzt. Eine grundlegende Einschränkung bleibt jedoch bestehen: Diese hochentwickelten Modelle operieren oft isoliert und haben keinen direkten Zugriff auf die riesigen und dynamischen Datensätze, die realen Anwendungen zugrunde liegen. Diese Isolation schränkt ihre Fähigkeit ein, wirklich relevante, genaue und umsetzbare Antworten zu generieren, und behindert so ihr volles Potenzial. Traditionell erforderte die Anbindung von KI-Systemen an externe Datenquellen aufwendige und oft maßgeschneiderte Integrationen, die typischerweise auf benutzerdefinierten Application Programming Interfaces (APIs) für jede Datenquelle beruhten. Dieser Ansatz birgt erhebliche Herausforderungen in Bezug auf Entwicklungszeit, Komplexität, Skalierbarkeit und Wartung, wenn die Anzahl der Datenquellen wächst. Das Model Context Protocol bietet eine effizientere und standardisierte Methode, um diesen Herausforderungen zu begegnen.

Was ist MCP?

Das Model Context Protocol (MCP) ist ein offenes Protokoll, das entwickelt wurde, um zu standardisieren, wie Anwendungen großen Sprachmodellen (LLM) Kontextinformationen und Werkzeuge bereitstellen. Stellen Sie sich MCP als einen universellen Adapter vor, ähnlich dem allgegenwärtigen USB-C-Anschluss, der die Verbindung verschiedenster Geräte mit Computern und Peripheriegeräten vereinfacht hat. So wie USB-C eine standardisierte Schnittstelle für verschiedene Daten- und Energieübertragungen bietet, bietet MCP eine konsistente und einheitliche Möglichkeit für KI-Modelle, auf eine breite Palette von Datenquellen und externen Werkzeugen zuzugreifen und diese zu nutzen. Diese Standardisierung fördert die Interoperabilität und vereinfacht die Entwicklung von KI-gestützten Anwendungen, die Zugriff auf externe Informationen benötigen.

Evolution von LLMs

Die erste Generation: Standalone LLMs

2018: OpenAI stellte den Generative Pre-trained Transformer (GPT) vor, der einen zweistufigen Trainingsprozess (unüberwachtes Vortraining und überwachtes Feinabstimmung) nutzte und die Fähigkeit demonstrierte, einfache Aufgaben wie das Beantworten von Fragen auszuführen. GPT-1 zeigte das Potenzial des Vortrainings auf riesigen Mengen unbeschrifteter Daten, um allgemeine Sprachrepräsentationen zu erlernen. 
Die erste Generation von LLMs zeichnete sich hauptsächlich durch ihre Fähigkeit zur Textgenerierung und zum Textverständnis aus, basierend auf den Mustern, die sie aus riesigen Datensätzen gelernt hatten. Sie verließen sich auf unüberwachtes Vortraining, gefolgt von aufgabenspezifischer Feinabstimmung. Obwohl diese Modelle leistungsstark waren, fehlte ihnen oft die Möglichkeit, mit externen Systemen zu interagieren oder auf Echtzeitinformationen zuzugreifen, was ihre Anwendbarkeit in bestimmten realen Szenarien einschränkte.  

Die zweite Generation: Integration mit Werkzeugen

Die Beschränkungen der ersten Generation von Standalone-LLMs, insbesondere ihre Unfähigkeit, auf aktuelle Informationen zuzugreifen oder Aktionen in der realen Welt durchzuführen, machten die Notwendigkeit einer Integration mit externen Ressourcen deutlich. Die zweite Generation von LLMs begann, Mechanismen zur Interaktion mit externen Werkzeugen und Datenquellen zu integrieren. Dieser Übergang markierte eine signifikante Verschiebung hin zu dynamischeren LLMs, die in der Lage waren, ein breiteres Spektrum an Aufgaben zu lösen, indem sie externe Ressourcen nutzten.

Die dritte Generation: Nutzung von Model Context Protocols (MCPs)

Die dritte Generation von LLMs läutet eine neue Ära der Integration durch die Nutzung von Model Context Protocols (MCPs) ein. MCPs stellen ein standardisiertes Framework dar, das es LLMs ermöglicht, auf sinnvollere und strukturiertere Weise mit externen Systemen und Werkzeugen zu interagieren. Sie zielen darauf ab, eine "universelle Fernbedienung" oder einen "USB-C-Anschluss" für KI bereitzustellen, wodurch die Integration von LLMs mit verschiedenen Datenquellen und Werkzeugen vereinfacht und standardisiert wird.

 

Die Erfindung des Model Context Protocols

Das Model Context Protocol (MCP) wurde von Anthropic, dem KI-Forschungsunternehmen hinter dem Claude AI-Assistenten, entwickelt und als Open Source Software veröffentlicht. Die öffentliche Ankündigung von MCP erfolgte im späten November 2024. MCP wurde als Reaktion auf den wachsenden Bedarf an einem gemeinsamen Standard für die Integration von KI-Modellen mit externen Daten und Diensten geschaffen und befasst sich mit den Einschränkungen von maßgeschneiderten und nicht interoperablen Integrationen. Ziel von MCP ist es, den Prozess der Kontextbereitstellung für KI-Systeme zu vereinfachen und es ihnen zu ermöglichen, bessere und relevantere Antworten zu generieren.

Die Funktionsweise des MCP

Im Kern arbeitet MCP mit einer Client-Server-Architektur. Dieses Framework umfasst unterschiedliche Rollen für die Komponenten, die die Kommunikation zwischen KI-Modellen und externen Systemen ermöglichen. MCP-Hosts sind typischerweise die KI-Anwendungen selbst, wie z. B. intelligente Code-Editoren oder KI-Assistenten, die Zugriff auf externe Daten oder Funktionalitäten benötigen. Diese Hosts initiieren Anfragen nach Informationen oder Aktionen. MCP-Clients fungieren als Vermittler und unterhalten eine dedizierte Verbindung zu einem oder mehreren MCP-Servern. Ihre Hauptfunktion besteht darin, die Anfragen vom Host an den entsprechenden Server weiterzuleiten und die Antworten an den Host zurückzugeben. MCP-Server hingegen sind schlanke Programme, die spezifische Fähigkeiten über das standardisierte MCP-Protokoll bereitstellen. Diese Server sind für die Verbindung zu den eigentlichen Datenquellen verantwortlich, die lokale Dateien, Datenbanken oder Remote-Dienste sein können, auf die über APIs zugegriffen wird. Dieses modulare Design gewährleistet Skalierbarkeit und fördert eine klare Trennung der Verantwortlichkeiten, sodass sich Entwickler*innen auf die Erstellung spezialisierter Server für verschiedene Datenquellen konzentrieren können.

MCP unterstützt mehrere Kommunikationsmethoden, um Flexibilität bei der Interaktion dieser Komponenten zu bieten. Zwei primäre Transporttypen sind derzeit prominent: stdio und Server-Sent Events (SSE). Der Stdio-Transport ist für die lokale Kommunikation konzipiert, bei der der MCP-Server auf demselben Rechner wie der MCP-Host läuft. Er wird automatisch vom System verwaltet und kommuniziert direkt über den Standardausgabestrom. Diese Methode ist von Natur aus lokal und nicht über ein Netzwerk zugänglich. Der SSE-Transport bietet mehr Vielseitigkeit und ermöglicht es, MCP-Server entweder lokal oder remote auszuführen. Er wird von den Benutzer*innen verwaltet und ausgeführt und kommuniziert über ein Netzwerk via HTTP. Dies ermöglicht die gemeinsame Nutzung von MCP-Servern über verschiedene Rechner hinweg. Die Wahl der Transportmethode hängt von den spezifischen Anforderungen der Anwendung ab, einschließlich Faktoren wie der Bereitstellungsumgebung und den Zugänglichkeitsbedürfnissen.

Vorteile des MCP

Die Einführung des Model Context Protocol bedeutet einen Paradigmenwechsel in der Art und Weise, wie KI-Systeme mit der Welt interagieren, und bietet zahlreiche Vorteile, die die Einschränkungen traditioneller Integrationsmethoden angehen. Einer der bedeutendsten Vorteile ist die Standardisierung und Vereinfachung der Integration. Durch die Bereitstellung eines einzigen, konsistenten Protokolls vereinfacht MCP den Prozess sowohl für Anbieter von KI-Modellen als auch für Entwickler*innen von SaaS-Anwendungen, ihre Systeme zu verbinden. Das eliminiert die Notwendigkeit maßgeschneiderter Integrationen für jede neue Datenquelle, reduziert den Entwicklungsaufwand erheblich und vereinfacht die laufende Wartung. Anstatt sich mit den einzigartigen Feinheiten verschiedener APIs auseinandersetzen zu müssen, können Entwickler*innen auf Basis eines gemeinsamen Standards entwickeln, was einen effizienteren und skalierbareren Ansatz für die KI-Integration fördert. Dieser einheitliche Ansatz erschließt das Potenzial für KI-Modelle, nahtlos auf eine Vielzahl von Werkzeugen und Diensten über einen einzigen Integrationspunkt zuzugreifen.

Darüber hinaus ermöglicht MCP einen verbesserten Kontext und Echtzeit-Datenzugriff für KI-Modelle. Das Protokoll ermöglicht es KI-Systemen, dynamisch und sicher, oft in Echtzeit, mit Datenquellen zu interagieren. KI-Modelle können sich direkt mit externen Datenrepositorien verbinden, um Informationen zu lesen und sogar zu schreiben, wodurch sichergestellt wird, dass sie Zugriff auf den aktuellsten Kontext haben. Diese Fähigkeit unterstützt eine persistente, bidirektionale Kommunikation, die es der KI ermöglicht, nicht nur Informationen abzurufen, sondern auch Aktionen in externen Systemen basierend auf Echtzeit-Datenaktualisierungen auszulösen. Dieser sofortige Zugriff auf relevante und aktuelle Informationen befähigt die KI, genauere, kontextbezogenere und letztendlich nützlichere Antworten zu liefern und Aktionen basierend auf dem neuesten Stand der verbundenen Systeme durchzuführen.

Verbesserte Sicherheit und Skalierbarkeit sind ebenfalls entscheidende Vorteile der Einführung von MCP. Das Protokoll beinhaltet Sicherheitsmaßnahmen, um die direkte Exposition sensibler Daten zu minimieren, und umfasst oft integrierte Authentifizierungsmechanismen. Durch die Standardisierung der Verwaltung, Speicherung und Weitergabe von Kontext fördert MCP konsistente Sicherheitspraktiken über verschiedene Tools und Umgebungen hinweg und stärkt so die allgemeine Sicherheit und Compliance. Darüber hinaus ist die Architektur von MCP auf Skalierbarkeit ausgelegt, was eine einfache Erweiterung und die nahtlose Integration neuer Datenquellen und KI-Fähigkeiten ermöglicht. Da das Ökosystem der MCP-kompatiblen Tools und Datenquellen wächst, können KI-Systeme den Kontext beibehalten, während sie mit einer zunehmenden Anzahl von Diensten interagieren, was ein nachhaltigeres und anpassungsfähigeres Integrationsframework bietet.

Schließlich spielt MCP eine entscheidende Rolle bei der Ermöglichung autonomer KI-Agenten. Indem es großen Sprachmodellen eine strukturierte Möglichkeit bietet, Kontext zu speichern, zu aktualisieren und darauf zuzugreifen, befähigt MCP diese Modelle, komplexe Workflows selbstständig zu verwalten und zu durchlaufen. Die Fähigkeit, Kontext über verschiedene Tools und Datensätze hinweg beizubehalten, ist grundlegend für die Entwicklung von KI-Agenten, die Aufgaben im Auftrag von Benutzer*innen mit einem hohen Grad an Autonomie ausführen können. Letztendlich zielt MCP darauf ab, KI-Agenten von isolierten Chatbots zu tief integrierten, kontextbezogenen Systemen zu entwickeln, die nahtlos mit ihrer digitalen Umgebung interagieren können.

Das Model Context Protocol in der Praxis

Um die praktische Anwendung von MCP zu veranschaulichen, betrachten wir die spezifischen Herausforderungen der Verwaltung von Produktinformationen im E-Commerce-Sektor. Unternehmen, die online tätig sind, kämpfen oft mit der Komplexität der Aufrechterhaltung konsistenter und genauer Produktdaten über verschiedene Systeme hinweg, einschließlich Product Information Management (PIM)-Plattformen, E-Commerce-Shops und zahlreichen Marketingkanälen. Inkonsistenzen und Fehler in den Produktinformationen können die Kundenerfahrung negativ beeinflussen und letztendlich den Umsatz beeinträchtigen.

In diesem Zusammenhang dient Akeneo PIM als zentrale Drehscheibe für alle produktbezogenen Daten. Es ermöglicht Unternehmen, Produktinformationen effizient zu erfassen, zu verwalten, anzureichern und zu verteilen, wodurch Datenqualität und Konsistenz über alle Kanäle hinweg sichergestellt werden. commercetools hingegen ist eine moderne, API-first, Headless-E-Commerce-Plattform, die die Infrastruktur für den Aufbau maßgeschneiderter digitaler Commerce-Erlebnisse bietet. Die Integration dieser beiden leistungsstarken Systeme ist entscheidend für einen reibungslosen E-Commerce-Betrieb, bei dem hochwertige Produktdaten, die in Akeneo verwaltet werden, genau und effizient innerhalb der commercetools-Plattform angezeigt und genutzt werden.

Traditionell würde die Integration von Akeneo und commercetools direkte API-Integrationen oder die Verwendung von Middleware umfassen. Obwohl diese Methoden funktionieren, erfordern sie oft eine benutzerdefinierte Entwicklung, können komplex zu verwalten und zu warten sein und es mangelt möglicherweise an der Echtzeit-Synchronisation und Flexibilität, die moderne E-Commerce-Unternehmen benötigen. Hier bietet MCP eine überzeugende Alternative.

Um die Leistungsfähigkeit von MCP in Aktion zu demonstrieren, betrachten wir ein Szenario, in dem zwei MCP-Server laufen. Ein Server ist mit einer Akeneo PIM-Instanz verbunden und kann Produktdaten und Aktualisierungen über das MCP-Protokoll bereitstellen. Der zweite MCP-Server ist mit einer commercetools-Instanz verbunden, sodass er Produktinformationen empfangen und seinen Katalog entsprechend synchronisieren kann. Ziel dieser Demonstration ist es, die nahezu Echtzeit-Synchronisation von Produktdaten zwischen diesen beiden Plattformen zu demonstrieren, die durch MCP ermöglicht wird.

Demo Szenario:

Schritt 1: Ausgangszustand. Beginnen wir mit der Untersuchung eines bestimmten Produkts in unserem Akeneo PIM-System, beispielsweise eines "Sommer-T-Shirts" mit definierten Attributen wie Name, Beschreibung, Preis und Bildern. Anschließend können wir überprüfen, ob dieses exakte Produkt derzeit nicht in unserer commercetools-Instanz vorhanden ist. Wir würden zur Produktdetailseite in Akeneo und dann zur Produktliste im commercetools Merchant Center navigieren, um dessen Fehlen zu bestätigen.

Schritt 2: Auslösen der Synchronisation via MCP. Als Nächstes simulieren wir eine Aktion, die den MCP-basierten Synchronisationsprozess auslöst. Dies könnte die Aktualisierung eines bestimmten Attributs des "Sommer-T-Shirts" in Akeneo umfassen, z. B. die Änderung des Preises oder der Beschreibung. Nach dieser Aktualisierung erkennt der Akeneo MCP-Server, der ständig auf Änderungen überwacht, die Modifikation. Unter Nutzung des standardisierten MCP-Protokolls können wir nun die Daten vom Akeneo abfragen und diese automatisiert an eine commercetools Instanz schicken. Dies können wir einfach durch die Claude desktop Oberfläche oder in Cursor ausführen.

Schritt 3: Überprüfung in commercetools. Um die Auswirkungen dieser Benachrichtigung zu beobachten, aktualisieren wir die Produktliste im commercetools Merchant Center. Wir sollten nun das Produkt "Sommer-T-Shirt" im Katalog erscheinen sehen, komplett mit den ursprünglich in Akeneo vorhandenen Details und allen nachfolgenden Aktualisierungen, die wir ausgelöst haben. Dies demonstriert die Fähigkeit von MCP, die Erstellung und Aktualisierung von Produktdaten in commercetools basierend auf Informationen zu ermöglichen, die in Akeneo verwaltet werden.

Aus technischer Sicht verdeutlicht diese Demonstration den optimierten Kommunikationsfluss, der durch MCP ermöglicht wird. Der Akeneo MCP-Server fungiert als Schnittstelle zu Akeneo PIM und übersetzt das interne Datenmodell und die Ereignisse von Akeneo in das standardisierte MCP-Format. Diese Informationen werden dann möglicherweise über einen MCP-Client an den commercetools MCP-Server weitergeleitet. Der commercetools MCP-Server versteht wiederum das MCP-Protokoll und übersetzt die empfangenen Informationen in Aktionen innerhalb der commercetools-Plattform, wie z. B. das Erstellen oder Aktualisieren von Produktentitäten. Dieser gesamte Prozess basiert auf JSON-RPC mit schemagesteuerten Daten, was eine konsistente und vorhersehbare Kommunikation zwischen den Servern gewährleistet. Die MCP-Server sind die Schlüsselkomponenten, die für die Verwaltung der Verbindungen zu ihren jeweiligen Plattformen und die Orchestrierung des Datenaustauschs gemäß dem definierten Protokoll verantwortlich sind.

Der Einsatz von MCP für die Integration zwischen Akeneo PIM und commercetools bietet mehrere deutliche Vorteile. Erstens führt er zu einem optimierten Datenfluss zwischen dem PIM und der Headless-Commerce-Plattform. MCP fungiert als einheitlicher und effizienter Kanal für Produktinformationen, vereinfacht den Übertragungsprozess und reduziert die Wahrscheinlichkeit von Fehlern im Vergleich zu komplexeren Punkt-zu-Punkt-Integrationen. Dies ermöglicht es Unternehmen, einen zuverlässigeren und effizienteren Fluss ihrer entscheidenden Produktdaten zu erreichen.

Zweitens reduziert MCP die Integrationskomplexität erheblich. Durch die Einhaltung eines standardisierten Protokolls können Entwickler*innen die Feinheiten der spezifischen API jeder Plattform vermeiden, was zu einfacheren und wartungsfreundlicheren Integrationslösungen führt. Dies ermöglicht es Entwicklungsteams, sich auf die Kernlogik des Geschäfts zu konzentrieren, anstatt übermäßig viel Zeit mit der Verwaltung komplexer Integrationspipelines zu verbringen.

Drittens trägt MCP zu einer verbesserten Datenkonsistenz bei. Die durch MCP ermöglichten nahezu Echtzeit-Synchronisationsfunktionen tragen dazu bei, dass die Produktinformationen zwischen Akeneo und commercetools konsistent bleiben, wodurch Diskrepanzen minimiert und die allgemeine Datenqualität verbessert wird. Diese Konsistenz ist entscheidend für die Bereitstellung eines positiven und zuverlässigen Kundenerlebnisses über alle Kontaktpunkte hinweg.

Schließlich bietet MCP erhöhte Flexibilität. Die standardisierte Natur des Protokolls ermöglicht eine einfachere Anpassung und Modifizierung der Integration, wenn sich die Geschäftsanforderungen weiterentwickeln. Sollte es erforderlich sein, KI-Modelle, die mit diesen Systemen interagieren, auszutauschen oder die E-Commerce-Plattform zu aktualisieren, bietet MCP ein anpassungsfähigeres Integrationsframework.

Über die spezifischen Vorteile für die Akeneo- und commercetools-Integration hinaus kann MCP auch dazu beitragen, mehrere häufige Herausforderungen bei der Datenintegration im E-Commerce-Bereich anzugehen. Datensilos, bei denen Informationen innerhalb bestimmter Systeme isoliert sind, können durch die Bereitstellung einer standardisierten Möglichkeit zum Zugriff auf und zur Weitergabe von Daten zwischen Plattformen wie Akeneo und commercetools aufgebrochen werden. Inkonsistenzen im Datenformat, ein häufiges Hindernis bei Integrationsprojekten, werden durch die Verwendung eines standardisierten Protokolls und Datenformats durch MCP, wie z. B. JSON-RPC, gemildert, was die Verwaltung und Transformation von Daten aus verschiedenen Quellen in eine konsistente Struktur erleichtert. Für Unternehmen mit Echtzeit-Integrationsbedarf ermöglicht die Unterstützung dynamischer und bidirektionaler Kommunikation durch MCP nahezu Echtzeit-Datenaktualisierungen zwischen verbundenen Systemen, wodurch sichergestellt wird, dass Produktinformationen immer aktuell sind. Schließlich werden Skalierbarkeitsbedenken, ein kritischer Faktor für wachsende E-Commerce-Unternehmen, durch die Architektur von MCP adressiert, die darauf ausgelegt ist, steigende Datenmengen und das Hinzufügen neuer Integrationen ohne wesentliche architektonische Änderungen zu bewältigen.

Fazit

Zusammenfassend lässt sich sagen, dass das MCP einen bedeutenden Fortschritt im Bereich der KI-Integration darstellt. Durch die Bereitstellung eines standardisierten, sicheren und skalierbaren Frameworks für die Verbindung von KI-Modellen mit realen Daten und Werkzeugen adressiert MCP die Einschränkungen traditioneller Integrationsmethoden und eröffnet neue Möglichkeiten für die Entwicklung intelligenter und autonomer Anwendungen. Seine Anwendung bei der Optimierung des Datenflusses zwischen E-Commerce-Plattformen wie Akeneo PIM und commercetools zeigt sein Potenzial, die Effizienz zu steigern, die Datenkonsistenz zu verbessern und eine größere Flexibilität für Unternehmen zu fördern, die im digitalen Umfeld tätig sind. Da das MCP-Ökosystem weiter wächst, ist es bereit, eine entscheidende Rolle bei der Gestaltung der Zukunft der vernetzten KI in einer Vielzahl von Branchen und Anwendungsfällen zu spielen.