So erstellen Sie einen KI-Agenten mit dem Model Context Protocol (MCP) in Jitterbit Harmony
Einführung
Dieser Leitfaden zeigt, wie man einen grundlegenden KI-Agenten mit einem MCP-Client in Jitterbit Harmony unter Verwendung von Studio erstellt. Er nutzt den MCP-Client-Connector, um Werkzeuge zu konsumieren, die von einem Model Context Protocol (MCP)-Server bereitgestellt werden, und fungiert als Chatbot-Assistent.
Der Prozess umfasst das Festlegen des Kontexts für das große Sprachmodell (LLM), das den Agenten als persönlichen Assistenten für einen Software-Ingenieur definiert, das Registrieren von Werkzeugen, damit das LLM weiß, welche Aktionen ausgeführt werden sollen, und das Bereitstellen einer benutzerdefinierten Jitterbit-API, um den Workflow auszulösen, der Werkzeuge auf dem MCP-Server aufruft.
Hinweis
Zu Lernzwecken verweisen Sie auf den GitHub-Agenten mit MCP, der über den Jitterbit Marketplace bereitgestellt wird, um eine Implementierung dieses Leitfadens zu sehen.
Erstellen Sie einen KI-Agenten mit einem MCP-Client
-
Erstellen Sie ein neues Studio-Projekt:
- Melden Sie sich im Harmony-Portal an und wählen Sie Studio > Projekte.
- Klicken Sie auf Neues Projekt. Ein Dialogfeld Neues Projekt erstellen öffnet sich.
- Geben Sie im Dialogfeld einen Projektnamen wie
KI-Agent - MCPein, wählen Sie eine vorhandene Umgebung aus und klicken Sie dann auf Design starten. Der Projekt-Designer öffnet sich.
-
Erstellen Sie den Haupt-Workflow und die benutzerdefinierte Jitterbit-API. Dieser Workflow ist so konzipiert, dass er Benutzeranfragen über die API empfängt. Um den Haupt-Workflow und die API zu erstellen:
-
Doppelklicken Sie im Projekt-Designer auf den Standard-Workflow-Namen und benennen Sie ihn in
Haupt-Eingang - API-Anforderungs-Handlerum. -
Klicken Sie im -Tab Projektendpunkte und -connectoren der Design-Komponentenpalette unter der Kategorie Verfügbare Endpunkte auf API, um die Aktivitätstypen anzuzeigen, die erstellt werden können. Ziehen Sie dann den -Aktivitätstyp Anforderung in die Ablagezone auf der Design-Leinwand.
-
Doppelklicken Sie auf die API-Anfrage-Aktivität, um sie zu konfigurieren. Definieren Sie ein neues JSON-Schema wie folgt:
{ "prompt": "<string>" } -
Bewegen Sie den Mauszeiger rechts neben der API-Anfrage-Aktivität, klicken Sie auf die Drop-Zone und wählen Sie Neue Transformation. Ein Konfigurationsbildschirm öffnet sich.
-
Erstellen Sie das Zielschema entsprechend und ordnen Sie die Felder innerhalb der Transformation gemäß Ihren Daten und Anwendungsfällen zu. Verweisen Sie auf den GitHub-Agenten mit MCP, der über den Jitterbit Marketplace bereitgestellt wird, um Beispiele für die Transformation der Daten zu erhalten.
-
Doppelklicken Sie auf den Standardbetriebsnamen und benennen Sie ihn entsprechend um, zum Beispiel in
Haupteintrag - API-Anforderungsbearbeiter(gleich wie der Workflow-Name). -
Klicken Sie auf das Aktionsmenü des Vorgangs und wählen Sie Bereitstellen > Bereitstellen.
-
Erstellen Sie eine benutzerdefinierte Jitterbit-API, um Benutzerabfragepayloads zu akzeptieren und zu analysieren:
- Klicken Sie auf das Aktionsmenü des Vorgangs und wählen Sie Als API veröffentlichen oder wählen Sie Als API mit KI veröffentlichen.
- Behalten Sie die Standardeinstellungen bei, mit Ausnahme der folgenden:
- Methode:
POST - Antworttyp:
Systemvariable
- Methode:
- Behalten Sie die Dienst-URL der veröffentlichten API bei.
-
-
Erstellen Sie den Haupt-Workflow für die KI-Logik. Der Zweck dieses Workflows besteht darin, LLM-Aufrufe zu verarbeiten und Antworten zurückzugeben. Um den Haupt-Workflow für die KI-Logik zu erstellen:
-
Klicken Sie auf Neuen Workflow hinzufügen oben auf der Entwurfsgrafik, um einen neuen Workflow zu erstellen.
-
Doppelklicken Sie auf den Standardnamen des Workflows und benennen Sie ihn in
Haupt - KI-Logikum. -
Verwenden Sie einen Connector, um einen Endpunkt zu erstellen, der mit dem LLM-Dienst verbunden ist, den Sie verwenden (zum Beispiel Amazon Bedrock, Azure OpenAI, Google Gemini, oder OpenAI). Klicken Sie im Projektendpunkte und -connectoren-Tab der Entwurfskomponentenpalette unter der Kategorie Verfügbare Endpunkte auf den Endpunkt, um seine Aktivitätstypen anzuzeigen, ziehen Sie dann eine Aktivität in die Drop-Zone auf der Entwurfsgrafik und doppelklicken Sie darauf, um sie mit Informationen wie einem Prompt zu konfigurieren, der an das LLM gesendet wird, um den Kontext festzulegen.
-
4. Bewege den Mauszeiger rechts neben der neu erstellten Aktivität, klicke auf die Drop-Zone und wähle <span class="icon-circle-expand"></span> **Neue Transformation**. Ein Konfigurationsbildschirm öffnet sich. Ordne die LLM-Antwort einem strukturierten Output zu. Siehe das Beispiel im [GitHub-Agent mit MCP](/de/marketplace/ai-agents/github-agent-mcp/).
5. Verwende den [MCP-Client-Connector](/de/integration-studio/design/connectors/mcp-client/), um einen Endpunkt zu erstellen, der mit dem MCP-Server verbunden ist, den du verwendest. Ziehe dann den Aktivitätstyp **List Tools** in eine neue Operation-Drop-Zone auf der Entwurfsfläche, um eine weitere Operation zu erstellen.
6. Ziehe einen Aktivitätstyp **Register Tools** für dein LLM in dieselbe Operation, rechts von der Aktivität **List Tools**, und platziere dann eine Transformation zwischen ihnen. Ordne die Ausgabe aus der Werkzeugliste der Eingabe zum Registrieren von Werkzeugen mit dem LLM zu. Sobald die Werkzeuge beim LLM registriert sind, hat es Zugriff auf die Aktionen, die durch diese Werkzeuge definiert sind.
7. Erstelle zusätzliche Operationen, um die Eingabeaufforderung an das LLM zu senden und damit das LLM zu antworten, und beziehe dich auf die in [GitHub-Agent mit MCP](/de/marketplace/ai-agents/github-agent-mcp/) bereitgestellten Beispiele.
4. Verbinde die beiden Workflows, sodass der Haupt-AI-Logik-Workflow die Benutzeranfrage vom Haupt-Eingangs-Workflow erhält:
1. Kehre zum Workflow `Main Entry - API Request Handler` zurück.
2. Füge ein Skript hinzu, um den AI-Logik-Workflow aufzurufen:
1. Bewege den Mauszeiger rechts neben der Transformation, klicke auf die Drop-Zone und wähle <span class="icon-circle-expand"></span> **Neues Skript**.
2. Konfiguriere das Skript so, dass es die Operation im Workflow `Main - AI Agent Tools Logic` mit der Funktion [`RunOperation`](/de/integration-studio/design/functions/general-functions/#generalfunctions-runoperation) ausführt. Siehe das Beispiel im Skript `Orchestrator #1` in [GitHub-Agent mit MCP](/de/marketplace/ai-agents/github-agent-mcp/).
5. Erstelle den Workflow für die Werkzeuge. Füge darin eine Operation für jedes Werkzeug hinzu, das das LLM aufrufen können soll, und beziehe dich auf die in [GitHub-Agent mit MCP](/de/marketplace/ai-agents/github-agent-mcp/) bereitgestellten Beispiele. Wenn du viele Werkzeuge hast, kannst du Variablen verwenden, um die Konfigurationswerte bereitzustellen, die für die Konfiguration der Operationsschritte erforderlich sind.
-
Erstellen Sie beliebige Dienstprogrammarbeitsabläufe. Ein vorgeschlagener Arbeitsablauf für die Fehlerbehandlung ist als Beispiel in GitHub-Agent mit MCP enthalten.
-
Klicken Sie im Aktionsmenü des Projekts auf Projekt bereitstellen.
