Jitterbit GitHub Agent mit MCP
Übersicht
Jitterbit stellt allen Kunden den GitHub Agent mit MCP über den Jitterbit Marketplace zur Verfügung. Dieser Agent ist für Lernzwecke konzipiert, um Organisationen zu helfen, KI einfach zu übernehmen. Dieser Agent verwendet die Technik der Retrieval-Augmented Generation (RAG), die das Denken von LLM mit dem Zugriff auf externe Werkzeuge und Datenquellen kombiniert.
Dieser Agent nutzt das Model Context Protocol (MCP) über den MCP Client Connector. Er verwendet die von dem GitHub MCP Server bereitgestellten Werkzeuge und fungiert als Assistent, mit dem Sie interagieren können, wie mit einem Chatbot.
Dieses Dokument erklärt die Einrichtung und den Betrieb dieses Agents. Zunächst werden die Voraussetzungen behandelt, dann werden Beispielaufforderungen und Einschränkungen gegeben, um zu zeigen, was der Agent kann und was nicht, und schließlich werden Schritte zur Installation, Konfiguration und zum Betrieb des Agents bereitgestellt.
Tipp
Für Schritte zum Erstellen des GitHub Agents mit MCP von Grund auf, siehe die How-to-Anleitung. Zusätzliche Agenten für Lernzwecke, die Reaktive, Kontextuelle und Salesforce Q&A-Agenten, sind ebenfalls verfügbar und werden separat behandelt.
Voraussetzungen
Um diesen Agenten zu verwenden, sind die folgenden Komponenten erforderlich oder werden im Design des Agents vorausgesetzt.
Harmony-Komponenten
Sie müssen über eine Jitterbit Harmony-Lizenz mit Zugriff auf die folgenden Komponenten verfügen:
Privater Agent
Zur Vereinfachung des Designs ist dieser KI-Agent für die Verwendung mit privaten Agenten konzipiert.
Unterstützte Endpunkte
Die folgenden Endpunkte sind in das Design des Agents integriert.
Großes Sprachmodell (LLM)
Der KI-Agent verwendet OpenAI als LLM-Anbieter für Feinabstimmung und Inferenz. Um OpenAI zu nutzen, benötigen Sie ein OpenAI-Abonnement mit Berechtigungen zum Erstellen und Verwalten von API-Schlüsseln.
Tipp
Für Informationen zu den Preisen von OpenAI siehe die OpenAI-Preisseite.
MCP-Client
Der MCP-Server von GitHub ist über den MCP-Client-Connector verbunden. Sie müssen ein persönliches Zugriffstoken von GitHub generiert haben, um es mit dem MCP-Client-Connector zu verwenden.
Beispielaufforderungen und Einschränkungen
Die folgenden Abschnitte beschreiben, was dieser KI-Agent kann und was nicht.
Beispielaufforderungen
Hier sind Beispielaufforderungen, die dieser KI-Agent mit Zugriff auf die entsprechenden Daten bearbeiten kann:
-
"Wie viele Pull-Requests hat der Benutzer
{{user-name}}für das Repository{{repository-name}}in GitHub erstellt? Der Besitzer des Repos ist{{owner-name}}." -
"Wie viele Branches hat das Repository
{{repository-name}}in GitHub?"
Einschränkungen
-
Nur privater Agent: Zur Vereinfachung des Designs kann dieser KI-Agent nur mit privaten Agenten verwendet werden und ist nicht mit Cloud-Agenten kompatibel.
-
Zustandslos: Der Agent ist zustandslos und nicht konversationell. Er verarbeitet jede Anfrage als Einzelturn-Aufforderung, was bedeutet, dass er keine Informationen aus vorherigen Aufforderungen speichert oder verwendet, um seine aktuelle Antwort zu informieren. Seine Fähigkeit beschränkt sich darauf, nur die aktuelle Aufforderung zu beantworten.
-
Begrenztes Wissen: Da dieser Agent nur ein einfaches Beispiel ist, kann der KI-Agent nicht alle GitHub-bezogenen Fragen beantworten, es sei denn, die entsprechenden Werkzeuge sind im Workflow Tool Workflows implementiert.
-
Kopflose: Da dieser Agent nur ein einfaches Beispiel ist, verfügt er nicht über eine Chat-Oberfläche zur Interaktion mit dem KI-Agenten. Er kann jedoch mit jeder Schnittstelle verbunden werden, einschließlich Tools wie Slack, Microsoft Teams, WhatsApp oder jeder benutzerdefinierten Schnittstelle, die über Konversationsfähigkeiten verfügt. Um eine Chat-Oberfläche hinzuzufügen, können Sie die Schritte einfügen, die in Reaktive, kontextuelle und Salesforce Q&A-Agenten demonstriert werden.
Installation, Konfiguration und Betrieb
Befolgen Sie diese Schritte, um diesen KI-Agenten zu installieren, zu konfigurieren und zu betreiben:
- Installieren Sie das Studio-Projekt.
- Überprüfen Sie die Projekt-Workflows.
- Erstellen Sie einen OpenAI-API-Schlüssel und konfigurieren und testen Sie die OpenAI-Verbindung.
- Erstellen Sie ein persönliches Zugriffstoken für GitHub und konfigurieren und testen Sie die MCP-Client-Verbindung.
- Stellen Sie das Projekt bereit.
- Erstellen Sie die Jitterbit benutzerdefinierte API.
- Triggern Sie die Projekt-Workflows.
- Fehlerbehebung.
Installieren Sie das Projekt
Befolgen Sie diese Schritte, um das Studio-Projekt für den KI-Agenten zu installieren:
-
Melden Sie sich im Harmony-Portal unter https://login.jitterbit.com an und öffnen Sie Marketplace.
-
Suchen Sie den KI-Agenten mit dem Namen GitHub Agent with MCP. Um den Agenten zu finden, können Sie die Suchleiste verwenden oder im Filter-Bereich unter Typ KI-Agent auswählen, um die Anzeige auf die verfügbaren KI-Agenten zu beschränken.
-
Klicken Sie auf den Dokumentations-Link des KI-Agenten, um dessen Dokumentation in einem separaten Tab zu öffnen. Halten Sie den Tab geöffnet, um später darauf zurückzugreifen, nachdem Sie das Projekt gestartet haben.
-
Klicken Sie auf Projekt starten, um einen Konfigurationsdialog zu öffnen, um den KI-Agenten als Studio-Projekt zu importieren.
-
Geben Sie einen Projektnamen ein und wählen Sie eine Umgebung, in der das Studio-Projekt erstellt wird, und klicken Sie dann auf Projekt erstellen.
-
Ein Fortschrittsdialog wird angezeigt. Nachdem er anzeigt, dass das Projekt erstellt wurde, verwenden Sie den Dialog-Link Gehe zu Studio oder öffnen Sie das Projekt direkt von der Studio-Seite Projekte.
Überprüfen Sie die Projekt-Workflows
Überprüfen Sie im geöffneten Studio-Projekt die Workflows zusammen mit den Beschreibungen unten, um zu verstehen, was sie tun.
| Workflow-Name | Auslösetyp | Beschreibung |
|---|---|---|
| Haupt-Eingangs-Workflow | API | Verarbeitet eingehende API-Aufrufanforderungen. |
| KI-Logik | Wird von anderen Workflows aufgerufen | Verarbeitet die KI-Logik und die Interaktionen mit dem LLM. |
| Tool-Workflows | Wird von anderen Workflows aufgerufen | Verarbeitet GitHub-Server-Tools und die Ausführungsbedingungen für Tools. |
| Hilfs-Workflows - Umgang mit unerwarteten Fehlern | Wird von anderen Workflows aufgerufen | Behandelt unerwartete Szenarien und gibt freundliche Fehlermeldungen zurück. |
Haupt-Eintrag-Workflow
Dieser Workflow verwaltet eingehende API-Anrufanforderungen. Er hat eine Operation, Main Entry - API Request Handler, die jedes Mal über die API ausgelöst wird, wenn eine HTTP-Anfrage gesendet wird.
KI-Logik
Dieser Workflow verwaltet die KI-Logik. Er hat die folgenden Operationen:
-
AI Logic - Orchestrator
Diese Operation verwaltet den Workflow, indem sie die Ausführung anderer Operationen steuert.
-
AI Logic - Kontextualisierung LLM
Diese Operation setzt den anfänglichen Kontext für das LLM, um den Kontext über einen in einer OpenAI Prompt-Aktivität konfigurierten Prompt zu definieren.
Zitat
Ich bin Software-Ingenieur, und du wirst mein persönlicher Assistent für alle GitHub-bezogenen Themen sein. Bitte hilf mir, Fragen zu beantworten und Aufgaben zu automatisieren/auszuführen, wie ich es wünsche.
-
AI Logic - Auflisten und Registrieren der Werkzeuge
Diese Operation ruft alle MCP-Werkzeuge, die vom GitHub MCP-Server bereitgestellt werden, ab und registriert dieselben Werkzeuge beim LLM (in diesem Beispiel ist das Modell GPT-4).
-
AI Logic - Senden des Prompts an LLM
Diese Operation sendet den Benutzer-Prompt, der über die API empfangen und von der Operation
Main Entry - API Request Handlerverwaltet wird, an das LLM. -
AI Logic - Antwort an LLM zurücksenden
Diese Operation sendet die Werkzeugantwort (nach der Ausführung des Werkzeugs) an das LLM zurück und übermittelt die endgültige Antwort, die als endgültige Antwort des Agenten verwendet wird.
Werkzeug-Workflows
Dieser Workflow verwaltet alle gewünschten GitHub-Serverwerkzeuge, die als Teil des Agenten implementiert sind, und behandelt die Bedingungen, unter denen die Werkzeuge basierend auf dem Benutzer-Prompt ausgeführt werden sollen.
-
Tool - Pull-Anfragen suchen
Rufe die Operation
Tool - Search Pull Requestsvom GitHub MCP-Server basierend auf dem angegebenen Werkzeugnamen und den Werkzeugargumenten auf und rufe die OperationAI Logic - Replying Back to LLMauf, um die endgültige Agentenantwort an den Benutzer zu erstellen. -
Tool - Zweige auflisten
Rufen Sie die
Tool - List Branches-Operation vom GitHub MCP-Server basierend auf dem angegebenen Toolnamen und den Toolargumenten auf und rufen Sie die OperationAI Logic - Replying Back to LLMauf, um die endgültige Agentenantwort an den Benutzer zu erstellen. -
Tool - Nicht implementiertes Tool
Dieser Workflow verwaltet Szenarien, in denen das LLM eine Toolausführung vorschlägt, die nicht als Teil der Tool Workflows-Operationen implementiert ist. Er gibt eine freundliche Nachricht an den Benutzer zurück, wie die folgende:
{ "chatId": "<string>", "response": "Oops! Sorry... I can't answer anything related to this question yet. Please trying asking something different..." }Diese Nachricht kann angepasst werden, indem die Nachricht im Antwortfeld der Transformation
Prepare Request #5ersetzt wird.
Dienstprogramme-Workflows - Umgang mit unerwarteten Fehlern
Diese Operation behandelt unerwartete Szenarien, wenn bei der Ausführung des Agenten etwas schiefgeht, und gibt eine freundliche Nachricht an den Benutzer zurück, wie die folgende:
{
"chatId": "<string>",
"response": "An unexpected error has happened."
}
Diese Nachricht kann angepasst werden, indem die Nachricht im Antwortfeld der Transformation Prepare Request #6 ersetzt wird.
Erstellen Sie einen OpenAI-API-Schlüssel und konfigurieren und testen Sie die OpenAI-Verbindung
Befolgen Sie diese Schritte, um einen OpenAI-API-Schlüssel zu generieren und zu konfigurieren:
-
Gehen Sie zur OpenAI-API-Schlüssel-Seite.
-
Klicken Sie auf Neuen geheimen Schlüssel erstellen, um einen neuen API-Schlüssel zu generieren.
-
Kopieren Sie den generierten Schlüssel und speichern Sie ihn sicher. Sie benötigen diesen Schlüssel, um die OpenAI-Verbindung zu konfigurieren.
-
Öffnen Sie im Studio-Projekt die Konfiguration der OpenAI-Verbindung.
-
Geben Sie den API-Schlüssel im Feld API/Geheimer Schlüssel ein.
-
Klicken Sie auf Test, um die Konnektivität mit den konfigurierten Werten zu überprüfen.
Warnung
Bewahren Sie Ihren API-Schlüssel sicher auf. Der Schlüssel wird nur einmal angezeigt, wenn Sie ihn erstellen. Wenn Sie den Schlüssel verlieren, müssen Sie einen neuen Schlüssel generieren.
Erstellen Sie ein persönliches Zugriffstoken für GitHub und konfigurieren und testen Sie die MCP-Clientverbindung
-
Befolgen Sie die Anweisungen von GitHub zum Erstellen eines persönlichen Zugriffstokens (klassisch).
Beim Erstellen des Tokens fügen Sie die Berechtigungen hinzu, die der KI-Agent benötigt, um die Tools auszuführen, die Sie implementieren werden. Zum Beispiel benötigt dieser grundlegende KI-Agent die Berechtigung
public_repo, um auf öffentliche Repositories zuzugreifen. -
Öffnen Sie im Studio-Projekt die Konfiguration der MCP-Clientverbindung. Geben Sie Folgendes ein:
- MCP-Server-URL: Die Server-URL muss
https://api.githubcopilot.com/mcp/sein. Ändern Sie diesen Wert nicht. - Bearer-Token: Geben Sie Ihr persönliches Zugriffstoken ein.
Weitere Informationen finden Sie in der Dokumentation von GitHub Einrichten des GitHub MCP-Servers.
- MCP-Server-URL: Die Server-URL muss
-
Klicken Sie auf Test um die Konnektivität mit den konfigurierten Werten zu überprüfen.
Projekt bereitstellen
Projekt bereitstellen im Studio.
Um das Projekt bereitzustellen, verwenden Sie das Aktionsmenü des Projekts, um Bereitstellen auszuwählen.
Erstellen Sie die benutzerdefinierte Jitterbit-API
Erstellen Sie eine benutzerdefinierte API für die Operation Main Entry - API Request Handler im Workflow Main Entry Workflow.
Um die API zu erstellen, verwenden Sie das Aktionsmenü der Operation, um Als API veröffentlichen oder Als API unter Verwendung von KI veröffentlichen auszuwählen.
Konfigurieren Sie die folgenden Einstellungen:
| Einstellung | Wert |
|---|---|
| Methode | POST |
| Antworttyp | Systemvariable |
Die API-Aktivität Anfrage, als Teil der Operation Main Entry - API Request Handler, erwartet, ein JSON in der folgenden Struktur zu erhalten:
{
"prompt": "<string>"
}
Behalten Sie die Dienst-URL der veröffentlichten API. Die Dienst-URL finden Sie im API-Details-Bereich auf der Registerkarte Dienste, indem Sie über die Aktionen-Spalte des Dienstes fahren und auf API-Dienst-URL kopieren klicken.
Triggern der Projekt-Workflows
Der Haupt-Workflow, Main Entry Workflow, wird durch die Jitterbit benutzerdefinierte API ausgelöst.
Sie können eine HTTP-Anfrage an diese API mit den zuvor aufgeführten Beispielaufforderungen senden.
Sobald Sie die HTTP-Anfrage senden, wird die Antwort, die vom Agenten bereitgestellt wird, ein JSON in der folgenden Struktur sein:
{
"chatId": "<string>",
"response": "<string>"
}
Fehlersuche
Überprüfen Sie die API-Protokolle und die Betriebsprotokolle für detaillierte Informationen zur Fehlersuche.
Für zusätzliche Unterstützung kontaktieren Sie den Jitterbit-Support.