Jitterbit Knowledge Agent
Übersicht
Der Jitterbit Knowledge Agent (Knowledge Agent) ist ein KI-Agent, der über den Jitterbit Marketplace bereitgestellt wird und dazu dient, Ihrem internen Team intelligente Antworten aus den internen Daten Ihrer Organisation zu ermöglichen. Dieser Agent verwendet die Technik der Retrieval-Augmented Generation (RAG), die das Denken von LLM mit dem Zugriff auf externe Werkzeuge und Datenquellen kombiniert. Er führt Folgendes aus:
-
Stellt eine Verbindung zu den folgenden Quellen her und ruft Informationen mithilfe von Jitterbit Studio ab:
- Atlassian Confluence-Seiten
- Atlassian Jira-Tickets
- Google Drive-Dokumente
- Salesforce-Supportfälle (aus dem
Case-Objekt)
-
Integriert sich mit Azure OpenAI, um einen intelligenten KI-Chatbot zu betreiben, der Daten aus den oben genannten Quellen verwendet, die über eine benutzerdefinierte API abgerufen werden, die mit dem Jitterbit API Manager erstellt wurde.
Dieses Dokument erklärt, wie man diesen KI-Agenten einrichtet und betreibt. Es behandelt die Architektur und Voraussetzungen, Beispielaufforderungen, die zeigen, was der Agent tun kann, und Schritte zur Installation, Konfiguration und zum Betrieb des KI-Agenten.
Architektur des KI-Agenten
Das folgende Diagramm zeigt die Architektur, die im Knowledge Agent implementiert ist:
Datenfluss des Agenten
Slack app/bot) JB_CUSTOM_API(
Jitterbit API Manager
custom API) REQ_AZURE_OPENAI(Request to
Azure OpenAI) SLACK_API_REQ_H(Slack
API request handler
workflow) RES_AZURE_OPENAI(Response from Azure OpenAI) TIMEOUT(Timeout handling) subgraph LIVE_AGENT_DATA_FLOW[ ] direction RL subgraph EXTAPP[**External app**] SLACKAPP end JB_CUSTOM_API subgraph STUDIO[ **Jitterbit Studio**] REQ_AZURE_OPENAI RES_AZURE_OPENAI SLACK_API_REQ_H TIMEOUT end end SLACKAPP -->|Request| JB_CUSTOM_API JB_CUSTOM_API -->|Request| SLACK_API_REQ_H JB_CUSTOM_API -->|Response| SLACKAPP SLACK_API_REQ_H -->|Response|JB_CUSTOM_API SLACK_API_REQ_H --> REQ_AZURE_OPENAI REQ_AZURE_OPENAI --> RES_AZURE_OPENAI RES_AZURE_OPENAI --> SLACK_API_REQ_H REQ_AZURE_OPENAI --> TIMEOUT --> SLACK_API_REQ_H classDef Clear fill:white, stroke:white, stroke-width:0px, rx:15px, ry:15px classDef Plain fill:white, stroke:black, stroke-width:3px, rx:15px, ry:15px class LIVE_AGENT_DATA_FLOW Clear class EXTAPP,APIM,STUDIO Plain
Initialer Datenlade- und Datenpflege-Workflow
Voraussetzungen
Um den Knowledge Agent zu verwenden, sind die folgenden Komponenten erforderlich oder werden im Design des Agenten vorausgesetzt.
Harmony-Komponenten
Sie müssen über eine Jitterbit Harmony-Lizenz mit Zugriff auf die folgenden Komponenten verfügen:
- Jitterbit Studio
- Jitterbit API Manager
- Jitterbit Knowledge Agent, der als Lizenz-Add-On erworben wurde
Unterstützte Endpunkte
Die folgenden Endpunkte sind in das Design des Agenten integriert.
Großes Sprachmodell (LLM)
Der KI-Agent verwendet Azure OpenAI als LLM-Anbieter. Um Azure OpenAI zu nutzen, benötigen Sie ein Microsoft Azure-Abonnement mit Berechtigungen zum Erstellen und Verwalten der folgenden Ressourcen:
- Azure OpenAI-Ressource mit einem bereitgestellten
gpt-4oodergpt-4.1Modell. - Azure Storage mit einem Blob-Container zum Speichern abgerufener Daten.
- Azure AI Search mit einem Suchdienst, der mit einem Index und einem Indexer konfiguriert werden kann.
Tipp
Für Preisinformationen siehe Azure AI Search Preistabellen.
Wissensdatenbank
Sie können einen oder alle dieser Endpunkte als Wissensdatenbank für diesen KI-Agenten verwenden:
- Atlassian Confluence: Die Quelle der Confluence-Seiten.
- Atlassian Jira: Die Quelle der Jira-Tickets.
- Google Drive: Die Quelle der auf einem Google-Shared-Drive gespeicherten Dateien.
- Salesforce: Die Quelle Ihrer Kundenservicefälle aus dem
Case-Objekt.
Chat-Schnittstelle
Das Design des Agenten integriert Slack als Chat-Schnittstelle für die Interaktion mit dem KI-Agenten. Wenn Sie eine andere Anwendung als Chat-Schnittstelle verwenden möchten, sind ein separater Workflow und Anweisungen für eine generische API-Einrichtung in diesem KI-Agenten enthalten.
Beispielaufforderungen
Hier sind Beispielaufforderungen, die der Wissensagent mit Zugriff auf die entsprechenden Daten bearbeiten kann. Der Agent kann Informationen über alle oder einige der verbundenen Endpunkte finden.
- "Ich habe ein Problem mit der Komponente 'ABC'. Können Sie mir dabei helfen?"
- "Wie kann ich mich mit einer MySQL-Datenbank über JDBC verbinden?"
- "Können Sie mir Details zum Jira-Ticket Nummer 123 geben?"
- "Gibt es Jira-Tickets zum SQL-Connector?"
- "Was ist die Sicherheitsrichtlinie für die Installation von Software auf meinem Arbeitscomputer?" (Es könnte ein Dokument auf Google Drive oder eine Confluence-Seite zu diesem Thema geben.)
Installation, Konfiguration und Betrieb
Befolgen Sie diese Schritte, um diesen KI-Agenten zu installieren, zu konfigurieren und zu betreiben:
- Laden Sie Anpassungen herunter und installieren Sie das Studio-Projekt.
- Überprüfen Sie die Projekt-Workflows.
- Erstellen Sie Microsoft Azure-Ressourcen.
- Richten Sie ein Google-Dienstkonto und ein freigegebenes Laufwerk ein.
- Konfigurieren Sie Projektvariablen.
- Testen Sie die Verbindungen.
- Stellen Sie das Projekt bereit.
- Erstellen Sie die Jitterbit benutzerdefinierte API.
- Erstellen Sie die Slack-App, testen Sie die Slack-Verbindung und stellen Sie das Projekt erneut bereit.
- Triggern Sie die Projekt-Workflows.
- Fehlerbehebung.
Anpassungen herunterladen und das Projekt installieren
Befolgen Sie diese Schritte, um Anpassungsdateien herunterzuladen und das Studio-Projekt zu installieren:
-
Melden Sie sich im Harmony-Portal unter https://login.jitterbit.com an und öffnen Sie Marketplace.
-
Suchen Sie den KI-Agenten mit dem Namen Jitterbit Knowledge Agent. Um den Agenten zu finden, können Sie die Suchleiste verwenden oder im Filter-Bereich unter Typ KI-Agent auswählen, um die Anzeige auf die verfügbaren KI-Agenten zu beschränken.
-
Klicken Sie auf den Dokumentations-Link des KI-Agenten, um dessen Dokumentation in einem separaten Tab zu öffnen. Halten Sie den Tab geöffnet, um später darauf zurückzugreifen, nachdem Sie das Projekt gestartet haben.
-
Klicken Sie auf Projekt starten, um einen zweistufigen Konfigurationsdialog zu öffnen, um Anpassungen herunterzuladen und den KI-Agenten als Studio-Projekt zu importieren.
Hinweis
Wenn Sie den KI-Agenten noch nicht gekauft haben, wird stattdessen Diesen Agenten erhalten angezeigt. Klicken Sie darauf, um einen Informationsdialog zu öffnen, und klicken Sie dann auf Absenden, damit sich ein Vertreter mit Ihnen in Verbindung setzt, um den KI-Agenten zu kaufen.
-
Im Konfigurationsschritt 1, Download Anpassungen, werden die folgenden Dateien bereitgestellt, um die Einrichtung des Index und des Indexers in Azure AI Search zu erleichtern und die Slack-App zu erstellen. Wählen Sie die Dateien aus und klicken Sie auf Dateien herunterladen:
-
Azure AI Search Index- und Indexer-JSON-Definitionsdateien
Azure_AI_Search_Datasource_Definition.jsonAzure_AI_Search_Index_Definition.jsonAzure_AI_Search_Indexer_Definition.json
-
Slack-App-Manifestdatei
slack_app_manifest.json
Tipp
Der Konfigurationsdialog enthält eine Warnung, die besagt, dass die Vorlage nicht importiert werden soll, bevor die Endpunktanpassungen angewendet werden. Diese Warnung gilt nicht für diesen KI-Agenten und kann ignoriert werden. Befolgen Sie die empfohlene Reihenfolge der Schritte in dieser Dokumentation.
Klicken Sie auf Weiter.
-
-
Im Konfigurationsschritt 2, Neues Projekt erstellen, wählen Sie eine Umgebung, in der Sie das Studio-Projekt erstellen möchten, und klicken Sie dann auf Projekt erstellen.
-
Ein Fortschrittsdialog wird angezeigt. Nachdem angezeigt wird, dass das Projekt erstellt wurde, verwenden Sie den Dialoglink Gehe zu Studio oder öffnen Sie das Projekt direkt von der Studio-Projekte Seite.
Überprüfen der Projekt-Workflows
Überprüfen Sie im geöffneten Studio-Projekt die Workflows sowie die folgenden Beschreibungen, um zu verstehen, was sie tun.
Hinweis
Die ersten vier Workflows sind Data upload Utility-Workflows, deren Zweck es ist, Daten abzurufen, die als Wissensbasis für den KI-Agenten verwendet werden. Sie können einen oder alle diese Workflows verwenden, um Daten abzurufen. Mindestens eine Quelle ist erforderlich, um die Wissensbasis für den KI-Agenten bereitzustellen.
Diese Workflows sollten zuerst ausgeführt werden, um Wissen in den Agenten zu laden, bevor Sie mit ihm interagieren. Sie können einen Zeitplan einrichten, um regelmäßig aktualisierte Daten gemäß Ihren Anforderungen zu erhalten. Dies kann über das Aktionsmenü der ersten Operation in Einstellungen > Zeitpläne erfolgen.
-
Daten-Upload-Dienstprogramm - JIRA-Ticket zum Azure-Index
Dieser Workflow ruft Probleme aus Jira ab und führt dann den Workflow
Utility - Azure Data Upload and Indexaus, um Probleme in Azure Blob Storage hochzuladen und sie im Azure AI Search-Index zu indizieren.Die anfängliche Operation ist
Main - JIRA tickets upload. Die folgenden Felder werden abgerufen:"fields": [ "summary", "status", "assignee", "description", "reporter", "created", "updated", "priority", "issuetype", "components", "comment" ]Dieser Workflow kann so konfiguriert werden, dass er alle Probleme oder nur neue und aktualisierte Probleme abruft, indem die Jira-Projektvariablen verwendet werden.
-
Daten-Upload-Dienstprogramm - SF-Fälle zum Azure-Index
Dieser Workflow ruft Supportfälle aus Salesforce ab und führt dann den Workflow
Utility - Azure Data Upload and Indexaus, um Fälle in Azure Blob Storage hochzuladen und sie im Azure AI Search-Index zu indizieren.Die anfängliche Operation ist
Main - SF Cases Upload.In der Konfiguration der Salesforce-Abfrageaktivität ruft die folgende Abfrage Informationen zu Supportfällen nach Agent ab. Wenn Ihre Salesforce-Organisation diese Objekte und Felder nicht verwendet oder wenn Informationen zu Supportfällen in anderen Objekten und Feldern gespeichert sind, funktioniert dieser Workflow möglicherweise nicht richtig. Passen Sie die Abfrage in diesem Workflow an das Datenmodell Ihrer Salesforce-Organisation an:
SELECT Account.Name, Owner.Email, Owner.Name, (SELECT CreatedBy.Email, CreatedBy.Name, Id, CommentBody, CreatedDate, LastModifiedDate, LastModifiedBy.Email, LastModifiedBy.Name FROM CaseComments), Id, CaseNumber, CreatedDate, Description, LastModifiedDate, Origin, Priority, Reason, Status, Subject, Type, CreatedBy.Email, CreatedBy.Name, LastModifiedBy.Email, LastModifiedBy.Name FROM CaseDieser Workflow kann so konfiguriert werden, dass er alle Fälle oder nur neue und aktualisierte Fälle abruft, indem die Salesforce-Projektvariablen verwendet werden.
-
Daten-Upload-Dienstprogramm - Confluence-Seiten zum Azure-Index
Dieser Workflow ruft Seiten aus Confluence ab und führt dann den Workflow
Utility - Azure Data Upload and Indexaus, um Dokumente in Azure Blob Storage hochzuladen und sie im Azure AI Search-Index zu indizieren.Die anfängliche Operation ist
Main - Load Confluence Pages.Dieser Workflow ruft bei jeder Ausführung alle Confluence-Seiten ab.
-
Daten-Upload-Dienstprogramm - Google Drive zu Azure Blob
Dieser Workflow ruft Dateien aus Google Drive ab und führt dann den Workflow
Utility - Azure Data Upload and Indexaus, um sie im Azure AI Search-Index zu indizieren.Der erste Vorgang ist
Main - Google Drive Upload.Unterstützte Dateitypen sind Google Docs, Google Spreadsheets und die von Azure Storage Blob-Indexierung unterstützten Dateitypen.
Die maximal unterstützten Dateigrößen sind als maximale Blob-Größe in den Grenzen des Azure AI Search Indexers für Ihre AI-Suchdienststufe aufgeführt. Zum Beispiel beträgt das Limit für die Basisstufe 16 MB; für S1 beträgt das Limit 128 MB.
Dieser Workflow kann so konfiguriert werden, dass er alle Dateien oder nur neue und aktualisierte Dateien abruft, indem die Google Drive-Projektvariablen verwendet werden.
-
Utility - Azure Data Upload und Index
Dies ist ein gängiger Utility-Workflow, der von den
Data upload Utility-Workflows verwendet wird, um Daten in Azure Blob Storage hochzuladen und sie in Azure AI Search zu indizieren. -
Main Entry - Slack API Request Handler
Dieser Workflow verwaltet eingehende Slack-Bot-Anfragen. Er wird über eine benutzerdefinierte Jitterbit-API ausgelöst, jedes Mal, wenn Ihr Team mit der Slack-Bot-Chat-Benutzeroberfläche interagiert (d.h. eine Slack-Nachricht an ihn sendet). Die Konfiguration der benutzerdefinierten Jitterbit-API wird in Create the Jitterbit custom API weiter unten auf dieser Seite beschrieben.
Wenn Sie Slack nicht verwenden, kann dieser Workflow ignoriert werden und wird nicht ausgelöst. Um eine andere Chat-Benutzeroberfläche für Ihr Team zu verwenden, verwenden Sie den Workflow
Generic API Request Handler, der ebenfalls über eine benutzerdefinierte Jitterbit-API ausgelöst wird. -
Generic API Request Handler
Dieser Workflow verarbeitet HTTP-API-Anfragen von jeder Anwendung. Um sich mit Ihren Anwendungen zu integrieren, erstellen Sie eine benutzerdefinierte Jitterbit-API, die den Vorgang
Generic API Request Handlerauslöst. Die URL dieser API kann dann von jeder Anwendung verwendet werden, um Anfragen zu senden und zu empfangen.Die Konfiguration der benutzerdefinierten Jitterbit-API wird in Create the Jitterbit custom API weiter unten auf dieser Seite beschrieben.
Microsoft Azure-Ressourcen erstellen
Erstellen Sie die folgenden Microsoft Azure-Ressourcen und behalten Sie die folgenden Informationen zur Konfiguration des KI-Agenten. Um diese Ressourcen zu erstellen und zu verwalten, benötigen Sie ein Microsoft Azure-Abonnement mit den entsprechenden Berechtigungen.
Azure Blob-Container
Sie müssen einen Azure Blob-Container erstellen, um Kundendaten zu speichern. Daten aus dem Blob-Container werden in Azure AI Search mithilfe eines Index und eines Indexers indiziert.
Sie benötigen die SAS-URL des Containers, um die Werte der Azure Blob Storage-Projektvariablen zu bestimmen. Um die SAS-URL zu generieren:
- Öffnen Sie im Azure-Portal Speicherkonten und öffnen Sie das spezifische Speicherkonto.
- Wählen Sie im Ressourcenmenü unter Datenspeicherung Container aus und öffnen Sie den spezifischen Container.
- Wählen Sie im Ressourcenmenü unter Einstellungen Freigegebene Zugriffstoken aus.
-
Verwenden Sie das Menü Berechtigungen, um zu überprüfen, ob die SAS-URL für diesen Container mindestens über die Berechtigungen Lesen und Schreiben verfügt:

-
Klicken Sie auf SAS-Token und URL generieren.
- Kopieren Sie die Blob SAS-URL, die am Ende angezeigt wird.
- Bestimmen Sie die Werte der Azure Blob Storage-Projektvariablen aus der SAS-URL. Die SAS-URL hat das Format
{{ azure_blob_base_url }}/{{ Azure_Blob_Container_Name }}?{{ azure_blob_sas_token }}.
Wenn Sie die im Anpassungsdateien des KI-Agenten enthaltenen JSON-Definitionsdateien verwenden, um den Index und den Indexer zu generieren, benötigen Sie auch den Azure Blob Storage-Kontoinhaber. Um Kontozugriffsschlüssel anzuzeigen:
- Öffnen Sie im Azure-Portal Speicherkonten und öffnen Sie das spezifische Speicherkonto.
- Wählen Sie im Ressourcenmenü unter Sicherheit + Netzwerk Zugriffsschlüssel aus.
-
Klicken Sie auf Schlüssel anzeigen, um den Zugriffsschlüssel anzuzeigen, der während der Konfiguration von Azure AI Search verwendet werden soll.

Azure AI-Suchdienst
Sie müssen einen Azure AI-Suchdienst erstellen und dessen Index und Indexer konfigurieren, um die Daten aus dem Blob-Container zu verarbeiten.
Sie benötigen die URL und den API-Schlüssel des Azure AI-Suchdienstes, um die Werte der Azure AI-Suchprojektvariablen zu bestimmen:
- URL: Um den Wert für
azure_ai_search_urlzu erhalten, konsultieren Sie die Azure-Dokumentation Dienstinformationen abrufen. - API-Schlüssel: Um den Wert für
azure_ai_search_api_keyzu erhalten, beziehen Sie sich auf die Azure-Dokumentation Rollenspezifischen Zugriff konfigurieren.
Sie können die in den Anpassungsdateien des KI-Agenten enthaltenen JSON-Definitionsdateien verwenden, um den Index und den Indexer zu generieren, oder Sie können sie selbst erstellen.
Wenn Sie die bereitgestellten Definitionsdateien verwenden, müssen Sie die folgenden Platzhalter durch Ihre eigenen Konfigurationswerte ersetzen:
Azure_AI_Search_Indexer_Definition.json
| Platzhalter | Beschreibung |
|---|---|
{{Ihr Azure AI-Suchdienstname}} |
Der Name des Azure AI-Suchdienstes. |
Azure_AI_Search_Datasource_Definition.json
| Platzhalter | Beschreibung |
|---|---|
{{Ihr Azure AI-Suchdienstname}} |
Der Name des Azure AI-Suchdienstes. |
{{Ihr Azure Blob-Kontoname}} |
Der Name des Azure Blob-Kontos. |
{{Ihr Azure Blob-Kontenschlüssel}} |
Der Zugriffsschlüssel für das Azure Blob-Speicherkonto, wie oben in Azure Blob-Container beschrieben. |
{{Ihr_azure_blob_container_name}} |
Der Name des Azure Blob-Containers. |
Azure OpenAI-Ressource
Sie müssen eine Azure OpenAI-Ressource erstellen und ein gpt-4o oder gpt-4.1 Modell über das Azure AI Foundry-Portal bereitstellen.
Sie benötigen den Bereitstellungsnamen, die Azure OpenAI-Endpunkt-URL und den API-Schlüssel, um die Werte der Azure OpenAI-Projektvariablen zu bestimmen. Um diese Werte zu finden:
- Öffnen Sie im Azure AI Foundry-Portal die spezifische OpenAI-Ressource.
-
Die Werte für die Endpunkt-URL (
azure_openai_base_url) und den API-Schlüssel (azure_openai_api_key) werden auf der Startseite der Ressource angezeigt:
-
Wählen Sie im Navigationsmenü unter Geteilte Ressourcen Bereitstellungen aus. Der Bereitstellungsname (
Azure_OpenAI_Deployment_Name) wird angezeigt.
Richten Sie ein Google-Dienstkonto und ein freigegebenes Laufwerk ein
Dieses Setup ist nur erforderlich, wenn Sie den Workflow Daten-Upload-Dienstprogramm - Google Drive zu Azure Blob verwenden. Sie müssen ein aktives Google Cloud-Projekt haben, um fortzufahren. Wenn Sie noch keines haben, können Sie eines erstellen, indem Sie die Anweisungen von Google befolgen.
Erstellen Sie ein Google-Dienstkonto
Befolgen Sie die folgenden Schritte, um einen Schlüssel für das Google-Dienstkonto zu erstellen, damit das Dienstprogramm sicher auf Ihre Google Drive-Dateien zugreifen kann:
-
Verwenden Sie in der Google Cloud-Konsole die Suchleiste, um zur Seite Dienstkonten zu navigieren.
-
Wenn Sie bereits ein Dienstkonto haben, das Sie verwenden möchten, fahren Sie mit Schritt 3 fort. Andernfalls klicken Sie auf Dienstkonto erstellen, geben Sie einen Namen ein und klicken Sie auf Fertig. Es sind keine zusätzlichen Berechtigungen oder Zugriffe erforderlich.

-
Wählen Sie das Dienstkonto aus, um die Details des Dienstkontos zu öffnen:

-
Navigieren Sie zum Tab Keys und verwenden Sie das Menü Add key, um Create new key auszuwählen.

-
Wählen Sie JSON als Schlüsseltyp und klicken Sie auf Create. Eine JSON-Datei mit den Anmeldeinformationen wird auf Ihren Computer heruntergeladen.
-
Öffnen Sie die heruntergeladene JSON-Datei, um die folgenden Werte zu finden, die zur Konfiguration der Google Drive-Projektvariablen benötigt werden:
client_email: Dies ist der Wert für die ProjektvariableGoogle_Client_Emailund wird benötigt, um das Google-Shared-Drive im nächsten Abschnitt zu konfigurieren.private_key: Dies ist der Wert für die ProjektvariableGoogle_Private_Key.
-
Aktivieren Sie die Google Drive API in Ihrem Google Cloud-Konto:
-
Verwenden Sie in der Google Cloud-Konsole die Suchleiste, um die Seite APIs & Services zu finden und zu navigieren.
-
Greifen Sie auf die API-Bibliothek zu und wählen Sie die Google Drive API aus:

-
Klicken Sie auf die Schaltfläche Enable:

-
Konfigurieren des Google-Shared-Drives
Das Google-Shared-Drive sollte wie folgt konfiguriert werden, um dem Dienstprogramm den Zugriff auf alle Dateien zu ermöglichen, die Sie hochladen:
-
Erstellen Sie ein Google-Shared-Drive, wenn Sie noch keines haben.
-
Öffnen Sie das Shared Drive und kopieren Sie seine ID aus der URL des Browsers. Die ID ist die lange Zeichenfolge am Ende. Wenn die URL beispielsweise
https://drive.google.com/drive/folders/dftg-LbGrP7hdfdlautet, ist die IDdftg-LbGrP7hdfd. Diese ID ist der Wert für die ProjektvariableGoogle_Drive_ID, wenn Sie die Google Drive-Projektvariablen konfigurieren. -
Klicken Sie oben auf der Seite auf den Namen des Shared Drives und wählen Sie Manage members. Ein Dialogfeld erscheint.
-
Fügen Sie im Feld Add people and groups den Wert von
client_emailaus der zuvor heruntergeladenen JSON-Datei ein. -
Weisen Sie dem Content-Manager-Rolle das Dienstkonto zu und bestätigen Sie die Aktion.
Projektvariablen konfigurieren
Im zuvor über den Marketplace installierten Studio-Projekt müssen Werte für die folgenden Projektvariablen festgelegt werden.
Dies kann über das Aktionsmenü {{icon_more}} des Projekts erfolgen, um Projektvariablen auszuwählen und eine Schublade am unteren Rand der Seite zu öffnen, in der Sie die Werte überprüfen und festlegen können.
Salesforce
| Variablenname | Beschreibung |
|---|---|
SF_Login_URL |
Server-Host in der Salesforce-Verbindung |
SF_Password |
Passwort in der Salesforce-Verbindung |
SF_Security_Token |
Sicherheitstoken in der Salesforce-Verbindung |
SF_User_Name |
Benutzername in der Salesforce-Verbindung |
SF_Cases_Incremental_Run |
Flag zur Steuerung, ob nur neue oder aktualisierte Salesforce-Fälle seit dem letzten Lauf abgerufen werden sollen. Wenn true, werden nur inkrementelle (neue oder aktualisierte) Fälle seit dem letzten Lauf aus Salesforce abgerufen. Wenn false, wird ein vollständiger Abruf ab dem Standarddatum und der Standardzeit (SF_Cases_Default_Modified_Date) durchgeführt. |
SF_Cases_Default_Modified_Date |
Das Standarddatum und die Standardzeit, ab denen Salesforce-Fälle abgerufen werden. Wird während des ersten Laufs oder wenn SF_Cases_Incremental_Run false ist, verwendet. Format: yyyy-MM-dd'T'HH:mm:ss.SSS'Z'. Beispiel: 2024-09-11T13:00:02.000Z. Wenn dieses Datum nicht festgelegt ist, wird ein Fehler ausgelöst. |
Jira
| Variablenname | Beschreibung |
|---|---|
JIRA_Username |
Die Email-Adresse, die mit dem Jira-Konto zur Authentifizierung verknüpft ist. |
JIRA_Token |
API-Token, das zur Authentifizierung mit der JIRA-Instanz verwendet wird. Für Atlassian Cloud kann dieses Token in den Kontoeinstellungen generiert werden. |
JIRA_Projects |
Jira-Projekt-Keys, um Issues abzurufen, im Format keys=PROJECT1&keys=PROJECT2. Beispiel: keys=SUPPORT&keys=ITHELP. |
JIRA_Issue_Types |
Liste der Jira-Issue-Typen, die abgerufen werden sollen, durch Kommas getrennt. Jeder Wert muss in einfache Anführungszeichen gesetzt werden. Beispiel: 'Story','Bug','Task'. |
Jira_Default_Modified_Date |
Das Standarddatum und die Uhrzeit, ab denen Jira-Issues abgerufen werden. Wird beim ersten Lauf oder wenn JIRA_IncrementalRun false ist, verwendet. Format: yyyy-MM-dd HH:mm. Beispiel: 2025-08-07 10:00. Wenn dieses Datum nicht gesetzt ist, wird ein Fehler ausgelöst. |
JIRA_Incremental_Run |
Flag zur Steuerung, ob nur neue oder aktualisierte Jira-Issues seit dem letzten Lauf abgerufen werden sollen. Wenn true, werden nur inkrementelle (neue oder aktualisierte) Issues seit dem letzten Lauf von Jira abgerufen. Wenn false, wird ein vollständiger Abruf vom Standarddatum und der Standarduhrzeit (Jira_Default_Modified_Date) durchgeführt. |
JIRA_Base_URL |
Die Basis-URL der Jira-Instanz, mit der eine Verbindung hergestellt werden soll. Fügen Sie keinen abschließenden Schrägstrich hinzu. Beispiel: https://yourdomain.atlassian.net. |
Confluence
| Variablenname | Beschreibung |
|---|---|
Confluence_Wiki_UserName |
Der Benutzername des Confluence-Wikis. |
Confluence_Wiki_Password |
Das Passwort des Confluence-Wikis. |
Confluence_Wiki_Base_Url |
Die Stamm-URL des Confluence-Wikis für API-Aufrufe und Inhaltsabruf. Beispiel: https://yourcompany.atlassian.net/wiki. |
Google Drive
| Variablenname | Beschreibung |
|---|---|
Google_Client_Email |
Die Client-Email des Google-Dienstkontos, das zur Authentifizierung beim Zugriff auf Google Drive verwendet wird. |
Google_Drive_Default_Modified_Date |
Das Standarddatum und die Uhrzeit, ab denen Google Drive-Dateien gelesen werden. Wird beim ersten Lauf oder wenn das inkrementelle Lesen deaktiviert ist, verwendet. Format: yyyy-MM-dd'T'HH:mm:ss. Beispiel: 2024-05-28T11:32:47. Wenn dieses Datum nicht gesetzt ist, wird ein Fehler ausgelöst. |
Google_Drive_ID |
Die ID des freigegebenen Google Drives, aus dem Dateien gelesen werden. Zum Beispiel, wenn die URL des freigegebenen Drives https://drive.google.com/drive/folders/1KTXaKx_FG7Ud8sWHf8QgG67XHy ist, ist die Drive-ID 1KTXaKx_FG7Ud8sWHf8QgG67XHy. |
Google_Drive_Incremental_Run |
Flag zur Steuerung, ob nur neue oder aktualisierte Google Drive-Dateien seit dem letzten Lauf abgerufen werden sollen. Wenn true, werden nur inkrementelle (neue oder aktualisierte) Dateien seit dem letzten Lauf von Google Drive abgerufen. Wenn false, wird ein vollständiger Abruf vom Standarddatum und -uhrzeit (Google_Drive_Default_Modified_Date) durchgeführt. |
Google_Oauth_Scopes |
Der OAuth-Bereich, der erforderlich ist, um dem Google-Dienstkonto Zugriff auf Google Drive zu gewähren. Für diesen KI-Agenten geben Sie ein: https://www.googleapis.com/auth/. |
Google_Private_Key |
Der private Schlüssel des Google Cloud-Dienstkontos, das zur Authentifizierung für den Abruf von Dateien aus Google Drive verwendet wird. |
Azure Blob Storage
| Variablenname | Beschreibung |
|---|---|
Azure_Blob_Container_Name |
Der Name des Azure Blob Storage Containers, in dem die abgerufenen Daten gespeichert oder abgerufen werden. Dies ist der Teil der SAS-URL, der unmittelbar nach der Domain des Speicherkontos folgt. Beispiel: In https://myaccount.blob.core.windows.net/mycontainer/myblob.txt?sv=... ist der Containername mycontainer. |
azure_blob_sas_token |
Das SAS-Token, das zur Authentifizierung des Zugriffs auf den Azure Blob Container Azure_Blob_Container_Name verwendet wird. Nur der Teil nach ? in der vollständigen Blob-URL sollte gespeichert werden. Beispiel-Token: sv=2025-08-01&ss=b&srt=sco&sp=rl&se=2025-08-30T12:00:00Z&st=2025-08-25T12:00:00Z&spr=https&sig=AbCdEfGhIjKlMnOpQrStUvWxYz1234567890. |
azure_blob_base_url |
Die Basis-URL des Azure Blob Storage Kontos, die verwendet wird, um auf Container und Blobs zuzugreifen. In einer SAS-URL wie https://myaccount.blob.core.windows.net/mycontainer/myblob.txt?sv=... ist die Basis-URL https://myaccount.blob.core.windows.net/. |
{% raw %}
Tipp
Diese Werte können aus der SAS-URL abgeleitet werden, die das Format {{azure_blob_base_url}}/{{Azure_Blob_Container_Name}}?{{azure_blob_sas_token}} hat.
Azure AI Search
| Variablenname | Beschreibung |
|---|---|
Azure_AI_Search_Index_Name |
Der Name des Azure-Indexes, der Kundeninformationen aus Bestellformularen speichert. |
azure_ai_search_indexer |
Der Name des Azure AI Search Indexers, der verwendet wird, um den Suchindex Azure_AI_Search_Index_Name zu befüllen und zu aktualisieren. |
azure_ai_search_url |
Die Endpunkt-URL Ihres Azure AI Search-Dienstes. Fügen Sie keinen abschließenden Schrägstrich hinzu. Beispiel: https://<your-search-service>.search.windows.net. |
azure_ai_search_api_key |
Der API-Schlüssel, der zur Authentifizierung von Anfragen an Azure AI Search verwendet wird. |
Azure OpenAI
| Variablenname | Beschreibung |
|---|---|
Azure_OpenAI_Deployment_Name |
Der Name des Azure OpenAI-Deployments, das verwendet wird, um auf das Modell zuzugreifen. |
azure_openai_base_url |
Die Basis-URL für den Zugriff auf den Azure OpenAI-Dienst. Beispiel: https://<your-resource-name>.openai.azure.com. |
azure_openai_api_key |
Der API-Schlüssel, der zur Authentifizierung von Anfragen an den Azure OpenAI-Dienst verwendet wird. |
Slack
| Variablenname | Beschreibung |
|---|---|
Slack_Bot_Token |
Das Slack-Bot-Token, das nach Erstellen der Slack-App erhalten wird, verwendet für das OAuth-Zugangs-Token des Bot-Benutzers in der Slack-Verbindung. |
Hinweis
Die Slack-App wird in einem späteren Schritt erstellt. Für den Moment können Sie diese Variable leer lassen.
Allgemein
| Variablenname | Beschreibung |
|---|---|
html_regex |
Regex zum Entfernen von HTML-Tags. Verwenden Sie den Standardwert: <(?:"[^"]*"['"]*|'[^']*'['"]*|[^'">])+> |
AI_Prompt |
Der Eingabetext oder die Anweisung, die dem KI-Modell bereitgestellt wird und anleitet, wie es eine Antwort generieren soll. Für diesen Agenten können Sie den folgenden Prompt verwenden:
|
Testverbindungen
Test die Endpunktkonfigurationen, um die Konnektivität mit den definierten Projektvariablenwerten zu überprüfen.
Um Verbindungen zu testen, gehen Sie zur Projektendpunkte und -connectoren Registerkarte der Designkomponentenpalette, fahren Sie mit der Maus über jeden Endpunkt und klicken Sie auf Test.
Projekt bereitstellen
Projekt bereitstellen das Studio-Projekt.
Um das Projekt bereitzustellen, verwenden Sie das Aktionsmenü des Projekts, um Bereitstellen auszuwählen.
Projekt bereitstellen
Projekt bereitstellen das Studio-Projekt. Dies kann über das Aktionsmenü des Projekts erfolgen, um Bereitstellen auszuwählen.
Erstellen der Jitterbit benutzerdefinierten API
Erstellen Sie eine benutzerdefinierte API mit dem API-Manager für eine der folgenden:
- Slack Bot API-Anforderungs-Handler: Erforderlich, wenn die Slack-Benachrichtigung verwendet wird, die im Design dieses KI-Agenten enthalten ist.
- Allgemeiner API-Anforderungs-Handler: Optional. Verwenden Sie ihn zur Verarbeitung von API-Anfragen aus jeder Anwendung.
Erstellen des Slack Bot API-Anforderungs-Handlers
Diese benutzerdefinierte Jitterbit-API löst die Slack Bot API Request Handler-Operation aus. Konfigurieren und veröffentlichen Sie die benutzerdefinierte API mit den folgenden Einstellungen:
- API-Dienst:
Slack Bot API Request Handler - Pfad:
/ - Projekt: Wählen Sie das Studio-Projekt aus, das aus dem
Jitterbit Knowledge Agentim Marketplace erstellt wurde - Auszulösende Operation:
Slack Bot API Request Handler - Methode:
POST - Antworttyp:
Systemvariable
Behalten Sie die Dienst-URL der veröffentlichten API für die Erstellung der Slack-App. Die Dienst-URL finden Sie im API-Details-Bereich auf der Dienste-Registerkarte, indem Sie mit der Maus über die Aktionen-Spalte des Dienstes fahren und auf API-Dienst-URL kopieren klicken.
Generischer API-Anforderungs-Handler
Diese benutzerdefinierte Jitterbit-API löst die Operation Generischer API-Anforderungs-Handler aus. Sie ist nicht erforderlich. Erstellen Sie diese API, wenn Sie andere Anwendungen verwenden, um HTTP-API-Anfragen zu verarbeiten. Konfigurieren und veröffentlichen Sie die benutzerdefinierte API mit den folgenden Einstellungen:
- Dienstname:
Generischer API-Anforderungs-Handler - Projekt: Wählen Sie das Studio-Projekt aus, das aus dem
Jitterbit Knowledge Agentim Marketplace erstellt wurde - Operation:
Generischer API-Anforderungs-Handler - Methode:
POST - Antworttyp:
Systemvariable
Tipp
Sie können auch ein Sicherheitsprofil zur Authentifizierung hinzufügen.
{
"username": "johnr",
"prompt": "How to connect to mysql using a connector?"
}
{
"message": "To connect to a MySQL database using the Database connector, follow these steps: - Use the MySQL JDBC driver that ships with the agent for additional features like manual queries.",
"references": [],
"status_code": 200
}
Erstellen Sie die Slack-App, testen Sie die Verbindung und setzen Sie das Projekt erneut ein
Um die Chat-Oberfläche des Knowledge Agent in Slack zu erstellen, erstellen Sie eine Slack-App mit der Slack-App-Manifestdatei, die mit den Anpassungsdateien dieses KI-Agenten bereitgestellt wird. Oder, erstellen Sie sie von Grund auf.
Wenn Sie die bereitgestellte Slack-App-Manifestdatei (slack_app_manifest.json) verwenden, müssen Sie die folgenden Platzhalter durch Ihre eigenen Konfigurationswerte ersetzen:
| Platzhalter | Beschreibung |
|---|---|
{{Replace with Slack bot name}} |
Der Name, den Ihr Slack-Bot haben soll, wie er den Benutzern angezeigt wird. Es gibt zwei Stellen im Manifest, an denen Sie diesen Wert ersetzen müssen. |
{{Replace with Jitterbit API URL}} |
Die Dienst-URL der benutzerdefinierten Jitterbit-API, die Sie in Erstellen Sie den Slack-Bot-API-Anforderungs-Handler erstellt haben. |
Nach der Installation der Slack-App erhalten Sie das Bot-Token.
Öffnen Sie die Konfiguration der Projektvariablen erneut und geben Sie das Bot-Token für den Wert der Projektvariablen Slack_Bot_Token ein.
Sobald das Bot-Token festgelegt ist, testen Sie die Slack-Verbindung und stellen Sie das Projekt erneut bereit.
Triggern Sie die Projekt-Workflows
Für den initialen Datenimport führen Sie eine oder alle Data upload Utility Workflows aus, abhängig von Ihren Datenquellen. Dies kann über die Run-Option der initialen Operation erfolgen, die angezeigt wird, wenn Sie über die Operation fahren. Sie müssen die Operation in Zukunft erneut ausführen, wenn Ihre Daten aktualisiert werden.
Hinweis
Möglicherweise möchten Sie die initialen Operationen in den Data upload Utility Workflows auf einen Zeitplan setzen, um regelmäßig aktualisierte Daten zu erhalten. Dies kann über das Aktionsmenü der Operation in Einstellungen > Zeitpläne erfolgen.
Die beiden anderen Haupt-Workflows werden durch die benutzerdefinierten APIs von Jitterbit ausgelöst:
-
Main Entry - Slack API Request Handler: Dieser Workflow wird von Slack über die benutzerdefinierte APISlack Bot API Request Handlerausgelöst. Das Senden einer Direktnachricht an die Slack-App initiiert den Trigger der benutzerdefinierten API. -
Generic API Request Handler: Dieser Workflow wird von einer anderen Anwendung über die benutzerdefinierte APIGeneric API request Handlerausgelöst. Das Senden einer Anfrage an die konfigurierte API initiiert den Trigger der benutzerdefinierten API.
Alle anderen Workflows werden durch andere Operationen ausgelöst und sind nachgelagert zu den oben genannten. Sie sind nicht dafür gedacht, eigenständig ausgeführt zu werden.
Fehlersuche
Wenn Sie auf Probleme stoßen, überprüfen Sie die folgenden Protokolle für detaillierte Informationen zur Fehlersuche:
Für zusätzliche Unterstützung kontaktieren Sie den Jitterbit-Support.