Zum Inhalt springen

Jitterbit Knowledge Agent

Übersicht

Der Jitterbit Knowledge Agent (Knowledge Agent) ist ein KI-Agent, der über den Jitterbit Marketplace bereitgestellt wird und dazu dient, Ihrem internen Team intelligente Antworten aus den internen Daten Ihrer Organisation zu ermöglichen. Er führt Folgendes aus:

  • Stellt eine Verbindung zu den folgenden Quellen her und ruft Informationen mithilfe von Jitterbit Integration Studio ab:

    • Atlassian Confluence-Seiten
    • Atlassian Jira-Tickets
    • Google Drive-Dokumente
    • Salesforce-Supportfälle (aus dem Case-Objekt)
  • Integriert sich mit Azure OpenAI, um einen intelligenten KI-Chatbot mit Daten aus den oben genannten Quellen zu betreiben, die über eine benutzerdefinierte API abgerufen werden, die mit Jitterbit API Manager erstellt wurde.

Dieses Dokument erklärt die Einrichtung und den Betrieb des Agents. Es behandelt zunächst die Voraussetzungen, gibt dann Beispielaufforderungen, um zu zeigen, was der Agent tun kann, und bietet anschließend Schritte zur Installation, Konfiguration und zum Betrieb des Agents.

Voraussetzungen

Um den Knowledge Agent zu verwenden, sind die folgenden Komponenten erforderlich oder werden im Design des Agents vorausgesetzt.

Harmony-Komponenten

Sie müssen über eine Jitterbit Harmony-Lizenz mit Zugriff auf die folgenden Komponenten verfügen:

Azure-Ressourcen

Sie müssen über ein Microsoft Azure-Abonnement mit Berechtigungen verfügen, um die folgenden Ressourcen zu erstellen und zu verwalten:

  • Azure Storage mit einem Blob-Container zum Speichern der abgerufenen Daten.
  • Azure AI Search mit einem Suchdienst, der mit einem Index und einem Indexer konfiguriert werden kann.
  • Azure OpenAI mit einem bereitgestellten gpt-4o oder gpt-4.1 Modell.

Tipp

Um Preiskategorien basierend auf Ihren spezifischen Anforderungen und der erwarteten Nutzung auszuwählen, siehe Azure AI Search Preiskategorien und Azure OpenAI Preise.

Unterstützte Endpunkte

Die folgenden Endpunkte sind in das Design des Agenten integriert.

Wissensdatenbank

Sie können einen oder alle dieser Endpunkte als Wissensdatenbank für diesen KI-Agenten verwenden:

  • Atlassian Confluence: Die Quelle der Confluence-Seiten.
  • Atlassian Jira: Die Quelle der Jira-Tickets.
  • Google Drive: Die Quelle der auf einem Google-Shared-Drive gespeicherten Dateien.
  • Salesforce: Die Quelle Ihrer Kundenservicefälle aus dem Case-Objekt.

Chat-Schnittstelle

Das Design des Agenten integriert Slack als die Chat-Schnittstelle zur Interaktion mit dem KI-Agenten. Wenn Sie eine andere Anwendung als Chat-Schnittstelle verwenden möchten, sind separate Workflows und Anweisungen für eine generische API-Einrichtung in diesem KI-Agenten enthalten.

Beispielaufforderungen

Hier sind Beispielaufforderungen, die der Wissensagent mit Zugriff auf die entsprechenden Daten bearbeiten kann. Der Agent kann Informationen über alle oder einige der verbundenen Endpunkte finden.

  • "Ich habe ein Problem mit der Komponente 'ABC'. Können Sie dabei helfen?"
  • "Wie kann ich mich mit einer MySQL-Datenbank über JDBC verbinden?"
  • "Können Sie mir Details zur Jira-Ticketnummer 123 geben?"
  • "Gibt es Jira-Tickets zum SQL-Connector?"
  • "Was ist die Sicherheitsrichtlinie für die Installation von Software auf meinem Arbeitscomputer?" (Es könnte ein Dokument auf Google Drive oder eine Confluence-Seite zu diesem Thema geben.)

Installation, Konfiguration und Betrieb

Befolgen Sie diese Schritte, um diesen KI-Agenten zu installieren, zu konfigurieren und zu betreiben:

  1. Laden Sie Anpassungen herunter und installieren Sie das Integration Studio-Projekt.
  2. Überprüfen Sie die Projekt-Workflows.
  3. Erstellen Sie Microsoft Azure-Ressourcen.
  4. Richten Sie ein Google-Dienstkonto und ein Shared Drive ein.
  5. Konfigurieren Sie Projektvariablen.
  6. Testen Sie die Verbindungen.
  7. Stellen Sie das Projekt bereit.
  8. Erstellen Sie die Jitterbit benutzerdefinierte API.
  9. Erstellen Sie die Slack-App, testen Sie die Slack-Verbindung und stellen Sie das Projekt erneut bereit.
  10. Triggern Sie die Projekt-Workflows.

Download von Anpassungen und Installation des Projekts

Befolgen Sie diese Schritte, um Anpassungsdateien herunterzuladen und das Integration Studio-Projekt für den KI-Agenten zu installieren:

  1. Melden Sie sich im Harmony-Portal unter https://login.jitterbit.com an und öffnen Sie Marketplace.

  2. Suchen Sie den KI-Agenten mit dem Namen Jitterbit Knowledge Agent. Um den Agenten zu finden, können Sie die Suchleiste verwenden oder im Filter-Bereich unter Typ KI-Agent auswählen, um die Anzeige auf die verfügbaren KI-Agenten zu beschränken.

  3. Klicken Sie auf den Dokumentation-Link des KI-Agenten, um dessen Dokumentation in einem separaten Tab zu öffnen. Halten Sie den Tab geöffnet, um später darauf zurückzugreifen, nachdem Sie das Projekt gestartet haben.

  4. Klicken Sie auf Projekt starten, um einen zweistufigen Konfigurationsdialog zu öffnen, um Anpassungen herunterzuladen und den KI-Agenten als Integration Studio-Projekt zu importieren.

    Hinweis

    Wenn Sie den KI-Agenten noch nicht gekauft haben, wird stattdessen Diesen Agenten erhalten angezeigt. Klicken Sie darauf, um einen Informationsdialog zu öffnen, und klicken Sie dann auf Absenden, damit sich ein Vertreter mit Ihnen in Verbindung setzt, um den KI-Agenten zu kaufen.

  5. Im Konfigurationsschritt 1, Anpassungen herunterladen, werden die folgenden Dateien bereitgestellt, um die Einrichtung des Index und des Indexers in Azure AI Search zu erleichtern und die Slack-App zu erstellen. Wählen Sie die Dateien aus und klicken Sie auf Dateien herunterladen:

    • JSON-Definitionsdateien für Azure AI Search-Index und -Indexer

      • Azure_AI_Search_Datasource_Definition.json
      • Azure_AI_Search_Index_Definition.json
      • Azure_AI_Search_Indexer_Definition.json
    • Manifestdatei der Slack-App

      • slack_app_manifest.json

    Tipp

    Der Konfigurationsdialog enthält eine Warnung, die besagt, dass die Vorlage nicht importiert werden soll, bevor die Endpunktanpassungen angewendet werden. Diese Warnung gilt nicht für diesen KI-Agenten und kann ignoriert werden. Befolgen Sie die empfohlene Reihenfolge der Schritte in dieser Dokumentation.

    Klicken Sie auf Weiter.

  6. Im Konfigurationsschritt 2, Neues Projekt erstellen, wählen Sie eine Umgebung, in der das Integration Studio-Projekt erstellt wird, und klicken Sie dann auf Projekt erstellen.

  7. Ein Fortschrittsdialog wird angezeigt. Sobald er anzeigt, dass das Projekt erstellt wurde, verwenden Sie den Dialoglink Gehe zu Integration Studio oder öffnen Sie das Projekt direkt von der Integration Studio Projekte Seite.

Überprüfen der Projekt-Workflows

Überprüfen Sie im geöffneten Integration Studio-Projekt die Workflows sowie die folgenden Beschreibungen, um zu verstehen, was sie tun.

Hinweis

Die ersten vier Workflows sind Data upload Utility-Workflows, deren Zweck es ist, Daten abzurufen, die als Wissensbasis für den KI-Agenten verwendet werden. Sie können einen oder alle diese Workflows verwenden, um Daten abzurufen. Mindestens eine Quelle ist erforderlich, um die Wissensbasis für den KI-Agenten zu bilden.

Diese Workflows sollten zuerst ausgeführt werden, um Wissen in den Agenten zu laden, bevor Sie mit ihm interagieren. Sie können einen Zeitplan einrichten, um regelmäßig aktualisierte Daten gemäß Ihren Anforderungen zu erhalten. Dies kann über das Aktionsmenü der ersten Operation in Einstellungen > Zeitpläne erfolgen.

  1. Data upload Utility - JIRA-Tickets in Azure-Index

    Dieser Workflow ruft Probleme aus Jira ab und führt dann den Workflow Utility - Azure Data Upload and Index aus, um Probleme in Azure Blob Storage hochzuladen und sie im Azure AI Search-Index zu indizieren.

    Die anfängliche Operation ist Main - JIRA-Tickets hochladen. Die folgenden Felder werden abgerufen:

    "fields": [
        "summary",
        "status",
        "assignee",
        "description",
        "reporter",
        "created",
        "updated",
        "priority",
        "issuetype",
        "components",
        "comment"
     ]
    

    Dieser Workflow kann so konfiguriert werden, dass er alle Probleme oder nur neue und aktualisierte Probleme abruft, indem die Jira-Projektvariablen verwendet werden.

  2. Data upload Utility - SF-Fälle in Azure-Index

    Dieser Workflow ruft Supportfälle aus Salesforce ab und führt dann den Workflow Utility - Azure Data Upload and Index aus, um Fälle in Azure Blob Storage hochzuladen und sie im Azure AI Search-Index zu indizieren.

    Der erste Vorgang ist Main - SF Cases Upload.

    In der Konfiguration der Salesforce Query activity ruft die folgende Abfrage Informationen zu Supportfällen nach Agent ab. Wenn Ihre Salesforce-Organisation diese Objekte und Felder nicht verwendet oder wenn Informationen zu Supportfällen in anderen Objekten und Feldern gespeichert sind, funktioniert dieser Workflow möglicherweise nicht richtig. Passen Sie die Abfrage in diesem Workflow an das Datenmodell Ihrer Salesforce-Organisation an:

    SELECT Account.Name,
           Owner.Email,
           Owner.Name,
           (SELECT CreatedBy.Email,
                   CreatedBy.Name,
                   Id,
                   CommentBody,
                   CreatedDate,
                   LastModifiedDate,
                   LastModifiedBy.Email,
                   LastModifiedBy.Name
            FROM   CaseComments),
           Id,
           CaseNumber,
           CreatedDate,
           Description,
           LastModifiedDate,
           Origin,
           Priority,
           Reason,
           Status,
           Subject,
           Type,
           CreatedBy.Email,
           CreatedBy.Name,
           LastModifiedBy.Email,
           LastModifiedBy.Name
    FROM Case
    

    Dieser Workflow kann so konfiguriert werden, dass er alle Fälle oder nur neue und aktualisierte Fälle abruft, indem die Salesforce-Projektvariablen verwendet werden.

  3. Daten-Upload-Dienstprogramm - Confluence-Seiten zu Azure-Index

    Dieser Workflow ruft Seiten aus Confluence ab und führt dann den Workflow Utility - Azure Data Upload and Index aus, um Dokumente in den Azure Blob Storage hochzuladen und sie im Azure AI Search-Index zu indizieren.

    Der erste Vorgang ist Main - Load Confluence Pages.

    Dieser Workflow ruft bei jeder Ausführung alle Confluence-Seiten ab.

  4. Daten-Upload-Dienstprogramm - Google Drive zu Azure Blob

    Dieser Workflow ruft Dateien aus Google Drive ab und führt dann den Workflow Utility - Azure Data Upload and Index aus, um sie im Azure AI Search-Index zu indizieren.

    Der erste Vorgang ist Main - Google Drive Upload.

    Unterstützte Dateitypen sind Google Docs, Google Spreadsheets und die von Azure Storage Blob-Indizierung unterstützten.

    Die maximal unterstützten Dateigrößen sind als maximale Blob-Größe in den Azure AI Search Indexer-Limits für Ihre AI-Suchdienststufe aufgeführt. Zum Beispiel beträgt das Limit für die Basisstufe 16 MB; für S1 beträgt das Limit 128 MB.

    Dieser Workflow kann so konfiguriert werden, dass er alle Dateien oder nur neue und aktualisierte Dateien abruft, indem die Google Drive-Projektvariablen verwendet werden.

  5. Dienstprogramm - Azure-Daten-Upload und Indizierung

    Dies ist ein gängiger Dienstprogramm-Workflow, der von den Data upload Utility-Workflows verwendet wird, um Daten in Azure Blob Storage hochzuladen und in Azure AI Search zu indizieren.

  6. Haupteingang - Slack API-Anforderungs-Handler

    Dieser Workflow verwaltet eingehende Slack-Bot-Anfragen. Er wird über eine benutzerdefinierte Jitterbit-API ausgelöst, jedes Mal, wenn Ihr Team mit der Slack-Bot-Chat-Benutzeroberfläche interagiert (d. h. eine Slack-Nachricht an ihn sendet). Die Konfiguration der benutzerdefinierten Jitterbit-API wird in Erstellen der Jitterbit-Benutzerdefinierten API weiter unten auf dieser Seite beschrieben.

    Wenn Sie Slack nicht verwenden, kann dieser Workflow ignoriert werden und wird nicht ausgelöst. Um eine andere Chat-Benutzeroberfläche für Ihr Team zu verwenden, verwenden Sie den Workflow Generic API Request Handler, der ebenfalls über eine benutzerdefinierte Jitterbit-API ausgelöst wird.

  7. Generischer API-Anforderungs-Handler

    Dieser Workflow verarbeitet HTTP-API-Anfragen von jeder Anwendung. Um sich mit Ihren Anwendungen zu integrieren, erstellen Sie eine benutzerdefinierte Jitterbit-API, die die Operation Generic API request Handler auslöst. Die URL dieser API kann dann von jeder Anwendung verwendet werden, um Anfragen zu senden und zu empfangen.

    Die Konfiguration der benutzerdefinierten Jitterbit-API wird in Erstellen der Jitterbit-Benutzerdefinierten API weiter unten auf dieser Seite beschrieben.

Microsoft Azure-Ressourcen erstellen

Erstellen Sie die folgenden Microsoft Azure-Ressourcen und behalten Sie die folgenden Informationen zur Konfiguration des KI-Agenten. Um diese Ressourcen zu erstellen und zu verwalten, müssen Sie über ein Microsoft Azure-Abonnement mit den entsprechenden Berechtigungen verfügen.

Azure Blob-Container

Sie müssen einen Azure Blob-Container erstellen, um Kundendaten zu speichern. Daten aus dem Blob-Container werden in Azure AI Search mithilfe eines Index und eines Indexers indiziert.

Sie benötigen die SAS-URL des Containers, um die Werte der Azure Blob Storage-Projektvariablen zu bestimmen. Um die SAS-URL zu generieren:

  1. Öffnen Sie im Azure-Portal Speicherkonten und wählen Sie das spezifische Speicherkonto aus.
  2. Wählen Sie im Ressourcenmenü unter Datenspeicherung Container aus und öffnen Sie den spezifischen Container.
  3. Wählen Sie im Ressourcenmenü unter Einstellungen Freigegebene Zugriffstoken aus.
  4. Verwenden Sie das Menü Berechtigungen, um zu überprüfen, ob die URL des freigegebenen Zugriffssignatur (SAS) für diesen Container mindestens über die Berechtigungen Lesen und Schreiben verfügt:

    SAS URL Berechtigungen

  5. Klicken Sie auf SAS-Token und URL generieren.

  6. Kopieren Sie die Blob SAS URL, die am Ende angezeigt wird.
  7. Bestimmen Sie die Werte der Projektvariablen für Azure Blob Storage aus der SAS URL. Die SAS URL hat das Format {{ azure_blob_base_url }}/{{ Azure_Blob_Container_Name }}?{{ azure_blob_sas_token }}.

Wenn Sie die im Anpassungsdateien des KI-Agenten enthaltenen JSON-Definitionsdateien verwenden, um den Index und den Indexer zu generieren, benötigen Sie auch den Schlüssel des Azure Blob Storage-Kontos. Um Kontozugriffsschlüssel anzuzeigen:

  1. Öffnen Sie im Azure-Portal Speicherkonten und wählen Sie das spezifische Speicherkonto aus.
  2. Wählen Sie im Ressourcenmenü unter Sicherheit + Netzwerk Zugriffsschlüssel aus.
  3. Klicken Sie auf Schlüssel anzeigen, um den Zugriffsschlüssel anzuzeigen, der während der Konfiguration von Azure AI Search verwendet werden soll.

    Speicherkontenschlüssel

Azure AI Search-Dienst

Sie müssen einen Azure AI Search-Dienst erstellen und dessen Index und Indexer konfigurieren, um die Daten aus dem Blob-Container zu verarbeiten.

Sie benötigen die URL und den API-Schlüssel des Azure AI Search-Dienstes, um die Werte der Azure AI Search-Projektvariablen zu bestimmen:

Sie können die im Anpassungsdateien des KI-Agenten enthaltenen JSON-Definitionsdateien verwenden, um den Index und den Indexer zu generieren, oder Sie können sie selbst erstellen.

Wenn Sie die bereitgestellten Definitionsdateien verwenden, müssen Sie die folgenden Platzhalter durch Ihre eigenen Konfigurationswerte ersetzen:

Azure_AI_Search_Indexer_Definition.json

Platzhalter Beschreibung
{{Ihr Azure AI Suchdienstname}} Der Name des Azure AI Suchdienstes.

Azure_AI_Search_Datasource_Definition.json

Platzhalter Beschreibung
{{Ihr Azure AI Suchdienstname}} Der Name des Azure AI Suchdienstes.
{{Ihr Azure Blob-Kontoname}} Der Name des Azure Blob-Kontos.
{{Ihr Azure Blob-Kontenschlüssel}} Der Zugriffsschlüssel für das Azure Blob Storage-Konto, wie oben in Azure Blob-Container beschrieben.
{{Ihr_azure_blob_container_name}} Der Name des Azure Blob-Containers.

Azure OpenAI-Ressource

Sie müssen eine Azure OpenAI-Ressource erstellen und ein gpt-4o oder gpt-4.1 Modell über das Azure AI Foundry-Portal bereitstellen.

Sie benötigen den Bereitstellungsnamen, die Azure OpenAI-Endpunkt-URL und den API-Schlüssel, um die Werte der Azure OpenAI-Projektvariablen zu bestimmen. Um diese Werte zu finden:

  1. Öffnen Sie im Azure AI Foundry-Portal die spezifische OpenAI-Ressource.
  2. Die Werte für die Endpunkt-URL (azure_openai_base_url) und den API-Schlüssel (azure_openai_api_key) werden auf der Startseite der Ressource angezeigt:

    AI Foundry Schlüssel und URL

  3. Wählen Sie im Navigationsmenü unter Geteilte Ressourcen Bereitstellungen aus. Der Bereitstellungsname (Azure_OpenAI_Deployment_Name) wird angezeigt.

Richten Sie ein Google-Dienstkonto und ein freigegebenes Laufwerk ein

Dieses Setup ist nur erforderlich, wenn Sie den Workflow Daten-Upload-Dienstprogramm - Google Drive zu Azure Blob verwenden. Sie müssen ein aktives Google Cloud-Projekt haben, um fortzufahren. Wenn Sie noch keines haben, können Sie eines erstellen, indem Sie die Anweisungen von Google befolgen.

Erstellen Sie ein Google-Dienstkonto

Befolgen Sie die folgenden Schritte, um einen Schlüssel für das Google-Dienstkonto zu erstellen, damit das Dienstprogramm sicher auf Ihre Google Drive-Dateien zugreifen kann:

  1. Verwenden Sie in der Google Cloud-Konsole die Suchleiste, um zur Seite Dienstkonten zu navigieren.

  2. Wenn Sie bereits ein Dienstkonto haben, das Sie verwenden möchten, fahren Sie mit Schritt 3 fort. Andernfalls klicken Sie auf Dienstkonto erstellen, geben Sie einen Namen ein und klicken Sie auf Fertig. Es sind keine zusätzlichen Berechtigungen oder Zugriffe erforderlich.

    Google Cloud Dienstkonto erstellen

  3. Wählen Sie das Dienstkonto aus, um die Details des Dienstkontos zu öffnen:

    Google Cloud-Dienstkontodetails

  4. Navigieren Sie zum Tab Keys und verwenden Sie das Menü Add key, um Create new key auszuwählen.

    Google Cloud-Dienstkontoschlüssel

  5. Wählen Sie JSON als Schlüsseltyp und klicken Sie auf Create. Eine JSON-Datei mit den Anmeldeinformationen wird auf Ihren Computer heruntergeladen.

  6. Öffnen Sie die heruntergeladene JSON-Datei, um die folgenden Werte zu finden, die zur Konfiguration der Google Drive-Projektvariablen benötigt werden:

    • client_email: Dies ist der Wert für die Projektvariable Google_Client_Email und wird benötigt, um das Google-Shared-Drive im nächsten Abschnitt zu konfigurieren.
    • private_key: Dies ist der Wert für die Projektvariable Google_Private_Key.
  7. Aktivieren Sie die Google Drive API in Ihrem Google Cloud-Konto:

    1. Verwenden Sie in der Google Cloud-Konsole die Suchleiste, um die Seite APIs & Services zu finden und zu navigieren.

    2. Greifen Sie auf die API-Bibliothek zu und wählen Sie die Google Drive API aus:

      Google Cloud Drive API

    3. Klicken Sie auf die Schaltfläche Enable:

      Google Cloud API aktivieren

Konfigurieren Sie das Google-Shared-Drive

Das Google-Shared-Drive sollte wie folgt konfiguriert werden, um dem Dienstprogramm den Zugriff auf alle Dateien zu ermöglichen, die Sie hochladen:

  1. Erstellen Sie ein Google-Shared-Drive, wenn Sie noch keines haben.

  2. Öffnen Sie das Shared Drive und kopieren Sie seine ID aus der URL des Browsers. Die ID ist die lange Zeichenfolge am Ende. Wenn die URL beispielsweise https://drive.google.com/drive/folders/dftg-LbGrP7hdfd lautet, ist die ID dftg-LbGrP7hdfd. Diese ID ist der Wert für die Projektvariable Google_Drive_ID, wenn Sie die Google Drive-Projektvariablen konfigurieren.

  3. Klicken Sie auf den Namen des freigegebenen Laufwerks oben auf der Seite und wählen Sie Mitglieder verwalten. Ein Dialogfeld erscheint.

  4. Fügen Sie im Feld Personen und Gruppen hinzufügen den Wert der client_email aus der zuvor heruntergeladenen JSON-Datei ein.

  5. Weisen Sie dem Dienstkonto die Rolle Inhaltsmanager zu und bestätigen Sie die Aktion.

Projektvariablen konfigurieren

Im Integration Studio-Projekt, das zuvor über den Marketplace installiert wurde, müssen Werte für die folgenden Projektvariablen festgelegt werden.

Dies kann über das Aktionsmenü des Projekts erfolgen, um Projektvariablen auszuwählen und eine Schublade am unteren Rand der Seite zu öffnen, in der Sie die Werte überprüfen und festlegen können.

Salesforce

Variablenname Beschreibung
SF_Login_URL Server-Host in der Salesforce-Verbindung
SF_Password Passwort in der Salesforce-Verbindung
SF_Security_Token Sicherheitstoken in der Salesforce-Verbindung
SF_User_Name Benutzername in der Salesforce-Verbindung
SF_Cases_Incremental_Run Flag zur Steuerung, ob nur neue oder aktualisierte Salesforce-Fälle seit dem letzten Lauf abgerufen werden sollen. Wenn true, werden nur inkrementelle (neue oder aktualisierte) Fälle aus Salesforce seit dem letzten Lauf abgerufen. Wenn false, wird ein vollständiger Abruf ab dem Standarddatum und der Standardzeit (SF_Cases_Default_Modified_Date) durchgeführt.
SF_Cases_Default_Modified_Date Das Standarddatum und die Standardzeit, ab denen Salesforce-Fälle abgerufen werden. Wird während des ersten Laufs oder wenn SF_Cases_Incremental_Run false ist, verwendet. Format: yyyy-MM-dd'T'HH:mm:ss.SSS'Z'. Beispiel: 2024-09-11T13:00:02.000Z. Wenn dieses Datum nicht festgelegt ist, wird ein Fehler ausgelöst.

Jira

Variablenname Beschreibung
JIRA_Username Die Email-Adresse, die mit dem Jira-Konto zur Authentifizierung verknüpft ist.
JIRA_Token API-Token, das zur Authentifizierung mit der JIRA-Instanz verwendet wird. Für Atlassian Cloud kann dieses Token in den Kontoeinstellungen generiert werden.
JIRA_Projects Jira-Projekt-Keys, um Issues abzurufen, im Format keys=PROJECT1&keys=PROJECT2. Beispiel: keys=SUPPORT&keys=ITHELP.
JIRA_Issue_Types Liste der Jira-Issue-Typen, die abgerufen werden sollen, durch Kommas getrennt. Jeder Wert muss in einfache Anführungszeichen eingeschlossen werden. Beispiel: 'Story','Bug','Task'.
Jira_Default_Modified_Date Das Standarddatum und die Uhrzeit, von denen aus Jira-Issues abgerufen werden. Wird beim ersten Lauf oder wenn JIRA_IncrementalRun auf false gesetzt ist, verwendet. Format: yyyy-MM-dd HH:mm. Beispiel: 2025-08-07 10:00. Wenn dieses Datum nicht gesetzt ist, wird ein Fehler ausgelöst.
JIRA_Incremental_Run Flag zur Steuerung, ob nur neue oder aktualisierte Jira-Issues seit dem letzten Lauf abgerufen werden sollen. Wenn true, werden nur inkrementelle (neue oder aktualisierte) Issues aus Jira seit dem letzten Lauf abgerufen. Wenn false, wird ein vollständiger Abruf vom Standarddatum und der Standarduhrzeit (Jira_Default_Modified_Date) durchgeführt.
JIRA_Base_URL Die Basis-URL der Jira-Instanz, mit der verbunden werden soll. Fügen Sie keinen abschließenden Schrägstrich hinzu. Beispiel: https://yourdomain.atlassian.net.

Confluence

Variablenname Beschreibung
Confluence_Wiki_UserName Der Benutzername des Confluence-Wikis.
Confluence_Wiki_Password Das Passwort des Confluence-Wikis.
Confluence_Wiki_Base_Url Die Stamm-URL des Confluence-Wikis für API-Aufrufe und Inhaltsabruf. Beispiel: https://yourcompany.atlassian.net/wiki.

Google Drive

Variablenname Beschreibung
Google_Client_Email Die Client-Email des Google-Dienstkontos, das zur Authentifizierung beim Zugriff auf Google Drive verwendet wird.
Google_Drive_Default_Modified_Date Das Standarddatum und die Uhrzeit, ab denen Google Drive-Dateien gelesen werden. Wird beim ersten Durchlauf oder wenn das inkrementelle Lesen deaktiviert ist, verwendet. Format: yyyy-MM-dd'T'HH:mm:ss. Beispiel: 2024-05-28T11:32:47. Wenn dieses Datum nicht festgelegt ist, wird ein Fehler ausgelöst.
Google_Drive_ID Die ID des freigegebenen Google Drives, aus dem Dateien gelesen werden. Wenn die URL des freigegebenen Drives beispielsweise https://drive.google.com/drive/folders/1KTXaKx_FG7Ud8sWHf8QgG67XHy ist, lautet die Drive-ID 1KTXaKx_FG7Ud8sWHf8QgG67XHy.
Google_Drive_Incremental_Run Flag zur Steuerung, ob nur neue oder aktualisierte Google Drive-Dateien seit dem letzten Durchlauf abgerufen werden sollen. Wenn true, werden nur inkrementelle (neue oder aktualisierte) Dateien seit dem letzten Durchlauf von Google Drive abgerufen. Wenn false, wird ein vollständiger Abruf ab dem Standarddatum und der Standarduhrzeit (Google_Drive_Default_Modified_Date) durchgeführt.
Google_Oauth_Scopes Der OAuth-Bereich, der erforderlich ist, um dem Google-Dienstkonto Zugriff auf Google Drive zu gewähren. Für diesen KI-Agenten geben Sie ein: https://www.googleapis.com/auth/.
Google_Private_Key Der private Schlüssel des Google Cloud-Dienstkontos, das zur Authentifizierung beim Abrufen von Dateien aus Google Drive verwendet wird.

Azure Blob Storage

Variablenname Beschreibung
Azure_Blob_Container_Name Der Name des Azure Blob Storage Containers, in dem die abgerufenen Daten gespeichert oder abgerufen werden. Dies ist der Teil der SAS-URL, der unmittelbar nach der Domain des Speicherkontos folgt. Beispiel: In https://myaccount.blob.core.windows.net/mycontainer/myblob.txt?sv=... ist der Containername mycontainer.
azure_blob_sas_token Das SAS-Token, das zur Authentifizierung des Zugriffs auf den Azure Blob Container Azure_Blob_Container_Name verwendet wird. Nur der Teil nach ? in der vollständigen Blob-URL sollte gespeichert werden. Beispiel-Token: sv=2025-08-01&ss=b&srt=sco&sp=rl&se=2025-08-30T12:00:00Z&st=2025-08-25T12:00:00Z&spr=https&sig=AbCdEfGhIjKlMnOpQrStUvWxYz1234567890.
azure_blob_base_url Die Basis-URL des Azure Blob Storage Kontos, das verwendet wird, um auf Container und Blobs zuzugreifen. In einer SAS-URL wie https://myaccount.blob.core.windows.net/mycontainer/myblob.txt?sv=... ist die Basis-URL https://myaccount.blob.core.windows.net/.

Tipp

Diese Werte können aus der SAS-URL abgeleitet werden, die das Format {{azure_blob_base_url}}/{{Azure_Blob_Container_Name}}?{{azure_blob_sas_token}} hat.

Variablenname Beschreibung
Azure_AI_Search_Index_Name Der Name des Azure-Indexes, der Kundeninformationen aus Bestellformularen speichert.
azure_ai_search_indexer Der Name des Azure AI Search Indexers, der verwendet wird, um den Suchindex Azure_AI_Search_Index_Name zu befüllen und zu aktualisieren.
azure_ai_search_url Die Endpunkt-URL Ihres Azure AI Search-Dienstes. Fügen Sie keinen abschließenden Schrägstrich hinzu. Beispiel: https://<your-search-service>.search.windows.net.
azure_ai_search_api_key Der API-Schlüssel, der zur Authentifizierung von Anfragen an Azure AI Search verwendet wird.

Azure OpenAI

Variablenname Beschreibung
Azure_OpenAI_Deployment_Name Der Name des Azure OpenAI-Deployments, das verwendet wird, um auf das Modell zuzugreifen.
azure_openai_base_url Die Basis-URL für den Zugriff auf den Azure OpenAI-Dienst. Beispiel: https://<your-resource-name>.openai.azure.com.
azure_openai_api_key Der API-Schlüssel, der zur Authentifizierung von Anfragen an den Azure OpenAI-Dienst verwendet wird.

Slack

Variablenname Beschreibung
Slack_Bot_Token Das Slack-Bot-Token, das nach Erstellen der Slack-App erhalten wird, verwendet für das Bot-Benutzer-OAuth-Zugriffstoken in der Slack-Verbindung.

Hinweis

Die Slack-App wird in einem späteren Schritt erstellt. Für den Moment können Sie diese Variable leer lassen.

Common

Variablenname Beschreibung
html_regex Regex zum Entfernen von HTML-Tags. Verwenden Sie den Standardwert: <(?:"[^"]*"['"]*|'[^']*'['"]*|[^'">])+>
AI_Prompt

Der Eingabetext oder die Anweisung, die dem KI-Modell bereitgestellt wird und anleitet, wie es eine Antwort generieren soll. Für diesen Agenten können Sie den folgenden Prompt verwenden:

Sie sind ein KI-Assistent, der Benutzern hilft, Informationen aus organisatorischen Wissensquellen (JIRA-Tickets, Confluence-Seiten, Google Drive-Dateien und Salesforce-Supportfällen) zu finden und zusammenzufassen. Verwenden Sie den abgerufenen Kontext, um die genaueste und prägnanteste Antwort zu geben. Richtlinien: Priorisieren Sie immer Informationen aus den abgerufenen Dokumenten. Wenn mehrere Dokumente unterschiedliche Details bereitstellen, fassen Sie diese zusammen und heben Sie die Unterschiede hervor. Wenn kein relevanter Kontext gefunden wird, sagen Sie: "Ich konnte keine relevanten Informationen in der verfügbaren Wissensdatenbank finden." Erfinden Sie keine Details außerhalb des bereitgestellten Kontexts.

Testverbindungen

Teste die Endpunktkonfigurationen, um die Konnektivität mit den definierten Projektvariablenwerten zu überprüfen.

Dies kann über die Projektendpunkte und -verbinder-Registerkarte der Designkomponentenpalette erfolgen, indem man über jeden Endpunkt fährt und auf Test klickt.

Projekt bereitstellen

Stelle das Integration Studio-Projekt bereit. Dies kann über das Aktionsmenü des Projekts erfolgen, um Bereitstellen auszuwählen.

Erstelle die Jitterbit benutzerdefinierte API

Erstelle eine benutzerdefinierte API mit dem API-Manager für eine der folgenden:

Erstelle den Slack-Bot-API-Anforderungsbearbeiter

Diese benutzerdefinierte Jitterbit-API wird die Slack Bot API Request Handler-Operation auslösen. Konfiguriere und veröffentliche die benutzerdefinierte API mit den folgenden Einstellungen:

  • API-Dienst: Slack Bot API Request Handler
  • Pfad: /
  • Projekt: Wähle das Integration Studio-Projekt, das aus dem Jitterbit Knowledge Agent im Marketplace erstellt wurde
  • Auszulösende Operation: Slack Bot API Request Handler
  • Methode: POST
  • Antworttyp: Systemvariable

Behalte die Dienst-URL der veröffentlichten API zur Verwendung bei der Erstellung der Slack-App. Die Dienst-URL kann im API-Details-Bereich auf der Dienste-Registerkarte gefunden werden, indem man über die Aktionen-Spalte des Dienstes fährt und auf API-Dienst-URL kopieren klickt.

Generischer API-Anforderungsbearbeiter

Diese benutzerdefinierte Jitterbit-API löst die Operation Generic API request Handler aus. Sie ist nicht erforderlich. Erstellen Sie diese API, wenn Sie andere Anwendungen verwenden, um HTTP-API-Anfragen zu verarbeiten. Konfigurieren und veröffentlichen Sie die benutzerdefinierte API mit den folgenden Einstellungen:

  • Dienstname: Generic API request Handler
  • Projekt: Wählen Sie das Integration Studio-Projekt aus, das aus dem Jitterbit Knowledge Agent im Marketplace erstellt wurde
  • Operation: Generic API request Handler
  • Methode: POST
  • Antworttyp: System Variable

Hinweis

Sie können auch ein Sicherheitsprofil zur Authentifizierung hinzufügen.

Request body
{
    "username": "johnr",
    "prompt": "How to connect to mysql using a connector?"
}
Response
{
    "message": "To connect to a MySQL database using the Database connector, follow these steps:   - Use the MySQL JDBC driver that ships with the agent for additional features like manual queries.",
    "references": [],
    "status_code": 200
}

Erstellen Sie die Slack-App, testen Sie die Verbindung und setzen Sie das Projekt erneut ein

Um die Knowledge Agent-Chatoberfläche in Slack zu erstellen, erstellen Sie eine Slack-App mit der im Anpassungsdateien dieses KI-Agenten bereitgestellten Slack-App-Manifestdatei. Oder erstellen Sie sie von Grund auf neu.

Wenn Sie die bereitgestellte Slack-App-Manifestdatei (slack_app_manifest.json) verwenden, müssen Sie die folgenden Platzhalter durch Ihre eigenen Konfigurationswerte ersetzen:

Platzhalter Beschreibung
{{Replace with Slack bot name}} Der Name, den Ihr Slack-Bot haben soll, wie er den Benutzern angezeigt wird. Es gibt zwei Stellen im Manifest, an denen Sie diesen Wert ersetzen müssen.
{{Replace with Jitterbit API URL}} Die Dienst-URL der benutzerdefinierten Jitterbit-API, die Sie in Erstellen Sie den Slack-Bot-API-Anforderungs-Handler erstellt haben.

Nach der Installation der Slack-App erhalten Sie das Bot-Token.

Öffnen Sie die Konfiguration der Projektvariablen erneut und geben Sie das Bot-Token für den Wert der Projektvariablen Slack_Bot_Token ein.

Sobald das Bot-Token festgelegt ist, testen Sie die Slack-Verbindung und stellen Sie das Projekt erneut bereit.

Triggern der Projekt-Workflows

Für den initialen Datenimport führen Sie einen oder mehrere der Data upload Utility-Workflows aus, abhängig von Ihren Datenquellen. Dies kann über die Ausführen-Option der initialen Operation erfolgen, die angezeigt wird, wenn Sie mit der Maus über die Operation fahren. Sie müssen die Operation in Zukunft erneut ausführen, wenn Ihre Daten aktualisiert werden.

Tipp

Möglicherweise möchten Sie die initialen Operationen in den Data upload Utility-Workflows nach einem Zeitplan planen, um regelmäßig aktualisierte Daten zu erhalten. Dies kann über das Aktionsmenü der Operation in Einstellungen > Zeitpläne erfolgen.

Die beiden anderen Haupt-Workflows werden durch die benutzerdefinierten Jitterbit-APIs ausgelöst:

  • Main Entry - Slack API Request Handler: Dieser Workflow wird von Slack über die benutzerdefinierte API Slack Bot API Request Handler ausgelöst. Das Senden einer Direktnachricht an die Slack-App initiiert den Trigger der benutzerdefinierten API.

  • Generic API Request Handler: Dieser Workflow wird von einer anderen Anwendung über die benutzerdefinierte API Generic API request Handler ausgelöst. Das Senden einer Anfrage an die konfigurierte API initiiert den Trigger der benutzerdefinierten API.

Alle anderen Workflows werden durch andere Operationen ausgelöst und sind nachgelagert zu den oben genannten. Sie sind nicht dafür gedacht, eigenständig ausgeführt zu werden.

Fehlersuche

Überprüfen Sie die API-Protokolle und die Betriebsprotokolle für detaillierte Informationen zur Fehlersuche.

Für zusätzliche Unterstützung kontaktieren Sie den Jitterbit-Support.