Zum Inhalt springen

Beobachtbarkeit (Beta) in privaten Jitterbit-Agenten 11.34 bis 11.36

Achtung

Diese Funktion ist derzeit als Betaversion verfügbar und wird auf privaten Agenten der Versionen 11.34.0.75 bis 11.36 unterstützt. Um Feedback zu geben, wenden Sie sich an das Jitterbit-Produktteam.

Einführung

Sie können die Leistung und das Verhalten eines privaten Agenten in Echtzeit aus der Ferne mit einer der folgenden unterstützten Beobachtungsplattformen überwachen:

Bevor Sie mit der Überwachung privater Agenten beginnen können, die auf Docker laufen,, Linux oder Windows, müssen Sie den Agenten der von Ihnen gewählten Observability-Plattform auf jedem privaten Agenten installieren, den Sie überwachen möchten, und dessen Metriken konfigurieren.

Notiz

Unter Linux und Windows werden die Observability-Agenten automatisch beim Host gestartet. Unter Docker müssen Sie sie manuell mit den folgenden Befehlen starten:

Start Datadog
sudo datadog-agent start
Start Elasticsearch
sudo metricbeat start
sudo filebeat start

Installieren Sie Datadog auf einem privaten Jitterbit-Agent Host

Datadog-Voraussetzungen

Um Datadog auf einem privaten Agent-Host zu installieren, benötigen Sie Folgendes:

  • Privater Agent 11.34 bis 11.36 installiert und ausgeführt.

  • Ein Datadog-Konto.

  • Ein Superuser (root)-Konto unter Linux oder ein Administratorkonto unter Windows.

    Wichtig

    Führen Sie alle Befehle als dieser Benutzer aus.

Installieren des Datadog-Agenten

Um den Datadog-Agenten auf einem privaten Agenten Host zu installieren, gehen Sie folgendermaßen vor:

  1. Melden Sie sich bei Ihrem Datadog-Konto an.

  2. Wählen Sie im Hauptmenü Integrationen > Agent.

  3. Wählen Sie auf der Seite Anweisungen zur Agent Ihren privaten Agenten-Host aus.

  4. Klicken Sie auf die Schaltfläche API Schlüssel. Das Dialogfeld API Schlüssel auswählen wird geöffnet.

  5. Wenn Sie keine API -Schlüssel haben, klicken Sie auf Klicken Sie auf die Schaltfläche „Neu erstellen“, um eins zu erstellen.

    Andernfalls wählen Sie Ihren API Schlüsseleintrag aus und klicken Sie dann auf die Schaltfläche API Schlüssel verwenden.

  6. Klicken Sie im Agent Installation Command auf die Klicken Sie auf das Symbol „Kopieren“, um den Befehl in Ihre Zwischenablage zu kopieren.

  7. Öffnen Sie ein Terminal oder PowerShell auf dem privaten Agent Host, fügen Sie den kopierten Befehl ein und drücken Sie dann die Eingabe-Taste, um ihn auszuführen.

  8. Schließen Sie das Terminal oder PowerShell.

Konfigurieren des Datadog-Agenten

Die private Agentensoftware von Jitterbit enthält ein Script zum Konfigurieren von Datadog. Um es zu verwenden, führen Sie die folgenden Schritte aus:

  1. Für private Docker-Agenten ist der Wert für die hostname Eigentum in der /etc/datadog-agent/datadog.yaml sollte auf den Hostnamen des Hosts eingestellt sein. Wenn nicht, stellen Sie es manuell ein.

  2. Führen Sie Folgendes in einem neuen Terminal oder PowerShell auf dem privaten Agent-Host aus:

    cd /opt/jitterbit/scripts/
    ./configure_datadog.sh
    
    cd /opt/jitterbit/scripts/
    ./configure_datadog.sh
    
    cd "C:\Program Files\Jitterbit Agent\scripts\"
    .\configure_datadog.ps
    
  3. Lesen Sie die Anweisungen und reagieren Sie darauf.

  4. Um zu bestätigen, dass Ihr Datadog-Agent funktioniert, melden Sie sich bei Ihrem Datadog-Konto an und wählen Sie dann im Hauptmenü Integrationen > Flottenautomatisierung.

Fügen Sie eine Grok-Parser Pipeline hinzu

  1. Melden Sie sich bei Ihrem Datadog-Konto an.

  2. Wählen Sie Protokolle > Pipelines.

  3. Klicken Sie auf Schaltfläche „Neue Pipeline“.

  4. Geben Sie Werte für die folgenden Felder ein:

    • Filter: service:JitterbitAgentMetric

    • Name: agent.operation.schedule.pipeline

    • Beschreibung: (Optional) Geben Sie eine Beschreibung ein.

  5. Klicken Sie auf die Schaltfläche Erstellen.

Fügen Sie einen Parser hinzu (operation.scheduler.processor)

  1. Erweitern Sie das neue (agent.operation.schedule.pipeline) Pipeline, dann klicken Sie auf Prozessor hinzufügen.

  2. Geben Sie im Dialogfeld Grok-Parser erstellen Werte für die folgenden Felder ein:

    • Wählen Sie den Prozessortyp aus: Grok-Parser

    • Benennen Sie den Prozessor: operation.scheduler.processor

    • Protokollbeispiele: Kopieren Sie die folgenden Protokollbeispiele und fügen Sie sie in das Feld ein. Klicken Sie nach jedem Beispiel auf Fügen Sie hinzu, um neue Felder zu erstellen:

      Log sample 1
      2024-10-15 22:19:01`[AgentMetric, Informativ] `Added to queue: OperationID = 12345 and OperationName = "test-operation" and OperationInstanceGuid = a1b2c3-2ef3-4667-833f-2e6c50ae613b and Status = 1
      
      Log sample 2
      2024-10-15 22:19:03`[AgentMetric, Informativ] `Operation changed to Running: OperationID = 12345 and Operation Name = "test-operation" and OperationInstanceGuid = a1b2c3-2ef3-4667-833f-2e6c50ae613b and Status = 3
      
      Log sample 3
      2024-10-15 22:16:07`[AgentMetric, Informativ] `Operation changed to Running: OperationID = 12345 and Operation Name = "test-operation" and OperationInstanceGuid = a1b2c3-2ef3-4667-833f-2e6c50ae613b and Status = 3
      
      Log sample 4
      2024-10-15 22:20:04`[AgentMetric, Informativ] `Operation finished: OperationID = 12345 and Operation Name = "test operation" and OperationInstanceGuid = a1b2c3-2ef3-4667-833f-2e6c50ae613b and Status = 5 and Duration = 1.1111
      
      Log sample 5
      2024-10-15 22:19:03`[AgentMetric, Informativ] `Operation finished: OperationID = 12345 and Operation Name = "test-operation" and OperationInstanceGuid = 90c34115-2ef3-4667-833f-2e6c50ae613b and Status = 5 and Duration = 2.2222
      
    • Analyseregeln definieren: Kopieren Sie die folgende Analyseregel und fügen Sie sie in das Feld ein:

      txt submittedOperationRule %{date("yyyy-mm-dd HH:mm:ss"):status_date}\s+\[AgentMetric,\s+Informative\]\s+%{notSpace:status}\s+to\s+queue\:\s+OperationID\s+\=\s+%{integer:scheduled_operation_id}\s+and\s+OperationName\s+\=\s+"%{data:scheduled_operation_name}"\s+and\s+OperationInstanceGuid\s+\=\s+%{notSpace:submitted_operation_instance_guid}\s+and\s+Status\s+\=\s+%{number:operation_status} runningOperationRule %{date("yyyy-mm-dd HH:mm:ss"):status_date}\s+\[AgentMetric,\s+Informative\]\s+Operation\s+changed\s+to\s+%{notSpace:status}\:\s+OperationID\s+\=\s+%{notSpace:scheduled_operation_id}\s+and\s+Operation Name\s+\=\s+"%{data:scheduled_operation_name}"\s+and\s+OperationInstanceGuid\s+\=\s+%{notSpace:running_operation_instance_guid}\s+and\s+Status\s+\=\s+%{number:operation_status} completedOperationRule %{date("yyyy-mm-dd HH:mm:ss"):status_date}\s+\[AgentMetric,\s+Informative\]\s+Operation\s+%{notSpace:status}\:\s+OperationID\s+\=\s+%{notSpace:scheduled_operation_id}\s+and\s+Operation Name\s+\=\s+"%{data:scheduled_operation_name}"\s+and\s+OperationInstanceGuid\s+\=\s+%{notSpace:running_operation_instance_guid}\s+and\s+Status\s+\=\s+%{number:operation_status}\s+and\s+Duration\s+\=\s+%{number:duration}

  3. Klicken Sie auf die Schaltfläche Erstellen.

Fügen Sie einen Parser hinzu (operation.over.schedule.processor)

  1. Klicken Sie in der erweiterten Pipeline unter dem vorhandenen Parser auf Prozessor hinzufügen.

  2. Geben Sie im Dialogfeld Grok-Parser erstellen Werte für die folgenden Felder ein:

    • Wählen Sie den Prozessortyp aus: Grok-Parser

    • Benennen Sie den Prozessor: operation.over.scheduler.processor

    • Protokollbeispiele: Kopieren Sie die folgenden Protokollbeispiele und fügen Sie sie in das Feld ein. Klicken Sie nach jedem Beispiel auf Fügen Sie hinzu, um neue Felder zu erstellen:

      Log sample 1
      2024-10-15 22:19:01`[AgentMetric, Informativ] `The requested scheduled Operation is already being processed. OperationId = 12345 OperationName = "test operation" [SCHEDULE_IN_PROCESS]
      
      Log sample 2
      2024-10-03 22:21:02`[AgentMetric, Informativ] `The requested scheduled Operation is already being processed. OperationId = 12345 OperationName = "test-operation" [SCHEDULE_IN_PROCESS]
      
    • Analyseregeln definieren: Kopieren Sie die folgende Analyseregel und fügen Sie sie in das Feld ein:

      txt operationOverSchdeuleRule %{date("yyyy-mm-dd HH:mm:ss"):schedule_ts}\s+\[AgentMetric,\s+Informative\]\s+The\s+requested\s+scheduled\s+Operation\s+is\s+already\s+being\s+processed\.\s+OperationId+\s=\s+%{integer:over_running_operation_id}\s+OperationName+\s=\s+\"%{data:over_running_operation_name}\"\s+\[SCHEDULE_IN_PROCESS\]

Facetten erstellen

Um Datadog-Facetten zu definieren, befolgen Sie diese Schritte:

  1. Wählen Sie Protokolle > Explorer.

  2. Klicken Sie unter der Leiste Suchfacetten auf Hinzufügen (Facette hinzufügen).

  3. Geben Sie im Feld Pfad des Dialogfelds Facette hinzufügen den unten angezeigten Text ein und klicken Sie dann auf die Schaltfläche Hinzufügen. Wiederholen Sie dies für jedes Element in der folgenden Liste:

    • @over_running_operation_id

    • @scheduled_operation_id

    • @operation_status

    • @scheduled_operation_name

    • @running_operation_instance_guid

Erstellen von Maßnahmen

  1. Klicken Sie auf der Seite Protokolle > Explorer unter der Leiste Suchfacetten auf Hinzufügen (Eine Facette hinzufügen).

  2. Wählen Sie im Dialog Facette hinzufügen die Tab Messung aus.

  3. Geben Sie im Feld Pfad den unten angezeigten Text ein und klicken Sie dann auf die Schaltfläche Hinzufügen:

    • @duration

Erstellen von Metriken

Um Metriken zu definieren, befolgen Sie die untenstehenden Schritte für jede Metrik.

  1. Erstellen Sie die agent.operation.count.by.status Metrik:

    1. Wählen Sie Protokolle > Metriken generieren.

    2. Klicken Sie auf Schaltfläche „Neue Metrik“.

    3. Legen Sie im Dialogfeld Metrik generieren die Werte wie folgt fest:

      • Metriknamen festlegen: agent.operation.count.by.status

      • Abfrage definieren: service:JitterbitAgentMetric

    4. Klicken Sie auf das Menü Gruppieren nach und klicken Sie auf die folgenden Elemente, um sie der Liste hinzuzufügen:

      • @operation_status

      • @scheduled_operation_id

      • @scheduled_operation_name

      • @agentgroup

    5. Klicken Sie auf die Schaltfläche Metrik erstellen.

  2. Erstellen Sie die agent.operation.duration Metrik:

    1. Klicken Sie auf Schaltfläche „Neue Metrik“.

    2. Legen Sie im Dialogfeld Metrik generieren die Werte wie folgt fest:

      • Metriknamen festlegen: agent.operation.duration

      • Abfrage definieren: service:JitterbitAgentMetric

    3. Klicken Sie auf das Menü Zählen und wählen Sie dann Dauer (@Dauer).

    4. Klicken Sie auf das Menü Gruppieren nach und klicken Sie auf jedes der folgenden Elemente, um es der Liste hinzuzufügen:

      • @scheduled_operation_id

      • @scheduled_operation_name

      • @agentgroup

    5. Klicken Sie auf die Schaltfläche Metrik erstellen.

  3. Erstellen Sie die agent.operation.schedule Metrik:

    1. Klicken Sie auf Schaltfläche „Neue Metrik“.

    2. Legen Sie im Dialogfeld Metrik generieren die Werte wie folgt fest:

      • Metriknamen festlegen: agent.operation.schedule

      • Abfrage definieren: service:JitterbitAgentMetric

    3. Klicken Sie auf das Menü Gruppieren nach und klicken Sie auf die folgenden Elemente, um sie der Liste hinzuzufügen:

      • @scheduled_operation_id

      • @scheduled_operation_name

      • @status

      • @agentgroup

    4. Klicken Sie auf die Schaltfläche Metrik erstellen.

Importieren eines Datadog-Dashboards

Um ein vorgefertigtes Datadog-Dashboard zu importieren, folgen Sie diesen Schritten:

  1. Laden Sie die JSON-Datei Jitterbit Privater Agent Datadog Dashboard vom Harmony-Portal herunter Downloads Seite.

  2. Wählen Sie Dashboards > Neues Dashboard.

  3. Geben Sie im Dialogfeld Dashboard erstellen einen Namen in das Feld Dashboardname ein und klicken Sie dann auf die Schaltfläche Neues Dashboard.

  4. Klicken Sie auf die Klicken Sie auf die Schaltfläche **Konfigurieren und wählen Sie dann Dashboard-JSON importieren aus.

  5. Suchen Sie die heruntergeladene Dashboard-JSON-Datei und wählen Sie sie aus.

  6. Um das Dashboard zu verwenden, wählen Sie Dashboards > Dashboard-Liste, geben Sie Jitterbit Harmony Privater Agent in das Feld Dashboards suchen ein und wählen Sie dann das importierte Dashboard aus.

Beheben von Datadog-Problemen

Zur Lösung von Problemen mit Datadog können Sie die Datadog-Dokumentation lesen, Protokolldateien prüfen oder Befehle ausführen, um Benutzer und Berechtigungen zu verwalten.

Datadog-Dokumentation

Speicherorte der Datadog-Dateien

Logfiles

Datadog-Protokolldateien finden Sie am folgenden Speicherort:

/var/log/datadog/

Öffnen Sie die Anwendung Datadog Agent Manager und wählen Sie dann die Tab Protokoll aus.

Konfigurationsdateien

Die Datadog-Konfigurationsdatei finden Sie an folgendem Ort:

/etc/datadog-agent/datadog.yaml

Öffnen Sie die Anwendung Datadog Agent Manager und wählen Sie dann die Tab Einstellungen aus.

Überprüfen Sie in dieser Datei, ob Sie die richtigen Werte für die folgenden Schlüssel haben:

  • api_key

  • site

  • $hostname

  • tags

Datadog-Benutzer- und Berechtigungsbefehle

Führen Sie diese Befehle aus, um einen Datadog-Benutzer und eine Datadog-Gruppe zu erstellen:

usermod -a-G root dd-agent
usermod -a-G jitterbit dd-agent

Um den Besitz der Datadog-Konfigurationsdatei festzulegen, führen Sie diese Befehle aus:

chown dd-agent:dd-agent /etc/datadog-agent/conf.d/logs.d/conf.yaml
chown dd-agent:dd-agent /etc/datadog-agent/conf.d/logs.d

Installieren Sie Metricbeat auf einem privaten Agent Host

Metricbeat-Voraussetzungen

Bevor Sie Metricbeat auf einem privaten Agent-Host installieren können, müssen Sie Folgendes installieren:

Installieren Sie Metricbeat und Filebeat

Metricbeat

Um Metricbeat auf einem privaten Agent Host zu installieren, folgen Sie den Metricbeat-Anweisungen auf der Elastic.co-Website.

Um Metricbeat beim Booten des Host zu starten, folgen Sie den Startanweisungen für Metricbeat auf der Elastic.co-Website.

Filebeat

Um Filebeat auf einem privaten Agent Host zu installieren, folgen Sie den Filebeat-Anweisungen auf der Elastic.co-Website.

Um Filebeat beim Booten des Host zu starten, folgen Sie den Filebeat-Startanweisungen auf der Elastic.co-Website.

Festlegen der Kibana-Index-Lebenszyklusrichtlinie

  1. Öffnen Sie die Kibana-Webkonsole unter http://HOSTNAME:5601, Wo HOSTNAME ist der Hostname oder die IP-Adresse des privaten Agent Host.

  2. Geben Sie ein index lifecycle policies in die Suchleiste von Elasticsearch und wählen Sie dann die resultierende Seite aus.

  3. Klicken Sie auf Schaltfläche „Richtlinie erstellen“.

  4. Legen Sie im Dialogfeld Richtlinie erstellen die folgenden Werte fest:

    • Richtlinienname: private-agent-metrics-policy
  5. Aktivieren Sie den Schalter Warmphase und legen Sie dann die folgenden Werte fest:

    • Daten in Phase verschieben, wenn: 30 Tage
  6. Aktivieren Sie den Schalter Kaltphase und legen Sie dann die folgenden Werte fest:

    • Daten in Phase verschieben, wenn: 90 Tage
  7. Klicken Sie auf den Schaltfläche „Richtlinie speichern“.

Erstellen von Kibana-Vorlagen

Erstellen Sie eine Kibana-Vorlage (private-agent-metric-template)

  1. Eingeben index management in die Suchleiste von Elasticsearch und wählen Sie dann die resultierende Seite aus.

  2. Wählen Sie die Tab Indexvorlagen und klicken Sie dann auf Schaltfläche „Vorlage erstellen“.

  3. Geben Sie auf der Seite Logistik Werte für die folgenden Felder ein:

    • Name: private-agent-metric-template

    • Indexmuster: private-agent-metric-8.15-*

  4. Klicken Sie auf Weiter -Schaltfläche.

  5. Klicken Sie auf der Seite Komponentenvorlagen auf die Weiter -Schaltfläche.

  6. Ersetzen Sie auf der Seite Indexeinstellungen den Inhalt des Felds Indexeinstellungen durch Folgendes:

    {
      "index": {
        "lifecycle": {
          "name": "private-agent-metrics-policy",
          "rollover_alias": "private-agent-metric-alias"
        },
        "number_of_shards": "1",
        "number_of_replicas": "1"
      }
    }
    
  7. Klicken Sie auf Weiter Taste.

  8. Fügen Sie auf der Seite Zuordnungen auf der Tab Zugeordnete Felder Felder gemäß der folgenden Tabelle hinzu (klicken Sie auf die Schaltfläche Feld hinzufügen, um weitere Felder hinzuzufügen):

    Feldtyp Feldname
    Schlüsselwort fields.env
    Schlüsselwort private-agent.group
    Schlüsselwort private-agent.name
  9. Wählen Sie die Tab Erweiterte Optionen und stellen Sie dann die folgenden Schalter auf Ein:

    • Zahlenzeichenfolgen als Zahlen zuordnen

    • Datumszeichenfolgen als Daten zuordnen

  10. Klicken Sie auf Weiter -Schaltfläche.

  11. Klicken Sie auf der Seite Aliase auf Weiter -Schaltfläche.

  12. Klicken Sie auf der Seite Überprüfungsdetails auf die Schaltfläche „Vorlage erstellen“.

Erstellen Sie eine Kibana-Vorlage (private-agent-filebeat-template)

  1. Klicken Sie auf der Tab Indexvorlagen auf die Schaltfläche „Vorlage erstellen“.

  2. Geben Sie auf der Seite Logistik Werte für die folgenden Felder ein:

    • Name: private-agent-filebeat-template

    • Indexmuster: private-agent-filebeat-8.15-*

  3. Klicken Sie auf Weiter -Schaltfläche.

  4. Klicken Sie auf der Seite Komponentenvorlagen auf die Weiter -Schaltfläche.

  5. Ersetzen Sie auf der Seite Indexeinstellungen den Inhalt des Felds Indexeinstellungen durch Folgendes:

    {
      "index": {
        "lifecycle": {
          "name": "private-agent-metrics-policy",
          "rollover_alias": "private-agent-metric-alias"
        },
        "number_of_shards": "1",
        "number_of_replicas": "1"
      }
    }
    
  6. Klicken Sie auf Weiter Taste.

  7. Fügen Sie auf der Seite Zuordnungen auf der Tab Zugeordnete Felder Felder gemäß der folgenden Tabelle hinzu (klicken Sie auf die Schaltfläche Feld hinzufügen, um weitere Felder hinzuzufügen):

    Feldtyp Feldname
    Schlüsselwort fields.env
    Schlüsselwort over_running_operation_name
    Schlüsselwort private-agent.group
    Schlüsselwort private-agent.name
    Schlüsselwort scheduled_operation_name
    Schlüsselwort status
  8. Wählen Sie die Tab Erweiterte Optionen und stellen Sie dann die folgenden Schalter auf Ein:

    • Zahlenzeichenfolgen als Zahlen zuordnen

    • Datumszeichenfolgen als Daten zuordnen

  9. Klicken Sie auf Weiter -Schaltfläche.

  10. Klicken Sie auf der Seite Aliase auf Weiter -Schaltfläche.

  11. Klicken Sie auf der Seite Überprüfungsdetails auf die Schaltfläche „Vorlage erstellen“.

Erstellen Sie Kibana-Parser

Erstellen Sie eine Kibana Grok Parser Pipeline (Over Schedule)

  1. Eingeben ingest pipelines in die Suchleiste von Elasticsearch und wählen Sie dann die resultierende Seite aus.

  2. Klicken Sie auf Pipeline erstellen Schaltfläche und wählen Sie Neue Pipeline.

  3. Geben Sie Werte für die folgenden Felder ein:

    • Name: private-agent-metric-pipeline

    • Beschreibung: Geben Sie eine optionale Beschreibung ein.

  4. Klicken Sie im Bedienfeld Prozessoren auf die Schaltfläche Prozessor hinzufügen.

  5. Legen Sie im Dialogfeld Prozessor hinzufügen die folgenden Felder fest:

    • Prozessor: Öffnen Sie das Menü und wählen Sie dann Grok.

    • Feld: message

    • Muster: Geben Sie im ersten =-Feld Folgendes ein:

      %{GREEDYDATA:operation_timestamp} \[AgentMetric, Informative\] The requested scheduled Operation is already being processed. OperationId = %{NUMBER:over_running_operation_id:int} OperationName = "%{GREEDYDATA:over_running_operation_name}" \[SCHEDULE_IN_PROCESS\]
      
  6. Aktivieren Sie Fehler für diesen Prozessor ignorieren.

  7. Klicken Sie auf die Schaltfläche Prozessor hinzufügen.

  8. Klicken Sie in der Liste der Prozessoren auf das Symbol und ändern Sie dann den Namen in Über Zeitplan.

Erstellen Sie eine Kibana Grok Parser Pipeline (Added Status)

  1. Klicken Sie im Bedienfeld Prozessoren auf die Schaltfläche Prozessor hinzufügen.

  2. Legen Sie im Dialogfeld Prozessor hinzufügen die folgenden Felder fest:

    • Prozessor: Öffnen Sie das Menü und wählen Sie dann Grok.

    • Feld: message

    • Muster: Geben Sie im ersten =-Feld Folgendes ein:

      %{GREEDYDATA:timestamp} \[AgentMetric, Informative\] %{GREEDYDATA:status} to queue: OperationID = %{NUMBER:scheduled_operation_id:int} and OperationName = %{GREEDYDATA:scheduled_operation_name} and OperationInstanceGuid = %{GREEDYDATA:scheduled_operation_instance_guid}
      
  3. Aktivieren Sie Fehler für diesen Prozessor ignorieren.

  4. Klicken Sie auf die Schaltfläche Prozessor hinzufügen.

  5. Klicken Sie in der Liste der Prozessoren auf das Symbol und ändern Sie dann den Namen in Status hinzugefügt.

Erstellen Sie eine Kibana Grok Parser Pipeline (Finished Status)

  1. Klicken Sie im Bedienfeld Prozessoren auf die Schaltfläche Prozessor hinzufügen.

  2. Legen Sie im Dialogfeld Prozessor hinzufügen die folgenden Felder fest:

    • Prozessor: Öffnen Sie das Menü und wählen Sie dann Grok.
    • Feld: message
    • Muster: Geben Sie im ersten =-Feld Folgendes ein:

      %{GREEDYDATA:status_ts} \[AgentMetric, Informative\] Operation changed to %{GREEDYDATA:status}: OperationID = %{NUMBER:scheduled_operation_id:int} and Operation Name = \"%{GREEDYDATA:scheduled_operation_name}\" and OperationInstanceGuid = %{GREEDYDATA:scheduled_operation_instance_guid}
      
  3. Aktivieren Sie Fehler für diesen Prozessor ignorieren.

  4. Klicken Sie auf die Schaltfläche Prozessor hinzufügen.

  5. Klicken Sie in der Liste der Prozessoren auf das Symbol und ändern Sie dann den Namen in Status „Fertig“.

Erstellen Sie eine Kibana Grok Parser Pipeline (Running Status)

  1. Klicken Sie im Bedienfeld Prozessoren auf die Schaltfläche Prozessor hinzufügen.

  2. Legen Sie im Dialogfeld Prozessor hinzufügen die folgenden Felder fest:

    • Prozessor: Öffnen Sie das Menü und wählen Sie dann Grok.
    • Feld: message
    • Muster: Geben Sie im ersten =-Feld Folgendes ein:

      %{GREEDYDATA:status_ts} \[AgentMetric, Informative\] Operation %{GREEDYDATA:status}: OperationID = %{NUMBER:scheduled_operation_id:int} and Operation Name = \"%{GREEDYDATA:scheduled_operation_name}\" and OperationInstanceGuid = %{GREEDYDATA:scheduled_operation_instance_guid} and Status = %{NUMBER:scheduled_operation_status} and Duration = %{NUMBER:scheduled_operation_duration:float}
      
  3. Aktivieren Sie Fehler für diesen Prozessor ignorieren.

  4. Klicken Sie auf die Schaltfläche Prozessor hinzufügen.

  5. Klicken Sie in der Liste der Prozessoren auf das Symbol und ändern Sie dann den Namen in Laufstatus.

Legen Sie die Reihenfolge der Prozessoren fest

Falls dies noch nicht geschehen ist, ordnen Sie die Liste der Prozessoren in folgender Reihenfolge neu an:

  1. Über Zeitplan

  2. Hinzugefügter Status

  3. Fertig-Status

  4. Läuft-Status

Konfigurieren des Metricbeat-Agenten

Der private Jitterbit-Agent enthält ein Script zum Konfigurieren von Metricbeat. Um es zu verwenden, führen Sie die folgenden Schritte aus:

  1. Führen Sie Folgendes in einem Terminal oder PowerShell aus:

    cd /opt/jitterbit/scripts/
    ./configure_elasticsearch.sh
    
    cd /opt/jitterbit/scripts/
    ./configure_elasticsearch.sh
    
    cd "C:\Program Files\Jitterbit Agent\scripts\"
    .\configure_elasticsearch.ps
    
  2. Lesen Sie die Anweisungen und reagieren Sie darauf.

Importieren eines Elasticsearch Dashboards

Um ein vorgefertigtes Elasticsearch Dashboard zu importieren, führen Sie diese Schritte aus:

  1. Laden Sie die JSON-Datei Jitterbit Privater Agent Elasticsearch Dashboard vom Harmony-Portal herunter Downloads Seite.

  2. Geben Sie ein kibana saved objects in die Suchleiste von Elasticsearch und wählen Sie dann die resultierende Seite aus.

  3. Klicken Sie auf die Schaltfläche Importieren.

  4. Klicken Sie im Dialogfeld Gespeicherte Objekte importieren auf Importieren, suchen Sie die heruntergeladene JSON-Datei des Dashboards und wählen Sie sie aus.

  5. Wählen Sie unter Importoptionen die Option Auf vorhandene Objekte prüfen mit Konflikte automatisch überschreiben aus.

  6. Klicken Sie auf die Schaltfläche Importieren.

  7. Klicken Sie auf die Schaltfläche Fertig.

  8. Um das Dashboard zu verwenden, geben Sie ein dashboards Wählen Sie in der Elasticsearch Suchleiste die resultierende Seite aus und wählen Sie dann Jitterbit Harmony Privater Agent Dashboard.

Beheben von Elasticsearch Problemen

Zur Lösung etwaiger Probleme mit Elasticsearch Komponenten können Sie die Elasticsearch Dokumentation lesen, Protokolldateien prüfen oder Diagnosebefehle ausführen.

Elasticsearch Dokumentation

Speicherorte der Elasticsearch Protokolldateien

  • /var/log/metricbeat

  • /var/log/filebeat

Elasticsearch Diagnosebefehle

Um die Filebeat-Verbindung zu Elasticsearch zu überprüfen, führen Sie den folgenden Befehl aus:

filebeat test output