Beobachtbarkeit (Beta) in privaten Jitterbit-Agenten 11.34 bis 11.36
Achtung
Diese Funktion ist derzeit als Betaversion verfügbar und wird auf privaten Agenten der Versionen 11.34.0.75 bis 11.36 unterstützt. Um Feedback zu geben, wenden Sie sich an das Jitterbit-Produktteam.
Einführung
Sie können die Leistung und das Verhalten eines privaten Agenten in Echtzeit aus der Ferne mit einer der folgenden unterstützten Beobachtungsplattformen überwachen:
Bevor Sie mit der Überwachung privater Agenten beginnen können, die auf Docker laufen,, Linux oder Windows, müssen Sie den Agenten der von Ihnen gewählten Observability-Plattform auf jedem privaten Agenten installieren, den Sie überwachen möchten, und dessen Metriken konfigurieren.
Notiz
Unter Linux und Windows werden die Observability-Agenten automatisch beim Host gestartet. Unter Docker müssen Sie sie manuell mit den folgenden Befehlen starten:
sudo datadog-agent start
sudo metricbeat start
sudo filebeat start
Installieren Sie Datadog auf einem privaten Jitterbit-Agent Host
Datadog-Voraussetzungen
Um Datadog auf einem privaten Agent-Host zu installieren, benötigen Sie Folgendes:
-
Privater Agent 11.34 bis 11.36 installiert und ausgeführt.
-
Ein Datadog-Konto.
-
Ein Superuser (
root
)-Konto unter Linux oder ein Administratorkonto unter Windows.Wichtig
Führen Sie alle Befehle als dieser Benutzer aus.
Installieren des Datadog-Agenten
Um den Datadog-Agenten auf einem privaten Agenten Host zu installieren, gehen Sie folgendermaßen vor:
-
Melden Sie sich bei Ihrem Datadog-Konto an.
-
Wählen Sie im Hauptmenü Integrationen > Agent.
-
Wählen Sie auf der Seite Anweisungen zur Agent Ihren privaten Agenten-Host aus.
-
Klicken Sie auf die Schaltfläche API Schlüssel. Das Dialogfeld API Schlüssel auswählen wird geöffnet.
-
Wenn Sie keine API -Schlüssel haben, klicken Sie auf Klicken Sie auf die Schaltfläche „Neu erstellen“, um eins zu erstellen.
Andernfalls wählen Sie Ihren API Schlüsseleintrag aus und klicken Sie dann auf die Schaltfläche API Schlüssel verwenden.
-
Klicken Sie im Agent Installation Command auf die Klicken Sie auf das Symbol „Kopieren“, um den Befehl in Ihre Zwischenablage zu kopieren.
-
Öffnen Sie ein Terminal oder PowerShell auf dem privaten Agent Host, fügen Sie den kopierten Befehl ein und drücken Sie dann die Eingabe-Taste, um ihn auszuführen.
-
Schließen Sie das Terminal oder PowerShell.
Konfigurieren des Datadog-Agenten
Die private Agentensoftware von Jitterbit enthält ein Script zum Konfigurieren von Datadog. Um es zu verwenden, führen Sie die folgenden Schritte aus:
-
Für private Docker-Agenten ist der Wert für die
hostname
Eigentum in der/etc/datadog-agent/datadog.yaml
sollte auf den Hostnamen des Hosts eingestellt sein. Wenn nicht, stellen Sie es manuell ein. -
Führen Sie Folgendes in einem neuen Terminal oder PowerShell auf dem privaten Agent-Host aus:
cd /opt/jitterbit/scripts/ ./configure_datadog.sh
cd /opt/jitterbit/scripts/ ./configure_datadog.sh
cd "C:\Program Files\Jitterbit Agent\scripts\" .\configure_datadog.ps
-
Lesen Sie die Anweisungen und reagieren Sie darauf.
-
Um zu bestätigen, dass Ihr Datadog-Agent funktioniert, melden Sie sich bei Ihrem Datadog-Konto an und wählen Sie dann im Hauptmenü Integrationen > Flottenautomatisierung.
Fügen Sie eine Grok-Parser Pipeline hinzu
-
Melden Sie sich bei Ihrem Datadog-Konto an.
-
Wählen Sie Protokolle > Pipelines.
-
Klicken Sie auf Schaltfläche „Neue Pipeline“.
-
Geben Sie Werte für die folgenden Felder ein:
-
Filter:
service:JitterbitAgentMetric
-
Name:
agent.operation.schedule.pipeline
-
Beschreibung: (Optional) Geben Sie eine Beschreibung ein.
-
-
Klicken Sie auf die Schaltfläche Erstellen.
Fügen Sie einen Parser hinzu (operation.scheduler.processor
)
-
Erweitern Sie das neue (
agent.operation.schedule.pipeline
) Pipeline, dann klicken Sie auf Prozessor hinzufügen. -
Geben Sie im Dialogfeld Grok-Parser erstellen Werte für die folgenden Felder ein:
-
Wählen Sie den Prozessortyp aus: Grok-Parser
-
Benennen Sie den Prozessor:
operation.scheduler.processor
-
Protokollbeispiele: Kopieren Sie die folgenden Protokollbeispiele und fügen Sie sie in das Feld ein. Klicken Sie nach jedem Beispiel auf Fügen Sie hinzu, um neue Felder zu erstellen:
Log sample 12024-10-15 22:19:01`[AgentMetric, Informativ] `Added to queue: OperationID = 12345 and OperationName = "test-operation" and OperationInstanceGuid = a1b2c3-2ef3-4667-833f-2e6c50ae613b and Status = 1
Log sample 22024-10-15 22:19:03`[AgentMetric, Informativ] `Operation changed to Running: OperationID = 12345 and Operation Name = "test-operation" and OperationInstanceGuid = a1b2c3-2ef3-4667-833f-2e6c50ae613b and Status = 3
Log sample 32024-10-15 22:16:07`[AgentMetric, Informativ] `Operation changed to Running: OperationID = 12345 and Operation Name = "test-operation" and OperationInstanceGuid = a1b2c3-2ef3-4667-833f-2e6c50ae613b and Status = 3
Log sample 42024-10-15 22:20:04`[AgentMetric, Informativ] `Operation finished: OperationID = 12345 and Operation Name = "test operation" and OperationInstanceGuid = a1b2c3-2ef3-4667-833f-2e6c50ae613b and Status = 5 and Duration = 1.1111
Log sample 52024-10-15 22:19:03`[AgentMetric, Informativ] `Operation finished: OperationID = 12345 and Operation Name = "test-operation" and OperationInstanceGuid = 90c34115-2ef3-4667-833f-2e6c50ae613b and Status = 5 and Duration = 2.2222
-
Analyseregeln definieren: Kopieren Sie die folgende Analyseregel und fügen Sie sie in das Feld ein:
txt submittedOperationRule %{date("yyyy-mm-dd HH:mm:ss"):status_date}\s+\[AgentMetric,\s+Informative\]\s+%{notSpace:status}\s+to\s+queue\:\s+OperationID\s+\=\s+%{integer:scheduled_operation_id}\s+and\s+OperationName\s+\=\s+"%{data:scheduled_operation_name}"\s+and\s+OperationInstanceGuid\s+\=\s+%{notSpace:submitted_operation_instance_guid}\s+and\s+Status\s+\=\s+%{number:operation_status} runningOperationRule %{date("yyyy-mm-dd HH:mm:ss"):status_date}\s+\[AgentMetric,\s+Informative\]\s+Operation\s+changed\s+to\s+%{notSpace:status}\:\s+OperationID\s+\=\s+%{notSpace:scheduled_operation_id}\s+and\s+Operation Name\s+\=\s+"%{data:scheduled_operation_name}"\s+and\s+OperationInstanceGuid\s+\=\s+%{notSpace:running_operation_instance_guid}\s+and\s+Status\s+\=\s+%{number:operation_status} completedOperationRule %{date("yyyy-mm-dd HH:mm:ss"):status_date}\s+\[AgentMetric,\s+Informative\]\s+Operation\s+%{notSpace:status}\:\s+OperationID\s+\=\s+%{notSpace:scheduled_operation_id}\s+and\s+Operation Name\s+\=\s+"%{data:scheduled_operation_name}"\s+and\s+OperationInstanceGuid\s+\=\s+%{notSpace:running_operation_instance_guid}\s+and\s+Status\s+\=\s+%{number:operation_status}\s+and\s+Duration\s+\=\s+%{number:duration}
-
-
Klicken Sie auf die Schaltfläche Erstellen.
Fügen Sie einen Parser hinzu (operation.over.schedule.processor
)
-
Klicken Sie in der erweiterten Pipeline unter dem vorhandenen Parser auf Prozessor hinzufügen.
-
Geben Sie im Dialogfeld Grok-Parser erstellen Werte für die folgenden Felder ein:
-
Wählen Sie den Prozessortyp aus: Grok-Parser
-
Benennen Sie den Prozessor:
operation.over.scheduler.processor
-
Protokollbeispiele: Kopieren Sie die folgenden Protokollbeispiele und fügen Sie sie in das Feld ein. Klicken Sie nach jedem Beispiel auf Fügen Sie hinzu, um neue Felder zu erstellen:
Log sample 12024-10-15 22:19:01`[AgentMetric, Informativ] `The requested scheduled Operation is already being processed. OperationId = 12345 OperationName = "test operation" [SCHEDULE_IN_PROCESS]
Log sample 22024-10-03 22:21:02`[AgentMetric, Informativ] `The requested scheduled Operation is already being processed. OperationId = 12345 OperationName = "test-operation" [SCHEDULE_IN_PROCESS]
-
Analyseregeln definieren: Kopieren Sie die folgende Analyseregel und fügen Sie sie in das Feld ein:
txt operationOverSchdeuleRule %{date("yyyy-mm-dd HH:mm:ss"):schedule_ts}\s+\[AgentMetric,\s+Informative\]\s+The\s+requested\s+scheduled\s+Operation\s+is\s+already\s+being\s+processed\.\s+OperationId+\s=\s+%{integer:over_running_operation_id}\s+OperationName+\s=\s+\"%{data:over_running_operation_name}\"\s+\[SCHEDULE_IN_PROCESS\]
-
Facetten erstellen
Um Datadog-Facetten zu definieren, befolgen Sie diese Schritte:
-
Wählen Sie Protokolle > Explorer.
-
Klicken Sie unter der Leiste Suchfacetten auf Hinzufügen (Facette hinzufügen).
-
Geben Sie im Feld Pfad des Dialogfelds Facette hinzufügen den unten angezeigten Text ein und klicken Sie dann auf die Schaltfläche Hinzufügen. Wiederholen Sie dies für jedes Element in der folgenden Liste:
-
@over_running_operation_id
-
@scheduled_operation_id
-
@operation_status
-
@scheduled_operation_name
-
@running_operation_instance_guid
-
Erstellen von Maßnahmen
-
Klicken Sie auf der Seite Protokolle > Explorer unter der Leiste Suchfacetten auf Hinzufügen (Eine Facette hinzufügen).
-
Wählen Sie im Dialog Facette hinzufügen die Tab Messung aus.
-
Geben Sie im Feld Pfad den unten angezeigten Text ein und klicken Sie dann auf die Schaltfläche Hinzufügen:
@duration
Erstellen von Metriken
Um Metriken zu definieren, befolgen Sie die untenstehenden Schritte für jede Metrik.
Tipp
Sie können auch Protokolle verwenden, um Datadog-Metriken zu erstellen.
-
Erstellen Sie die
agent.operation.count.by.status
Metrik:-
Wählen Sie Protokolle > Metriken generieren.
-
Klicken Sie auf Schaltfläche „Neue Metrik“.
-
Legen Sie im Dialogfeld Metrik generieren die Werte wie folgt fest:
-
Metriknamen festlegen:
agent.operation.count.by.status
-
Abfrage definieren:
service:JitterbitAgentMetric
-
-
Klicken Sie auf das Menü Gruppieren nach und klicken Sie auf die folgenden Elemente, um sie der Liste hinzuzufügen:
-
@operation_status
-
@scheduled_operation_id
-
@scheduled_operation_name
-
@agentgroup
-
-
Klicken Sie auf die Schaltfläche Metrik erstellen.
-
-
Erstellen Sie die
agent.operation.duration
Metrik:-
Klicken Sie auf Schaltfläche „Neue Metrik“.
-
Legen Sie im Dialogfeld Metrik generieren die Werte wie folgt fest:
-
Metriknamen festlegen:
agent.operation.duration
-
Abfrage definieren:
service:JitterbitAgentMetric
-
-
Klicken Sie auf das Menü Zählen und wählen Sie dann Dauer (@Dauer).
-
Klicken Sie auf das Menü Gruppieren nach und klicken Sie auf jedes der folgenden Elemente, um es der Liste hinzuzufügen:
-
@scheduled_operation_id
-
@scheduled_operation_name
-
@agentgroup
-
-
Klicken Sie auf die Schaltfläche Metrik erstellen.
-
-
Erstellen Sie die
agent.operation.schedule
Metrik:-
Klicken Sie auf Schaltfläche „Neue Metrik“.
-
Legen Sie im Dialogfeld Metrik generieren die Werte wie folgt fest:
-
Metriknamen festlegen:
agent.operation.schedule
-
Abfrage definieren:
service:JitterbitAgentMetric
-
-
Klicken Sie auf das Menü Gruppieren nach und klicken Sie auf die folgenden Elemente, um sie der Liste hinzuzufügen:
-
@scheduled_operation_id
-
@scheduled_operation_name
-
@status
-
@agentgroup
-
-
Klicken Sie auf die Schaltfläche Metrik erstellen.
-
Importieren eines Datadog-Dashboards
Um ein vorgefertigtes Datadog-Dashboard zu importieren, folgen Sie diesen Schritten:
-
Laden Sie die JSON-Datei Jitterbit Privater Agent Datadog Dashboard vom Harmony-Portal herunter Downloads Seite.
-
Wählen Sie Dashboards > Neues Dashboard.
-
Geben Sie im Dialogfeld Dashboard erstellen einen Namen in das Feld Dashboardname ein und klicken Sie dann auf die Schaltfläche Neues Dashboard.
-
Klicken Sie auf die Klicken Sie auf die Schaltfläche **Konfigurieren und wählen Sie dann Dashboard-JSON importieren aus.
-
Suchen Sie die heruntergeladene Dashboard-JSON-Datei und wählen Sie sie aus.
-
Um das Dashboard zu verwenden, wählen Sie Dashboards > Dashboard-Liste, geben Sie Jitterbit Harmony Privater Agent in das Feld Dashboards suchen ein und wählen Sie dann das importierte Dashboard aus.
Beheben von Datadog-Problemen
Zur Lösung von Problemen mit Datadog können Sie die Datadog-Dokumentation lesen, Protokolldateien prüfen oder Befehle ausführen, um Benutzer und Berechtigungen zu verwalten.
Datadog-Dokumentation
Speicherorte der Datadog-Dateien
Logfiles
Datadog-Protokolldateien finden Sie am folgenden Speicherort:
/var/log/datadog/
Öffnen Sie die Anwendung Datadog Agent Manager und wählen Sie dann die Tab Protokoll aus.
Konfigurationsdateien
Die Datadog-Konfigurationsdatei finden Sie an folgendem Ort:
/etc/datadog-agent/datadog.yaml
Öffnen Sie die Anwendung Datadog Agent Manager und wählen Sie dann die Tab Einstellungen aus.
Überprüfen Sie in dieser Datei, ob Sie die richtigen Werte für die folgenden Schlüssel haben:
-
api_key
-
site
-
$hostname
-
tags
Datadog-Benutzer- und Berechtigungsbefehle
Führen Sie diese Befehle aus, um einen Datadog-Benutzer und eine Datadog-Gruppe zu erstellen:
usermod -a-G root dd-agent
usermod -a-G jitterbit dd-agent
Um den Besitz der Datadog-Konfigurationsdatei festzulegen, führen Sie diese Befehle aus:
chown dd-agent:dd-agent /etc/datadog-agent/conf.d/logs.d/conf.yaml
chown dd-agent:dd-agent /etc/datadog-agent/conf.d/logs.d
Installieren Sie Metricbeat auf einem privaten Agent Host
Metricbeat-Voraussetzungen
Bevor Sie Metricbeat auf einem privaten Agent-Host installieren können, müssen Sie Folgendes installieren:
Installieren Sie Metricbeat und Filebeat
Metricbeat
Um Metricbeat auf einem privaten Agent Host zu installieren, folgen Sie den Metricbeat-Anweisungen auf der Elastic.co-Website.
Um Metricbeat beim Booten des Host zu starten, folgen Sie den Startanweisungen für Metricbeat auf der Elastic.co-Website.
Filebeat
Um Filebeat auf einem privaten Agent Host zu installieren, folgen Sie den Filebeat-Anweisungen auf der Elastic.co-Website.
Um Filebeat beim Booten des Host zu starten, folgen Sie den Filebeat-Startanweisungen auf der Elastic.co-Website.
Festlegen der Kibana-Index-Lebenszyklusrichtlinie
-
Öffnen Sie die Kibana-Webkonsole unter
http://HOSTNAME:5601
, WoHOSTNAME
ist der Hostname oder die IP-Adresse des privaten Agent Host. -
Geben Sie ein
index lifecycle policies
in die Suchleiste von Elasticsearch und wählen Sie dann die resultierende Seite aus. -
Klicken Sie auf Schaltfläche „Richtlinie erstellen“.
-
Legen Sie im Dialogfeld Richtlinie erstellen die folgenden Werte fest:
- Richtlinienname:
private-agent-metrics-policy
- Richtlinienname:
-
Aktivieren Sie den Schalter Warmphase und legen Sie dann die folgenden Werte fest:
- Daten in Phase verschieben, wenn: 30 Tage
-
Aktivieren Sie den Schalter Kaltphase und legen Sie dann die folgenden Werte fest:
- Daten in Phase verschieben, wenn: 90 Tage
-
Klicken Sie auf den Schaltfläche „Richtlinie speichern“.
Erstellen von Kibana-Vorlagen
Erstellen Sie eine Kibana-Vorlage (private-agent-metric-template
)
-
Eingeben
index management
in die Suchleiste von Elasticsearch und wählen Sie dann die resultierende Seite aus. -
Wählen Sie die Tab Indexvorlagen und klicken Sie dann auf Schaltfläche „Vorlage erstellen“.
-
Geben Sie auf der Seite Logistik Werte für die folgenden Felder ein:
-
Name:
private-agent-metric-template
-
Indexmuster:
private-agent-metric-8.15-*
-
-
Klicken Sie auf Weiter -Schaltfläche.
-
Klicken Sie auf der Seite Komponentenvorlagen auf die Weiter -Schaltfläche.
-
Ersetzen Sie auf der Seite Indexeinstellungen den Inhalt des Felds Indexeinstellungen durch Folgendes:
{ "index": { "lifecycle": { "name": "private-agent-metrics-policy", "rollover_alias": "private-agent-metric-alias" }, "number_of_shards": "1", "number_of_replicas": "1" } }
-
Klicken Sie auf Weiter Taste.
-
Fügen Sie auf der Seite Zuordnungen auf der Tab Zugeordnete Felder Felder gemäß der folgenden Tabelle hinzu (klicken Sie auf die Schaltfläche Feld hinzufügen, um weitere Felder hinzuzufügen):
Feldtyp Feldname Schlüsselwort fields.env
Schlüsselwort private-agent.group
Schlüsselwort private-agent.name
-
Wählen Sie die Tab Erweiterte Optionen und stellen Sie dann die folgenden Schalter auf Ein:
-
Zahlenzeichenfolgen als Zahlen zuordnen
-
Datumszeichenfolgen als Daten zuordnen
-
-
Klicken Sie auf Weiter -Schaltfläche.
-
Klicken Sie auf der Seite Aliase auf Weiter -Schaltfläche.
-
Klicken Sie auf der Seite Überprüfungsdetails auf die Schaltfläche „Vorlage erstellen“.
Erstellen Sie eine Kibana-Vorlage (private-agent-filebeat-template
)
-
Klicken Sie auf der Tab Indexvorlagen auf die Schaltfläche „Vorlage erstellen“.
-
Geben Sie auf der Seite Logistik Werte für die folgenden Felder ein:
-
Name:
private-agent-filebeat-template
-
Indexmuster:
private-agent-filebeat-8.15-*
-
-
Klicken Sie auf Weiter -Schaltfläche.
-
Klicken Sie auf der Seite Komponentenvorlagen auf die Weiter -Schaltfläche.
-
Ersetzen Sie auf der Seite Indexeinstellungen den Inhalt des Felds Indexeinstellungen durch Folgendes:
{ "index": { "lifecycle": { "name": "private-agent-metrics-policy", "rollover_alias": "private-agent-metric-alias" }, "number_of_shards": "1", "number_of_replicas": "1" } }
-
Klicken Sie auf Weiter Taste.
-
Fügen Sie auf der Seite Zuordnungen auf der Tab Zugeordnete Felder Felder gemäß der folgenden Tabelle hinzu (klicken Sie auf die Schaltfläche Feld hinzufügen, um weitere Felder hinzuzufügen):
Feldtyp Feldname Schlüsselwort fields.env
Schlüsselwort over_running_operation_name
Schlüsselwort private-agent.group
Schlüsselwort private-agent.name
Schlüsselwort scheduled_operation_name
Schlüsselwort status
-
Wählen Sie die Tab Erweiterte Optionen und stellen Sie dann die folgenden Schalter auf Ein:
-
Zahlenzeichenfolgen als Zahlen zuordnen
-
Datumszeichenfolgen als Daten zuordnen
-
-
Klicken Sie auf Weiter -Schaltfläche.
-
Klicken Sie auf der Seite Aliase auf Weiter -Schaltfläche.
-
Klicken Sie auf der Seite Überprüfungsdetails auf die Schaltfläche „Vorlage erstellen“.
Erstellen Sie Kibana-Parser
Erstellen Sie eine Kibana Grok Parser Pipeline (Over Schedule
)
-
Eingeben
ingest pipelines
in die Suchleiste von Elasticsearch und wählen Sie dann die resultierende Seite aus. -
Klicken Sie auf Pipeline erstellen Schaltfläche und wählen Sie Neue Pipeline.
-
Geben Sie Werte für die folgenden Felder ein:
-
Name:
private-agent-metric-pipeline
-
Beschreibung: Geben Sie eine optionale Beschreibung ein.
-
-
Klicken Sie im Bedienfeld Prozessoren auf die Schaltfläche Prozessor hinzufügen.
-
Legen Sie im Dialogfeld Prozessor hinzufügen die folgenden Felder fest:
-
Prozessor: Öffnen Sie das Menü und wählen Sie dann Grok.
-
Feld:
message
-
Muster: Geben Sie im ersten =-Feld Folgendes ein:
%{GREEDYDATA:operation_timestamp} \[AgentMetric, Informative\] The requested scheduled Operation is already being processed. OperationId = %{NUMBER:over_running_operation_id:int} OperationName = "%{GREEDYDATA:over_running_operation_name}" \[SCHEDULE_IN_PROCESS\]
-
-
Aktivieren Sie Fehler für diesen Prozessor ignorieren.
-
Klicken Sie auf die Schaltfläche Prozessor hinzufügen.
-
Klicken Sie in der Liste der Prozessoren auf das Symbol und ändern Sie dann den Namen in Über Zeitplan.
Erstellen Sie eine Kibana Grok Parser Pipeline (Added Status
)
-
Klicken Sie im Bedienfeld Prozessoren auf die Schaltfläche Prozessor hinzufügen.
-
Legen Sie im Dialogfeld Prozessor hinzufügen die folgenden Felder fest:
-
Prozessor: Öffnen Sie das Menü und wählen Sie dann Grok.
-
Feld:
message
-
Muster: Geben Sie im ersten =-Feld Folgendes ein:
%{GREEDYDATA:timestamp} \[AgentMetric, Informative\] %{GREEDYDATA:status} to queue: OperationID = %{NUMBER:scheduled_operation_id:int} and OperationName = %{GREEDYDATA:scheduled_operation_name} and OperationInstanceGuid = %{GREEDYDATA:scheduled_operation_instance_guid}
-
-
Aktivieren Sie Fehler für diesen Prozessor ignorieren.
-
Klicken Sie auf die Schaltfläche Prozessor hinzufügen.
-
Klicken Sie in der Liste der Prozessoren auf das Symbol und ändern Sie dann den Namen in Status hinzugefügt.
Erstellen Sie eine Kibana Grok Parser Pipeline (Finished Status
)
-
Klicken Sie im Bedienfeld Prozessoren auf die Schaltfläche Prozessor hinzufügen.
-
Legen Sie im Dialogfeld Prozessor hinzufügen die folgenden Felder fest:
- Prozessor: Öffnen Sie das Menü und wählen Sie dann Grok.
- Feld:
message
-
Muster: Geben Sie im ersten =-Feld Folgendes ein:
%{GREEDYDATA:status_ts} \[AgentMetric, Informative\] Operation changed to %{GREEDYDATA:status}: OperationID = %{NUMBER:scheduled_operation_id:int} and Operation Name = \"%{GREEDYDATA:scheduled_operation_name}\" and OperationInstanceGuid = %{GREEDYDATA:scheduled_operation_instance_guid}
-
Aktivieren Sie Fehler für diesen Prozessor ignorieren.
-
Klicken Sie auf die Schaltfläche Prozessor hinzufügen.
-
Klicken Sie in der Liste der Prozessoren auf das Symbol und ändern Sie dann den Namen in Status „Fertig“.
Erstellen Sie eine Kibana Grok Parser Pipeline (Running Status
)
-
Klicken Sie im Bedienfeld Prozessoren auf die Schaltfläche Prozessor hinzufügen.
-
Legen Sie im Dialogfeld Prozessor hinzufügen die folgenden Felder fest:
- Prozessor: Öffnen Sie das Menü und wählen Sie dann Grok.
- Feld:
message
-
Muster: Geben Sie im ersten =-Feld Folgendes ein:
%{GREEDYDATA:status_ts} \[AgentMetric, Informative\] Operation %{GREEDYDATA:status}: OperationID = %{NUMBER:scheduled_operation_id:int} and Operation Name = \"%{GREEDYDATA:scheduled_operation_name}\" and OperationInstanceGuid = %{GREEDYDATA:scheduled_operation_instance_guid} and Status = %{NUMBER:scheduled_operation_status} and Duration = %{NUMBER:scheduled_operation_duration:float}
-
Aktivieren Sie Fehler für diesen Prozessor ignorieren.
-
Klicken Sie auf die Schaltfläche Prozessor hinzufügen.
-
Klicken Sie in der Liste der Prozessoren auf das Symbol und ändern Sie dann den Namen in Laufstatus.
Legen Sie die Reihenfolge der Prozessoren fest
Falls dies noch nicht geschehen ist, ordnen Sie die Liste der Prozessoren in folgender Reihenfolge neu an:
-
Über Zeitplan
-
Hinzugefügter Status
-
Fertig-Status
-
Läuft-Status
Konfigurieren des Metricbeat-Agenten
Der private Jitterbit-Agent enthält ein Script zum Konfigurieren von Metricbeat. Um es zu verwenden, führen Sie die folgenden Schritte aus:
-
Führen Sie Folgendes in einem Terminal oder PowerShell aus:
cd /opt/jitterbit/scripts/ ./configure_elasticsearch.sh
cd /opt/jitterbit/scripts/ ./configure_elasticsearch.sh
cd "C:\Program Files\Jitterbit Agent\scripts\" .\configure_elasticsearch.ps
-
Lesen Sie die Anweisungen und reagieren Sie darauf.
Importieren eines Elasticsearch Dashboards
Um ein vorgefertigtes Elasticsearch Dashboard zu importieren, führen Sie diese Schritte aus:
-
Laden Sie die JSON-Datei Jitterbit Privater Agent Elasticsearch Dashboard vom Harmony-Portal herunter Downloads Seite.
-
Geben Sie ein
kibana saved objects
in die Suchleiste von Elasticsearch und wählen Sie dann die resultierende Seite aus. -
Klicken Sie auf die Schaltfläche Importieren.
-
Klicken Sie im Dialogfeld Gespeicherte Objekte importieren auf Importieren, suchen Sie die heruntergeladene JSON-Datei des Dashboards und wählen Sie sie aus.
-
Wählen Sie unter Importoptionen die Option Auf vorhandene Objekte prüfen mit Konflikte automatisch überschreiben aus.
-
Klicken Sie auf die Schaltfläche Importieren.
-
Klicken Sie auf die Schaltfläche Fertig.
-
Um das Dashboard zu verwenden, geben Sie ein
dashboards
Wählen Sie in der Elasticsearch Suchleiste die resultierende Seite aus und wählen Sie dann Jitterbit Harmony Privater Agent Dashboard.
Beheben von Elasticsearch Problemen
Zur Lösung etwaiger Probleme mit Elasticsearch Komponenten können Sie die Elasticsearch Dokumentation lesen, Protokolldateien prüfen oder Diagnosebefehle ausführen.
Elasticsearch Dokumentation
-
Metricbeat:
-
Filebeat:
Speicherorte der Elasticsearch Protokolldateien
-
/var/log/metricbeat
-
/var/log/filebeat
Elasticsearch Diagnosebefehle
Um die Filebeat-Verbindung zu Elasticsearch zu überprüfen, führen Sie den folgenden Befehl aus:
filebeat test output