Aktivität „Snowflake einfügen“
Einführung
Eine Snowflake -Insert-Aktivität unter Verwendung ihrer Snowflake-Verbindung, fügt Tabellendaten (entweder als CSV-Datei oder direkt den Spalten einer Tabelle zugeordnet) in Snowflake ein und soll als Ziel für die Verwendung von Daten in einer Operation verwendet werden.
Erstellen einer Snowflake Einfügeaktivität
Eine Instanz einer Snowflake Insert-Aktivität wird aus einer Snowflake-Verbindung erstellt mithilfe des Aktivitätstyps Einfügen.
Um eine Instanz einer Aktivität zu erstellen, ziehen Sie den Aktivitätstyp auf die Design-Canvas oder kopieren Sie den Aktivitätstyp und fügen Sie ihn auf der Design-Canvas ein. Weitere Informationen finden Sie unter Erstellen einer Aktivitätsinstanz in Komponentenwiederverwendung.
Eine vorhandene Snowflake Insert-Aktivität kann von diesen Stellen aus bearbeitet werden:
- Die Design-Canvas (siehe Aktionsmenü „Komponentenaktionen“ in Entwurfsfläche).
- Die Tab Komponenten des Projektbereichs (siehe Aktionsmenü im Projektbereich Tab Komponenten).
Konfigurieren einer Snowflake Einfügeaktivität
Befolgen Sie diese Schritte, um eine Snowflake -Insert-Aktivität zu konfigurieren:
-
Schritt 1: Geben Sie einen Namen ein und wählen Sie ein Objekt aus
Geben Sie einen Namen für die Aktivität ein und wählen Sie ein Objekt aus, entweder eine Tabelle oder eine Ansicht. -
Schritt 2: Wählen Sie einen Ansatz
Zum Einfügen von Daten in Snowflake werden verschiedene Ansätze unterstützt. Wählen Sie entweder zwischen Stage File oder SQL Insert. Wenn Sie den Stage File-Ansatz verwenden, können Sie entweder die Stage-Dateitypen Amazon S3 oder Internal auswählen. -
Schritt 3: Überprüfen Sie die Datenschemata
Alle vom Endpoint generierten Anforderungs- oder Antwortschemata werden angezeigt.
Schritt 1: Geben Sie einen Namen ein und wählen Sie ein Objekt aus
Geben Sie in diesem Schritt einen Namen für die Aktivität ein und wählen Sie eine Tabelle oder Ansicht aus (siehe Übersicht über Ansichten von Snowflake)). Jedes Benutzeroberflächenelement dieses Schritts wird unten beschrieben.
-
Name: Geben Sie einen Namen zur Identifizierung der Aktivität ein. Der Name muss für jede Snowflake -Insert-Aktivität eindeutig sein und darf keine Schrägstriche enthalten
/
oder Doppelpunkte:
. -
Objekt auswählen: In diesem Abschnitt werden die im Snowflake Endpoint verfügbaren Objekte angezeigt. Beim erneuten Öffnen einer vorhandenen Aktivitätskonfiguration wird nur das ausgewählte Objekt angezeigt, anstatt die gesamte Objektliste neu zu laden.
-
Ausgewähltes Snowflake: Nachdem ein Objekt ausgewählt wurde, wird es hier aufgelistet.
-
Suchen: Geben Sie den Wert einer beliebigen Spalte in das Suchfeld ein, um die Liste der Objekte zu filtern. Bei der Suche wird die Groß-/Kleinschreibung nicht beachtet. Wenn in der Tabelle bereits Objekte angezeigt werden, werden die Tabellenergebnisse mit jedem Tastendruck in Echtzeit gefiltert. Um Objekte während der Suche vom Endpoint neu zu laden, geben Sie Suchkriterien ein und aktualisieren Sie dann, wie unten beschrieben.
-
Aktualisieren: Klicken Sie auf das Aktualisierungssymbol oder das Wort Aktualisieren, um Objekte vom Snowflake Endpoint neu zu laden. Dies kann nützlich sein, wenn Objekte zu Snowflake hinzugefügt wurden. Diese Aktion aktualisiert alle Metadaten, die zum Erstellen der in der Konfiguration angezeigten Objekttabelle verwendet werden.
-
Auswählen eines Objekts: Klicken Sie in der Tabelle irgendwo auf eine Zeile, um ein Objekt auszuwählen. Es kann nur ein Objekt ausgewählt werden. Die für jedes Objekt verfügbaren Informationen werden vom Snowflake Endpoint abgerufen:
-
Name: Der Name eines Objekts, entweder einer Tabelle oder einer Ansicht.
-
Typ: Der Typ des Objekts, entweder eine Tabelle oder eine Ansicht.
-
Tipp
Wenn die Tabelle nicht mit verfügbaren Objekten gefüllt wird, wird die Snowflake-Verbindung ist möglicherweise nicht erfolgreich. Stellen Sie sicher, dass Sie verbunden sind, indem Sie die Verbindung erneut öffnen und die Anmeldeinformationen erneut testen.
-
-
Speichern und beenden: Klicken Sie, wenn aktiviert, um die Konfiguration für diesen Schritt zu speichern und die Aktivitätskonfiguration zu schließen.
-
Weiter: Klicken Sie, um die Konfiguration für diesen Schritt vorübergehend zu speichern und mit dem nächsten Schritt fortzufahren. Die Konfiguration wird erst gespeichert, wenn Sie im letzten Schritt auf die Schaltfläche Fertig klicken.
-
Änderungen verwerfen: Klicken Sie nach dem Vornehmen von Änderungen, um die Konfiguration zu schließen, ohne die an einem Schritt vorgenommenen Änderungen zu speichern. Sie werden in einer Meldung aufgefordert, zu bestätigen, dass Sie die Änderungen verwerfen möchten.
Schritt 2: Wählen Sie einen Ansatz
Zum Einfügen von Daten in Snowflake werden verschiedene Ansätze unterstützt. Wählen Sie entweder SQL Insert oder Stage File. Wenn Sie den Stage File-Ansatz verwenden, wählen Sie entweder die Stage-Dateitypen Amazon S3 oder Internal.
- SQL-Insert-Ansatz
- Amazon S3 Stage-File-Ansatz
- Google Cloud Storage Phase-Dateiansatz
- Interner Stage-File-Ansatz
- Microsoft Azure Stage-File-Ansatz
SQL Insert-Ansatz
Bei dieser Vorgehensweise werden im darauffolgenden Schema Schritt die Tabellenspalten angezeigt und können in einer Transformation abgebildet werden.
-
Vorgehensweise: Wählen Sie im Dropdown-Menü SQL Insert aus.
-
Zurück: Klicken Sie hier, um zum vorherigen Schritt zurückzukehren und die Konfiguration vorübergehend zu speichern.
-
Weiter: Klicken Sie hier, um mit dem nächsten Schritt fortzufahren und die Konfiguration vorübergehend zu speichern. Die Konfiguration wird erst gespeichert, wenn Sie im letzten Schritt auf die Schaltfläche Fertig klicken.
-
Änderungen verwerfen: Klicken Sie nach dem Vornehmen von Änderungen hier, um die Konfiguration zu schließen, ohne die an einem Schritt vorgenommenen Änderungen zu speichern. In einer Meldung werden Sie aufgefordert zu bestätigen, dass Sie die Änderungen verwerfen möchten.
Amazon S3 Stage File-Ansatz
Mit diesem Ansatz kann eine CSV-Datei mithilfe einer Amazon S3 Quelle in Snowflake eingefügt werden. Die Datei wird bereitgestellt und dann gemäß den Spezifikationen des Schema in die Tabelle kopiert.
Informationen zum Stellen von Anfragen an Amazon S3 finden Sie unter Stellen von Anfragen in der Amazon S3 Dokumentation.
-
Vorgehensweise: Verwenden Sie das Dropdown-Menü, um Stage-File auszuwählen.
-
Stage-Typ: Wählen Sie Amazon S3, um Daten aus dem Amazon S3 -Speicher abzurufen.
-
Authentifizierungstyp: Wählen Sie zwischen Anmeldeinformationen oder Speicherintegration. Anmeldeinformationen erfordern die Amazon S3 -Zugriffsschlüssel-ID und den geheimen Zugriffsschlüssel. Speicherintegration erfordert nur den Namen der Speicherintegration. Diese Authentifizierungstypen werden unten behandelt.
Authentifizierung der Anmeldeinformationen
Der Authentifizierungstyp Anmeldeinformationen erfordert die Amazon S3 -Zugriffsschlüssel-ID und den geheimen Zugriffsschlüssel (Informationen zum Stellen von Anfragen an Amazon S3 finden Sie unter Stellen von Anfragen in der Amazon S3 Dokumentation).
-
Authentifizierungstyp: Wählen Sie Anmeldeinformationen.
-
Zugriffsschlüssel-ID: Geben Sie die Amazon S3 Zugriffsschlüssel-ID ein.
-
Geheimer Zugriffsschlüssel: Geben Sie den geheimen Zugriffsschlüssel für Amazon S3 ein.
Speicherintegrationsauthentifizierung
Der Authentifizierungstyp Speicherintegration erfordert die Erstellung einer Snowflake-Speicherintegration. Informationen zum Erstellen einer Snowflake Speicherintegration finden Sie unter Speicherintegration erstellen in der Snowflake Dokumentation.
-
Authentifizierungstyp: Wählen Sie Speicherintegration.
-
Name der Speicherintegration: Geben Sie den Namen der Snowflake-Speicherintegration ein.
Zusätzliche Optionen
Sowohl für die Anmeldeinformationen- als auch für die Speicherintegration-Authentifizierung gibt es diese zusätzlichen Optionen:
-
Bucket-Name: Geben Sie einen gültigen Bucket-Namen für einen vorhandenen Bucket auf dem Amazon S3 -Server ein. Dies wird ignoriert, wenn
bucketName
wird im Schema bereitgestelltInsertAmazonS3Request
. -
Dateipfad: Geben Sie den Dateipfad ein.
-
Bei einem Fehler: Wählen Sie eine dieser Optionen aus der Dropdown-Liste Bei einem Fehler; bei Bedarf werden weitere Optionen angezeigt:
-
Abort_Statement: Bricht die Verarbeitung ab, wenn Fehler auftreten.
-
Fortsetzen: Setzt das Laden der Datei fort, auch wenn Fehler auftreten.
-
Skip_File: Überspringt die Datei, wenn in der Datei Fehler auftreten.
-
Skip_File_\<num>: Überspringt die Datei, wenn die Anzahl der Fehler in der Datei gleich oder größer als die unter Skip File Number angegebene Zahl ist.
-
Skip_File_\<num>%: Überspringt die Datei, wenn der Prozentsatz an Fehlern in der Datei den unter Prozentsatz für übersprungene Dateinummer angegebenen Prozentsatz überschreitet.
-
-
Fehler bei Spaltenanzahl-Fehlübereinstimmung: Wenn diese Option ausgewählt ist, wird ein Fehler im Fehlerknoten des Schema gemeldet, wenn die Quell- und Zielspaltenanzahl nicht übereinstimmt. Wenn Sie diese Option nicht auswählen, schlägt der Operation nicht fehl und die bereitgestellten Daten werden eingefügt.
-
Zurück: Klicken Sie hier, um zum vorherigen Schritt zurückzukehren und die Konfiguration vorübergehend zu speichern.
-
Weiter: Klicken Sie hier, um mit dem nächsten Schritt fortzufahren und die Konfiguration vorübergehend zu speichern. Die Konfiguration wird erst gespeichert, wenn Sie im letzten Schritt auf die Schaltfläche Fertig klicken.
-
Änderungen verwerfen Klicken Sie nach dem Vornehmen von Änderungen hierauf, um die Konfiguration zu schließen, ohne die an einem Schritt vorgenommenen Änderungen zu speichern. Sie werden in einer Meldung aufgefordert, zu bestätigen, dass Sie die Änderungen verwerfen möchten.
Interner Stage File-Ansatz
Mit diesem Ansatz kann eine CSV-Datei in Snowflake eingefügt werden. Die Datei wird bereitgestellt und dann gemäß den Spezifikationen des Schema in die Tabelle kopiert.
-
Vorgehensweise: Verwenden Sie das Dropdown-Menü, um Stage-File auszuwählen.
-
Phasentyp: Wählen Sie Intern, um die Daten aus einer internen Quelle abzurufen.
-
Bei einem Fehler: Wählen Sie eine dieser Optionen aus der Dropdown-Liste Bei einem Fehler; bei Bedarf werden weitere Optionen angezeigt:
-
Abort_Statement: Bricht die Verarbeitung ab, wenn Fehler auftreten.
-
Fortsetzen: Setzt das Laden der Datei fort, auch wenn Fehler auftreten.
-
Skip_File: Überspringt die Datei, wenn in der Datei Fehler auftreten.
-
Skip_File_\<num>: Überspringt die Datei, wenn die Anzahl der Fehler in der Datei gleich oder größer als die unter Skip File Number angegebene Zahl ist.
-
Skip_File_\<num>%: Überspringt die Datei, wenn der Prozentsatz an Fehlern in der Datei den unter Prozentsatz für übersprungene Dateinummer angegebenen Prozentsatz überschreitet.
-
-
Fehler bei Spaltenanzahl-Fehlübereinstimmung: Wenn diese Option ausgewählt ist, wird ein Fehler im Fehlerknoten des Schema gemeldet, wenn die Quell- und Zielspaltenanzahl nicht übereinstimmt. Wenn Sie diese Option nicht auswählen, schlägt der Operation nicht fehl und die bereitgestellten Daten werden eingefügt.
-
Zurück: Klicken Sie hier, um zum vorherigen Schritt zurückzukehren und die Konfiguration vorübergehend zu speichern.
-
Weiter: Klicken Sie hier, um mit dem nächsten Schritt fortzufahren und die Konfiguration vorübergehend zu speichern. Die Konfiguration wird erst gespeichert, wenn Sie im letzten Schritt auf die Schaltfläche Fertig klicken.
-
Änderungen verwerfen Klicken Sie nach dem Vornehmen von Änderungen hierauf, um die Konfiguration zu schließen, ohne die an einem Schritt vorgenommenen Änderungen zu speichern. Sie werden in einer Meldung aufgefordert, zu bestätigen, dass Sie die Änderungen verwerfen möchten.
Google Cloud Storage Stage File-Ansatz
Mit diesem Ansatz kann eine CSV-Datei in Google Cloud Storage eingefügt werden. Die Datei wird bereitgestellt und anschließend gemäß den Spezifikationen des Schema in die Tabelle kopiert.
-
Vorgehensweise: Verwenden Sie das Dropdown-Menü, um Stage-File auszuwählen.
-
Phasentyp: Wählen Sie Google Cloud Storage, um die Daten aus einer internen Quelle abzurufen.
-
Name der Speicherintegration: Geben Sie den Namen der Snowflake-Speicherintegration ein.
-
Bucket-Name: Geben Sie einen gültigen Bucket-Namen für einen vorhandenen Bucket in Google Cloud Storage ein. Dies wird ignoriert, wenn
bucketName
wird im Schema bereitgestelltInsertGoogleCloudRequest
. -
Dateipfad: Geben Sie den Dateipfad ein.
-
Bei einem Fehler: Wählen Sie eine dieser Optionen aus der Dropdown-Liste Bei einem Fehler; bei Bedarf werden weitere Optionen angezeigt:
-
Abort_Statement: Bricht die Verarbeitung ab, wenn Fehler auftreten.
-
Fortsetzen: Setzt das Laden der Datei fort, auch wenn Fehler auftreten.
-
Skip_File: Überspringt die Datei, wenn in der Datei Fehler auftreten.
-
Skip_File_\<num>: Überspringt die Datei, wenn die Anzahl der Fehler in der Datei gleich oder größer als die unter Skip File Number angegebene Zahl ist.
-
Skip_File_\<num>%: Überspringt die Datei, wenn der Prozentsatz an Fehlern in der Datei den unter Prozentsatz für übersprungene Dateinummer angegebenen Prozentsatz überschreitet.
-
-
Fehler bei Spaltenanzahl-Fehlübereinstimmung: Wenn diese Option ausgewählt ist, wird ein Fehler im Fehlerknoten des Schema gemeldet, wenn die Quell- und Zielspaltenanzahl nicht übereinstimmt. Wenn Sie diese Option nicht auswählen, schlägt der Operation nicht fehl und die bereitgestellten Daten werden eingefügt.
-
Zurück: Klicken Sie hier, um zum vorherigen Schritt zurückzukehren und die Konfiguration vorübergehend zu speichern.
-
Weiter: Klicken Sie hier, um mit dem nächsten Schritt fortzufahren und die Konfiguration vorübergehend zu speichern. Die Konfiguration wird erst gespeichert, wenn Sie im letzten Schritt auf die Schaltfläche Fertig klicken.
-
Änderungen verwerfen Klicken Sie nach dem Vornehmen von Änderungen hierauf, um die Konfiguration zu schließen, ohne die an einem Schritt vorgenommenen Änderungen zu speichern. Sie werden in einer Meldung aufgefordert, zu bestätigen, dass Sie die Änderungen verwerfen möchten.
Microsoft Azure Stage File-Ansatz
Mit diesem Ansatz kann eine CSV-Datei mithilfe einer Microsoft Azure Quelle in Snowflake eingefügt werden. Die Datei wird bereitgestellt und dann gemäß den Spezifikationen des Schema in die Tabelle kopiert.
-
Vorgehensweise: Verwenden Sie das Dropdown-Menü, um Stage-File auszuwählen.
-
Stage-Typ: Wählen Sie Microsoft Azure, um Daten aus Microsoft Azure-Speichercontainern abzurufen.
-
Authentifizierungstyp: Wählen Sie zwischen Anmeldeinformationen oder Speicherintegration. Anmeldeinformationen erfordern ein Microsoft Azure Shared Access Signature (SAS)-Token und einen Speicherkontonamen. Speicherintegration erfordert nur einen Speicherintegrationsnamen. Diese Authentifizierungstypen werden unten behandelt.
Authentifizierung der Anmeldeinformationen
Der Authentifizierungstyp Anmeldeinformationen erfordert ein Microsoft Azure SAS-Token und einen Speicherkontonamen.
-
Authentifizierungstyp: Wählen Sie Anmeldeinformationen.
-
Azure SAS-Token: Geben Sie das Microsoft Azure SAS-Token ein. Informationen zum Erstellen von SAS-Token für Speichercontainer in Microsoft Azure finden Sie unter Erstellen von SAS-Token für Ihre Speichercontainer in der Microsoft Azure Dokumentation.
-
Speicherkontoname: Geben Sie den Namen des Microsoft Azure-Speicherkontos ein.
Speicherintegrationsauthentifizierung
Der Authentifizierungstyp Speicherintegration erfordert die Erstellung einer Snowflake-Speicherintegration. Informationen zum Erstellen einer Snowflake Speicherintegration finden Sie unter Speicherintegration erstellen in der Snowflake Dokumentation.
-
Authentifizierungstyp: Wählen Sie Speicherintegration.
-
Name der Speicherintegration: Geben Sie den Namen der Snowflake-Speicherintegration ein.
Zusätzliche Optionen
Sowohl für die Anmeldeinformationen- als auch für die Speicherintegration-Authentifizierung gibt es diese zusätzlichen Optionen:
-
Hauptschlüssel: Geben Sie den Hauptschlüssel ein, der für die clientseitige Verschlüsselung (CSE) in Microsoft Azure verwendet wird. Dies wird ignoriert, wenn
azureMasterKey
wird im Schema bereitgestelltInsertMicrosoftAzureCloudRequest
.Notiz
Informationen zum Erstellen von Schlüsseln in Microsoft Azure finden Sie unter Schnellstart: Festlegen und Abrufen eines Schlüssels aus Azure Key Vault mithilfe des Azure-Portals in der Microsoft Azure Dokumentation.
Informationen zu Storage CSE in Microsoft Azure finden Sie unter Clientseitige Verschlüsselung für Blobs in der Microsoft Azure Dokumentation.
-
Containername: Geben Sie einen gültigen Bucket-Namen für einen vorhandenen Speichercontainer in Microsoft Azure ein. Dies wird ignoriert, wenn
containerName
wird im Schema bereitgestelltInsertMicrosoftAzureCloudRequest
. -
Dateipfad: Geben Sie den Dateipfad ein.
-
Bei einem Fehler: Wählen Sie eine dieser Optionen aus der Dropdown-Liste Bei einem Fehler; bei Bedarf werden weitere Optionen angezeigt:
-
Abort_Statement: Bricht die Verarbeitung ab, wenn Fehler auftreten.
-
Fortsetzen: Setzt das Laden der Datei fort, auch wenn Fehler auftreten.
-
Skip_File: Überspringt die Datei, wenn in der Datei Fehler auftreten.
-
Skip_File_\<num>: Überspringt die Datei, wenn die Anzahl der Fehler in der Datei gleich oder größer als die unter Skip File Number angegebene Zahl ist.
-
Skip_File_\<num>%: Überspringt die Datei, wenn der Prozentsatz an Fehlern in der Datei den unter Prozentsatz für übersprungene Dateinummer angegebenen Prozentsatz überschreitet.
-
-
Fehler bei Spaltenanzahl-Fehlübereinstimmung: Wenn diese Option ausgewählt ist, wird ein Fehler im Fehlerknoten des Schema gemeldet, wenn die Quell- und Zielspaltenanzahl nicht übereinstimmt. Wenn Sie diese Option nicht auswählen, schlägt der Operation nicht fehl und die bereitgestellten Daten werden eingefügt.
-
Zurück: Klicken Sie hier, um zum vorherigen Schritt zurückzukehren und die Konfiguration vorübergehend zu speichern.
-
Weiter: Klicken Sie hier, um mit dem nächsten Schritt fortzufahren und die Konfiguration vorübergehend zu speichern. Die Konfiguration wird erst gespeichert, wenn Sie im letzten Schritt auf die Schaltfläche Fertig klicken.
-
Änderungen verwerfen Klicken Sie nach dem Vornehmen von Änderungen hierauf, um die Konfiguration zu schließen, ohne die an einem Schritt vorgenommenen Änderungen zu speichern. Sie werden in einer Meldung aufgefordert, zu bestätigen, dass Sie die Änderungen verwerfen möchten.
Schritt 3: Überprüfen der Datenschemata
Die vom Endpoint generierten Anforderungs- und Antwortschemata werden angezeigt. Die angezeigten Schemata hängen vom Ansatz ab, der im vorherigen Schritt angegeben wurde.
In diesen Unterabschnitten werden die Anforderungs- und Antwortstrukturen für jede Kombination aus Ansatz und Phasentyp beschrieben:
- SQL-Insert-Ansatz
- Amazon S3 Stage-File-Ansatz
- Google Cloud Storage Phase-Dateiansatz
- Interner Stage-File-Ansatz
- Microsoft Azure Stage-File-Ansatz
Diese Aktionen sind bei jedem Ansatz verfügbar:
-
Datenschemata: Diese Datenschemata werden von benachbarten Transformations übernommen und beim Transformation erneut angezeigt.
Notiz
Die in einer Transformation bereitgestellten Daten haben Vorrang vor der Aktivitätskonfiguration.
Tipp
Wenn ein einfaches Anführungszeichen (
'
) in einer Payload vorhanden ist, wird zur Laufzeit ein Syntaxfehler zurückgegeben. Sie können die Einstellung Sonderzeichen maskieren in der Verbindung aktivieren, um der Aktivität das automatische Escapen von einfachen Anführungszeichen zu ermöglichen](') zur Laufzeit.Der Snowflake-Konnektor verwendet Version 3.19.0 des Snowflake JDBC-Treibers und die Snowflake SQL-Befehle. Informationen zu den Schema und -feldern finden Sie in der API -Dokumentation.
-
Aktualisieren: Klicken Sie auf das Aktualisierungssymbol oder das Wort Aktualisieren, um Schemas vom Snowflake Endpoint neu zu generieren. Diese Aktion generiert auch ein Schema an anderen Stellen im gesamten Projekt neu, an denen auf dasselbe Schema verwiesen wird, z. B. in einer angrenzenden Transformation.
-
Zurück: Klicken Sie hier, um die Konfiguration für diesen Schritt vorübergehend zu speichern und zum vorherigen Schritt zurückzukehren.
-
Fertig: Klicken Sie, um die Konfiguration für alle Schritte zu speichern und die Aktivitätskonfiguration zu schließen.
-
Änderungen verwerfen Klicken Sie nach dem Vornehmen von Änderungen hierauf, um die Konfiguration zu schließen, ohne die an einem Schritt vorgenommenen Änderungen zu speichern. Sie werden in einer Meldung aufgefordert, zu bestätigen, dass Sie die Änderungen verwerfen möchten.
SQL-Insert-Ansatz
Beim Ansatz SQL Insert werden die Tabellenspalten angezeigt und können in einer Transformation abgebildet werden.
-
Anfrage
Anfrageschemafeld/-knoten Hinweise table
Knoten, der den Tabellennamen anzeigt. column_A
Name der ersten Tabellenspalte. column_B
Name der zweiten Tabellenspalte. . . .
Nachfolgende Tabellenspalten. -
Antwort
Antwortschemafeld/-knoten Hinweise status
Boolesche Flagge, die angibt, ob das Einfügen des Datensatzes erfolgreich war. errorMessage
Beschreibende Fehlermeldung, wenn beim Einfügen ein Fehler auftritt. recordsInserted
Anzahl der eingefügten Datensätze bei erfolgreicher Einfügung.
Amazon S3 Stage File-Ansatz
Wenn der Ansatz Amazon S3 Stage File ist, werden die Angaben zum Staging und Einfügen einer CSV-Datei im Schema angezeigt, sodass sie in einer Transformation abgebildet werden können. Das verwendete Muster muss nur mit einer Datei übereinstimmen. Wenn das Muster mit mehr als einer Datei übereinstimmt, wird die Aktivität einen Fehler mit einer beschreibenden Meldung ausgeben.
-
Anfrage
Schemafeld/-knoten anfordern Hinweise accessKey
Amazon S3 Zugriffsschlüssel-ID. secretAccessKey
Geheimer Zugriffsschlüssel für Amazon S3. storageintegrationName
Name der Snowflake-Speicherintegration, die für die Authentifizierung der Snowflake-Speicherintegration verwendet werden soll. bucketName
Gültiger Bucket-Name für einen vorhandenen Bucket auf dem Amazon S3 -Server. filePath
Speicherort der Stage-Datei im Amazon S3 Bucket. pattern
Reguläres Ausdrucksmuster, das zum Suchen der Datei auf der Bühne verwendet wird; wenn compression
IstGZIP
,[.]gz
wird an das Muster angehängt.onError
Option Bei Fehler ausgewählt. encryption
Knoten, der die Verschlüsselung darstellt. encryptionType
Amazon S3 Verschlüsselung (entweder serverseitige Verschlüsselung oder clientseitige Verschlüsselung). masterKey
Amazon S3 Hauptschlüssel. kmsKeyId
Amazon Schlüsselverwaltungsdienst Master-ID. fileFormat
Knoten, der das Dateiformat darstellt. nullIf
Ein String, der in SQL konvertiert werden soll NULL
; standardmäßig ist es eine leere Zeichenfolge. SieheNULL_IF
Option der SnowflakeCOPY INTO
<location>
Dokumentation.enclosingChar
Zeichen zum Einschließen von Datenfeldern; siehe FIELD_OPTIONALLY_ENCLOSED_BY
Option der SnowflakeCOPY INTO
<location>
Dokumentation.Hinweis
Die
enclosingChar
kann entweder ein einfaches Anführungszeichen sein'
oder Anführungszeichen"
Um das einfache Anführungszeichen zu verwenden, verwenden Sie entweder das Oktal'
oder das Hex0x27
Darstellungen oder verwenden Sie ein doppeltes einfaches Anführungszeichen als Escape''
. Wenn ein Feld dieses Zeichen enthält, maskieren Sie es mit demselben Zeichen.compression
Der für die Datendateien verwendete Komprimierungsalgorithmus GZIP
oderNONE
werden unterstützt. Siehe die Komprimierungsoption der SnowflakeCOPY INTO
<location>
Dokumentation.skipHeader
Anzahl der zu überspringenden Zeilen am Anfang der Quelldatei. errorOnColumnCountMismatch
Boolesche Flagge, um einen Fehler zu melden, wenn die Quell- und Zielzählungen des Schema nicht übereinstimmen. fieldDelimiter
Das Trennzeichen, das zur Trennung von Datenfeldern verwendet wird; siehe FIELD_DELIMITER
Option der SnowflakeCOPY INTO
<table>
Dokumentation.recordDelimiter
Das Trennzeichen, das zur Trennung von Feldgruppen verwendet wird; siehe RECORD_DELIMITER
Option der SnowflakeCOPY INTO
<table>
Dokumentation. -
Antwort
Antwortschemafeld/-knoten Hinweise status
Status wiederhergestellt. file
Name der bereitgestellten CSV-Datei, die beim Einfügen von Daten in die Snowflake Tabelle verarbeitet wird. rows_parsed
Anzahl der aus der CSV-Datei analysierten Zeilen. rows_loaded
Anzahl der Zeilen, die ohne Fehler aus der CSV-Datei in die Snowflake-Tabelle geladen wurden. error
Knoten, der die Fehlermeldungen darstellt. error_limit
Anzahl der Fehler, die dazu führen, dass die Datei übersprungen wird, wie in Skip_File_\<num> festgelegt. errors_seen
Anzahl der aufgetretenen Fehler. first_error
Der erste Fehler in der Quelldatei. first_error_line
Die erste Zeilennummer des ersten Fehlers. first_error_character
Das erste Zeichen des ersten Fehlers. first_error_column_name
Der Spaltenname der ersten Fehlerstelle.
Google Cloud Storage Stage File-Ansatz
Wenn der Ansatz Google Cloud Storage Stage File ist, werden die Spezifikationen für das Staging und Einfügen einer CSV-Datei im Schema angezeigt, sodass sie in einer Transformation abgebildet werden können. Das verwendete Muster muss nur mit einer Datei übereinstimmen. Wenn das Muster mit mehr als einer Datei übereinstimmt, wird die Aktivität einen Fehler mit einer beschreibenden Meldung ausgeben.
-
Anfrage
Schemafeld/-knoten anfordern Hinweise storageintegrationName
Name der Snowflake-Speicherintegration, die für die Authentifizierung der Snowflake-Speicherintegration verwendet werden soll. bucketName
Gültiger Bucket-Name für einen vorhandenen Bucket in Google Cloud Storage. filePath
Speicherort der Stage-Datei im Google Cloud Storage Bucket. pattern
Reguläres Ausdrucksmuster, das zum Suchen der Datei auf der Bühne verwendet wird; wenn compressData
ist wahr,[.]gz
wird an das Muster angehängt.onError
Option Bei Fehler ausgewählt. fileFormat
Knoten, der das Dateiformat darstellt. nullIf
Ein String, der in SQL konvertiert werden soll NULL
; standardmäßig ist es eine leere Zeichenfolge. SieheNULL_IF
Option der SnowflakeCOPY INTO
<location>
Dokumentation.enclosingChar
Zeichen zum Einschließen von Datenfeldern; siehe FIELD_OPTIONALLY_ENCLOSED_BY
Option der SnowflakeCOPY INTO
<location>
Dokumentation.Hinweis
Die
enclosingChar
kann entweder ein einfaches Anführungszeichen sein'
oder Anführungszeichen"
Um das einfache Anführungszeichen zu verwenden, verwenden Sie entweder das Oktal'
oder das Hex0x27
Darstellungen oder verwenden Sie ein doppeltes einfaches Anführungszeichen als Escape''
. Wenn ein Feld dieses Zeichen enthält, maskieren Sie es mit demselben Zeichen.compression
Der für die Datendateien verwendete Komprimierungsalgorithmus GZIP
oderNONE
werden unterstützt. Siehe die Komprimierungsoption der SnowflakeCOPY INTO
<location>
Dokumentation.skipHeader
Anzahl der zu überspringenden Zeilen am Anfang der Quelldatei. errorOnColumnCountMismatch
Boolesche Flagge, um einen Fehler zu melden, wenn die Quell- und Zielzählungen des Schema nicht übereinstimmen. fieldDelimiter
Das Trennzeichen, das zur Trennung von Datenfeldern verwendet wird; siehe FIELD_DELIMITER
Option der SnowflakeCOPY INTO
<table>
Dokumentation.recordDelimiter
Das Trennzeichen, das zur Trennung von Feldgruppen verwendet wird; siehe RECORD_DELIMITER
Option der SnowflakeCOPY INTO
<table>
Dokumentation. -
Antwort
Antwortschemafeld/-knoten Hinweise status
Status wiederhergestellt. file
Name der bereitgestellten CSV-Datei, die beim Einfügen von Daten in die Snowflake Tabelle verarbeitet wird. rows_parsed
Anzahl der aus der CSV-Datei analysierten Zeilen. rows_loaded
Anzahl der Zeilen, die ohne Fehler aus der CSV-Datei in die Snowflake-Tabelle geladen wurden. error
Knoten, der die Fehlermeldungen darstellt. error_limit
Anzahl der Fehler, die dazu führen, dass die Datei übersprungen wird, wie in Skip_File_\<num> festgelegt. errors_seen
Anzahl der aufgetretenen Fehler. first_error
Der erste Fehler in der Quelldatei. first_error_line
Die erste Zeilennummer des ersten Fehlers. first_error_character
Das erste Zeichen des ersten Fehlers. first_error_column_name
Der Spaltenname der ersten Fehlerstelle.
Interner Stage File-Ansatz
Wenn der Ansatz Internes Stagefile ist, werden die Angaben zum Staging und Einfügen einer CSV-Datei im Schema angezeigt, sodass sie in einer Transformation abgebildet werden können. Das verwendete Muster muss nur mit einer Datei übereinstimmen. Wenn das Muster mit mehr als einer Datei übereinstimmt, wird die Aktivität einen Fehler mit einer beschreibenden Meldung ausgeben.
-
Anfrage
Schemafeld/-knoten anfordern Hinweise stageName
Interner Snowflake Stadium, Tabellenname oder Pfad. destinationPrefix
Pfad oder Präfix, unter dem die Daten auf die Snowflake Bühne hochgeladen werden. fileContent
Datendateiinhalt im CSV-Format, der für den Upload in die Snowflake-Tabelle bereitgestellt werden soll. destinationFileName
Zieldateiname, der in der Snowflake-Phase verwendet werden soll. compressData
Boolesche Flagge, die angibt, ob die Daten vor dem Hochladen in die interne Snowflake Phase komprimiert werden sollen. pattern
Reguläres Ausdrucksmuster, das zum Suchen der Datei auf der Bühne verwendet wird; wenn compressData
ist wahr,[.]gz
wird an das Muster angehängt.onError
Option Bei Fehler ausgewählt. fileFormat
Knoten, der das Dateiformat darstellt. nullIf
Ein String, der in SQL konvertiert werden soll NULL
; standardmäßig ist es eine leere Zeichenfolge. SieheNULL_IF
Option der SnowflakeCOPY INTO
<location>
Dokumentation.enclosingChar
Zeichen zum Einschließen von Datenfeldern; siehe FIELD_OPTIONALLY_ENCLOSED_BY
Option der SnowflakeCOPY INTO
<location>
Dokumentation.Hinweis
Die
enclosingChar
kann entweder ein einfaches Anführungszeichen sein'
oder Anführungszeichen"
Um das einfache Anführungszeichen zu verwenden, verwenden Sie entweder das Oktal'
oder das Hex0x27
Darstellungen oder verwenden Sie ein doppeltes einfaches Anführungszeichen als Escape''
. Wenn ein Feld dieses Zeichen enthält, maskieren Sie es mit demselben Zeichen.errorOnColumnCountMismatch
Boolesche Flagge, um einen Fehler zu melden, wenn die Quell- und Zielzählungen des Schema nicht übereinstimmen. fieldDelimiter
Das Trennzeichen, das zur Trennung von Datenfeldern verwendet wird; siehe FIELD_DELIMITER
Option der SnowflakeCOPY INTO
<table>
Dokumentation.recordDelimiter
Das Trennzeichen, das zur Trennung von Feldgruppen verwendet wird; siehe RECORD_DELIMITER
Option der SnowflakeCOPY INTO
<table>
Dokumentation. -
Antwort
Antwortschemafeld/-knoten Hinweise file
Name der bereitgestellten CSV-Datei, die beim Einfügen von Daten in die Snowflake-Tabelle verarbeitet wird. status
Status wiederhergestellt. rowsParsed
Anzahl der aus der CSV-Datei analysierten Zeilen. rowsLoaded
Anzahl der Zeilen, die ohne Fehler aus der CSV-Datei in die Snowflake-Tabelle geladen wurden. error
Knoten, der die Fehlermeldungen darstellt. error
Die Fehlermeldung. code
Der zurückgegebene Fehlercode. sqlState
Der zurückgegebene numerische SQL-Statusfehlercode des Datenbankaufrufs. file
Knoten, der die Fehlermeldungen darstellt. columnName
Name und Reihenfolge der Spalte, die den Fehler enthielt. rowNumber
Die Nummer der Zeile in der Quelldatei, in der der Fehler aufgetreten ist. rowStartLine
Die Nummer der ersten Zeile der Reihe, in der der Fehler aufgetreten ist.
Microsoft Azure Stage File-Ansatz
Wenn der Ansatz Microsoft Azure Stage File ist, werden die Spezifikationen für das Staging und Einfügen einer CSV-Datei im Schema angezeigt, sodass sie in einer Transformation abgebildet werden können. Das verwendete Muster muss nur mit einer Datei übereinstimmen. Wenn das Muster mit mehr als einer Datei übereinstimmt, wird die Aktivität einen Fehler mit einer beschreibenden Meldung ausgeben.
-
Anfrage
Schemafeld/-knoten anfordern Hinweise azureSasToken
Microsoft Azure Shared Access Signature (SAS)-Token. azureStorageAccountName
Name des Microsoft Azure-Speicherkontos. azureStorageintegrationName
Name der Snowflake-Speicherintegration, die für die Authentifizierung der Snowflake-Speicherintegration verwendet werden soll. containerName
Gültiger Containername für einen vorhandenen Speichercontainer in Microsoft Azure. filePath
Speicherort der Stage-Datei im Microsoft Azure-Speichercontainer. pattern
Reguläres Ausdrucksmuster, das zum Suchen der Datei auf der Bühne verwendet wird; wenn compression
IstGZIP
,[.]gz
wird an das Muster angehängt.onError
Option Bei Fehler ausgewählt. encryption
Knoten, der die Verschlüsselung darstellt. encryptionType
Microsoft Azure Verschlüsselung (nur clientseitige Verschlüsselung). azureMasterKey
Microsoft Azure Hauptschlüssel. fileFormat
Knoten, der das Dateiformat darstellt. nullIf
Ein String, der in SQL konvertiert werden soll NULL
; standardmäßig ist es eine leere Zeichenfolge. SieheNULL_IF
Option der SnowflakeCOPY INTO
<location>
Dokumentation.enclosingChar
Zeichen zum Einschließen von Datenfeldern; siehe FIELD_OPTIONALLY_ENCLOSED_BY
Option der SnowflakeCOPY INTO
<location>
Dokumentation.Hinweis
Die
enclosingChar
kann entweder ein einfaches Anführungszeichen sein'
oder Anführungszeichen"
Um das einfache Anführungszeichen zu verwenden, verwenden Sie entweder das Oktal'
oder das Hex0x27
Darstellungen oder verwenden Sie ein doppeltes einfaches Anführungszeichen als Escape''
. Wenn ein Feld dieses Zeichen enthält, maskieren Sie es mit demselben Zeichen.compression
Der für die Datendateien verwendete Komprimierungsalgorithmus GZIP
oderNONE
werden unterstützt. Siehe die Komprimierungsoption der SnowflakeCOPY INTO
<location>
Dokumentation.skipHeader
Anzahl der zu überspringenden Zeilen am Anfang der Quelldatei. errorOnColumnCountMismatch
Boolesche Flagge, um einen Fehler zu melden, wenn die Quell- und Zielzählungen des Schema nicht übereinstimmen. fieldDelimiter
Das Trennzeichen, das zur Trennung von Datenfeldern verwendet wird; siehe FIELD_DELIMITER
Option der SnowflakeCOPY INTO
<table>
Dokumentation.recordDelimiter
Das Trennzeichen, das zur Trennung von Feldgruppen verwendet wird; siehe RECORD_DELIMITER
Option der SnowflakeCOPY INTO
<table>
Dokumentation. -
Antwort
Antwortschemafeld/-knoten Hinweise status
Status wiederhergestellt. file
Name der bereitgestellten CSV-Datei, die beim Einfügen von Daten in die Snowflake Tabelle verarbeitet wird. rows_parsed
Anzahl der aus der CSV-Datei analysierten Zeilen. rows_loaded
Anzahl der Zeilen, die ohne Fehler aus der CSV-Datei in die Snowflake-Tabelle geladen wurden. error
Knoten, der die Fehlermeldungen darstellt. error_limit
Anzahl der Fehler, die dazu führen, dass die Datei übersprungen wird, wie in Skip_File_\<num> festgelegt. errors_seen
Anzahl der aufgetretenen Fehler. first_error
Der erste Fehler in der Quelldatei. first_error_line
Die erste Zeilennummer des ersten Fehlers. first_error_character
Das erste Zeichen des ersten Fehlers. first_error_column_name
Der Spaltenname der ersten Fehlerstelle.
Nächste Schritte
Nachdem Sie eine Snowflake -Insert-Aktivität konfiguriert haben, schließen Sie die Konfiguration des Operation ab, indem Sie andere Aktivitäten, Transformations oder Scripts als Operation hinzufügen und konfigurieren. Sie können auch die Operation konfigurieren, die die Möglichkeit umfassen, Vorgänge zu verketten, die sich im selben oder in unterschiedlichen Workflows befinden.
Auf Menüaktionen für eine Aktivität kann über den Projektbereich und die Design-Canvas zugegriffen werden. Weitere Informationen finden Sie unter Aktionsmenü“ in Connector-Grundlagen.
Snowflake Insert-Aktivitäten können als Ziel mit diesen Operation verwendet werden:
- Transformation
- Zwei-Transformationsmuster (als erstes oder zweites Ziel)
Um die Aktivität mit Skriptfunktionen zu verwenden, schreiben Sie die Daten an einen temporären Speicherort und verwenden Sie dann diesen temporären Speicherort in der Skriptfunktion.
Wenn Sie bereit sind, einsetzen und ausführen den Operation und validieren Sie das Verhalten durch Überprüfen der Operation.