Snowflake Insert-Aktivität
Einführung
Eine Snowflake Insert-Aktivität, die ihre Snowflake-Verbindung verwendet, fügt Tabellendaten (entweder als CSV-Datei oder direkt auf Spalten einer Tabelle abgebildet) in Snowflake ein und ist als Ziel gedacht, um Daten in einem Vorgang zu konsumieren.
Erstellen einer Snowflake Insert-Aktivität
Eine Instanz einer Snowflake Insert-Aktivität wird aus einer Snowflake-Verbindung unter Verwendung des Aktivitätstyps Insert erstellt.
Um eine Instanz einer Aktivität zu erstellen, ziehen Sie den Aktivitätstyp auf die Entwurfsfläche oder kopieren Sie den Aktivitätstyp und fügen Sie ihn auf der Entwurfsfläche ein. Weitere Einzelheiten finden Sie unter Erstellen einer Aktivitäts- oder Toolinstanz in Komponentenwiederverwendung.
Eine vorhandene Snowflake Insert-Aktivität kann von diesen Orten aus bearbeitet werden:
- Die Entwurfsfläche (siehe Komponentenaktionsmenü in Entwurfsfläche).
- Der Komponenten-Tab im Projektbereich (siehe Komponentenaktionsmenü in Projektbereich Komponenten-Tab).
Konfigurieren einer Snowflake Insert-Aktivität
Befolgen Sie diese Schritte, um eine Snowflake Insert-Aktivität zu konfigurieren:
-
Schritt 1: Geben Sie einen Namen ein und wählen Sie ein Objekt aus
Geben Sie einen Namen für die Aktivität ein und wählen Sie ein Objekt aus, entweder eine Tabelle oder eine Ansicht. -
Schritt 2: Wählen Sie einen Ansatz aus
Verschiedene Ansätze werden unterstützt, um Daten in Snowflake einzufügen. Wählen Sie entweder Stage File oder SQL Insert. Wenn Sie den Ansatz Stage File verwenden, können Sie entweder die Dateitypen Amazon S3 oder Internal auswählen. -
Schritt 3: Überprüfen der Datenschemas
Alle Anforderungs- oder Antwortschemas, die vom Endpunkt generiert werden, werden angezeigt.
Schritt 1: Geben Sie einen Namen ein und wählen Sie ein Objekt aus
In diesem Schritt geben Sie einen Namen für die Aktivität ein und wählen eine Tabelle oder Ansicht aus (siehe Snowflakes Überblick über Ansichten). Jedes Benutzeroberflächenelement dieses Schrittes wird im Folgenden beschrieben.
-
Name: Geben Sie einen Namen ein, um die Aktivität zu identifizieren. Der Name muss für jede Snowflake Insert-Aktivität eindeutig sein und darf keine Schrägstriche
/
oder Doppelpunkte:
enthalten. -
Wählen Sie ein Objekt aus: Dieser Abschnitt zeigt die in der Snowflake-Schnittstelle verfügbaren Objekte an. Beim erneuten Öffnen einer bestehenden Aktivitätskonfiguration wird nur das ausgewählte Objekt angezeigt, anstatt die gesamte Objektliste neu zu laden.
-
Ausgewähltes Snowflake-Objekt: Nachdem ein Objekt ausgewählt wurde, wird es hier aufgelistet.
-
Suche: Geben Sie den Wert einer beliebigen Spalte in das Suchfeld ein, um die Liste der Objekte zu filtern. Die Suche ist nicht groß-/kleinschreibungsempfindlich. Wenn Objekte bereits in der Tabelle angezeigt werden, werden die Tabellenergebnisse in Echtzeit mit jedem Tastendruck gefiltert. Um Objekte aus der Schnittstelle beim Suchen neu zu laden, geben Sie Suchkriterien ein und aktualisieren Sie dann, wie unten beschrieben.
-
Aktualisieren: Klicken Sie auf das Aktualisierungssymbol oder das Wort Aktualisieren, um Objekte aus der Snowflake-Schnittstelle neu zu laden. Dies kann nützlich sein, wenn Objekte zu Snowflake hinzugefügt wurden. Diese Aktion aktualisiert alle Metadaten, die zum Erstellen der in der Konfiguration angezeigten Objekttabelle verwendet werden.
-
Ein Objekt auswählen: Klicken Sie innerhalb der Tabelle auf eine beliebige Stelle in einer Zeile, um ein Objekt auszuwählen. Es kann nur ein Objekt ausgewählt werden. Die für jedes Objekt verfügbaren Informationen werden von der Snowflake-Schnittstelle abgerufen:
-
Name: Der Name eines Objekts, entweder eine Tabelle oder eine Ansicht.
-
Typ: Der Typ des Objekts, entweder eine Tabelle oder eine Ansicht.
-
Tipp
Wenn die Tabelle nicht mit verfügbaren Objekten gefüllt wird, könnte die Snowflake-Verbindung nicht erfolgreich sein. Stellen Sie sicher, dass Sie verbunden sind, indem Sie die Verbindung erneut öffnen und die Anmeldeinformationen erneut testen.
-
-
Speichern & Beenden: Wenn aktiviert, klicken Sie, um die Konfiguration für diesen Schritt zu speichern und die Aktivitätskonfiguration zu schließen.
-
Weiter: Klicken Sie, um die Konfiguration für diesen Schritt vorübergehend zu speichern und zum nächsten Schritt fortzufahren. Die Konfiguration wird nicht gespeichert, bis Sie die Schaltfläche Fertig im letzten Schritt klicken.
-
Änderungen verwerfen: Nach Änderungen klicken Sie, um die Konfiguration zu schließen, ohne die vorgenommenen Änderungen zu speichern. Eine Nachricht fragt Sie, ob Sie die Änderungen wirklich verwerfen möchten.
Schritt 2: Wählen Sie einen Ansatz
Für das Einfügen von Daten in Snowflake werden verschiedene Ansätze unterstützt. Wählen Sie entweder SQL Insert oder Stage File. Wenn Sie den Ansatz Stage File verwenden, wählen Sie entweder die Dateitypen Amazon S3 oder Internal.
- SQL Insert-Ansatz
- Amazon S3 Stage File-Ansatz
- Google Cloud Storage Stage File-Ansatz
- Internal Stage File-Ansatz
- Microsoft Azure Stage File-Ansatz
SQL Insert-Ansatz
Für diesen Ansatz werden die Tabellenspalten im folgenden Datenschema-Schritt angezeigt, sodass sie in einer Transformation zugeordnet werden können.
-
Ansatz: Verwenden Sie das Dropdown-Menü, um SQL Insert auszuwählen.
-
Zurück: Klicken Sie, um zum vorherigen Schritt zurückzukehren und die Konfiguration vorübergehend zu speichern.
-
Weiter: Klicken Sie, um zum nächsten Schritt fortzufahren und die Konfiguration vorübergehend zu speichern. Die Konfiguration wird nicht gespeichert, bis Sie die Schaltfläche Fertig im letzten Schritt klicken.
-
Änderungen verwerfen: Nach dem Vornehmen von Änderungen klicken Sie, um die Konfiguration zu schließen, ohne die an einem Schritt vorgenommenen Änderungen zu speichern. Eine Nachricht fordert Sie auf, zu bestätigen, dass Sie die Änderungen verwerfen möchten.
Amazon S3 Stage File Ansatz
Dieser Ansatz ermöglicht es, eine CSV-Datei über eine Amazon S3-Quelle in Snowflake einzufügen. Die Datei wird zwischengespeichert und dann gemäß den Spezifikationen des Anforderungsdatenschemas in die Tabelle kopiert.
Für Informationen zum Anfordern von Daten von Amazon S3 siehe Anfragen stellen in der Amazon S3-Dokumentation.
-
Ansatz: Verwenden Sie das Dropdown-Menü, um Stage File auszuwählen.
-
Staging-Typ: Wählen Sie Amazon S3, um Daten aus dem Amazon S3-Speicher abzurufen.
-
Authentifizierungstyp: Wählen Sie entweder Credentials oder Storage Integration. Credentials erfordert die Amazon S3-Zugangs-ID und den geheimen Zugriffsschlüssel. Storage Integration benötigt nur den Namen der Speicherintegration. Diese Authentifizierungstypen werden im Folgenden behandelt.
Authentifizierung mit Anmeldeinformationen
Der Authentifizierungstyp Credentials erfordert die Amazon S3-Zugangs-ID und den geheimen Zugriffsschlüssel (für Informationen zum Anfordern von Daten von Amazon S3 siehe Anfragen stellen in der Amazon S3-Dokumentation).
-
Authentifizierungstyp: Wählen Sie Credentials.
-
Zugangs-ID: Geben Sie die Amazon S3-Zugangs-ID ein.
-
Geheimer Zugriffsschlüssel: Geben Sie den geheimen Zugriffsschlüssel für Amazon S3 ein.
Authentifizierung mit Speicherintegration
Die Storage Integration-Authentifizierung erfordert die Erstellung einer Snowflake-Speicherintegration. Informationen zur Erstellung einer Snowflake-Speicherintegration finden Sie in der Create Storage Integration in der Snowflake-Dokumentation.
-
Authentifizierungstyp: Wählen Sie Storage Integration.
-
Name der Speicherintegration: Geben Sie den Namen der Snowflake-Speicherintegration ein.
Zusätzliche Optionen
Für sowohl Anmeldeinformationen als auch Storage Integration-Authentifizierung gibt es diese zusätzlichen Optionen:
-
Bucket-Name: Geben Sie einen gültigen Bucket-Namen für einen vorhandenen Bucket auf dem Amazon S3-Server ein. Dies wird ignoriert, wenn
bucketName
im DatenschemaInsertAmazonS3Request
angegeben ist. -
Dateipfad: Geben Sie den Dateipfad ein.
-
Bei Fehler: Wählen Sie eine dieser Optionen aus dem Dropdown-Menü Bei Fehler; zusätzliche Optionen erscheinen entsprechend:
-
Abort_Statement: Bricht die Verarbeitung ab, wenn Fehler auftreten.
-
Continue: Setzt das Laden der Datei fort, auch wenn Fehler auftreten.
-
Skip_File: Überspringt die Datei, wenn Fehler in der Datei auftreten.
-
Skip_File_\<num>: Überspringt die Datei, wenn die Anzahl der Fehler in der Datei gleich oder größer ist als die in Skip File Number angegebene Zahl.
-
Skip_File_\<num>%: Überspringt die Datei, wenn der Prozentsatz der Fehler in der Datei den in Skip File Number Percentage angegebenen Prozentsatz überschreitet.
-
-
Fehler bei Spaltenanzahl-Mismatch: Wenn ausgewählt, wird ein Fehler im Fehlerknoten des Antwortschemas gemeldet, wenn die Quell- und Zielspaltenanzahl nicht übereinstimmt. Wenn Sie diese Option nicht auswählen, schlägt die Operation nicht fehl und die bereitgestellten Daten werden eingefügt.
-
Zurück: Klicken Sie, um zum vorherigen Schritt zurückzukehren und die Konfiguration vorübergehend zu speichern.
-
Weiter: Klicken Sie, um zum nächsten Schritt fortzufahren und die Konfiguration vorübergehend zu speichern. Die Konfiguration wird nicht gespeichert, bis Sie die Schaltfläche Fertig im letzten Schritt klicken.
-
Änderungen verwerfen: Klicken Sie nach Änderungen, um die Konfiguration zu schließen, ohne die Änderungen an einem Schritt zu speichern. Eine Nachricht fordert Sie auf, zu bestätigen, dass Sie die Änderungen verwerfen möchten.
Interne Stufen-Datei-Ansatz
Dieser Ansatz ermöglicht es, eine CSV-Datei in Snowflake einzufügen. Die Datei wird gestaged und dann gemäß den Spezifikationen des Anforderungsdatenschemas in die Tabelle kopiert.
-
Ansatz: Verwenden Sie das Dropdown-Menü, um Stufen-Datei auszuwählen.
-
Stufentyp: Wählen Sie Intern, um die Daten aus einer internen Quelle abzurufen.
-
Bei Fehler: Wählen Sie eine dieser Optionen aus dem Dropdown-Menü Bei Fehler; zusätzliche Optionen erscheinen entsprechend:
-
Abort_Statement: Bricht die Verarbeitung ab, wenn Fehler auftreten.
-
Fortfahren: Lädt die Datei weiter, auch wenn Fehler auftreten.
-
Datei_Überspringen: Überspringt die Datei, wenn Fehler in der Datei auftreten.
-
Datei_Überspringen_\<num>: Überspringt die Datei, wenn die Anzahl der Fehler in der Datei die in Überspringen-Dateinummer angegebene Zahl erreicht oder überschreitet.
-
Datei_Überspringen_\<num>%: Überspringt die Datei, wenn der Prozentsatz der Fehler in der Datei den in Überspringen-Dateinummer-Prozentsatz angegebenen Prozentsatz überschreitet.
-
-
Fehler bei Spaltenanzahl-Mismatch: Wenn ausgewählt, wird ein Fehler im Fehlerknoten des Antwortschemas gemeldet, wenn die Quell- und Zielspaltenanzahl nicht übereinstimmt. Wenn Sie diese Option nicht auswählen, schlägt die Operation nicht fehl und die bereitgestellten Daten werden eingefügt.
-
Zurück: Klicken Sie, um zum vorherigen Schritt zurückzukehren und die Konfiguration vorübergehend zu speichern.
-
Next: Klicken Sie, um zum nächsten Schritt fortzufahren und die Konfiguration vorübergehend zu speichern. Die Konfiguration wird nicht gespeichert, bis Sie die Schaltfläche Fertig im letzten Schritt klicken.
-
Discard Changes: Nachdem Sie Änderungen vorgenommen haben, klicken Sie, um die Konfiguration zu schließen, ohne die Änderungen an einem Schritt zu speichern. Eine Nachricht fordert Sie auf, zu bestätigen, dass Sie die Änderungen verwerfen möchten.
Google Cloud Storage Stage File Ansatz
Dieser Ansatz ermöglicht es, eine CSV-Datei in Google Cloud Storage einzufügen. Die Datei wird zwischengespeichert und dann gemäß den Spezifikationen des Anforderungsdatenschemas in die Tabelle kopiert.
-
Approach: Verwenden Sie das Dropdown-Menü, um Stage File auszuwählen.
-
Stage Type: Wählen Sie Google Cloud Storage, um die Daten aus einer internen Quelle abzurufen.
-
Storage Integration Name: Geben Sie den Namen der Snowflake-Speicherintegration ein.
-
Bucket-Name: Geben Sie einen gültigen Bucket-Namen für einen vorhandenen Bucket in Google Cloud Storage ein. Dies wird ignoriert, wenn
bucketName
im DatenschemaInsertGoogleCloudRequest
angegeben ist. -
Dateipfad: Geben Sie den Dateipfad ein.
-
Bei Fehler: Wählen Sie eine dieser Optionen aus dem Dropdown-Menü Bei Fehler; zusätzliche Optionen erscheinen entsprechend:
-
Abort_Statement: Bricht die Verarbeitung ab, wenn Fehler auftreten.
-
Continue: Setzt das Laden der Datei fort, auch wenn Fehler auftreten.
-
Skip_File: Überspringt die Datei, wenn Fehler in der Datei auftreten.
-
Skip_File_\<num>: Überspringt die Datei, wenn die Anzahl der Fehler in der Datei gleich oder größer ist als die in Überspringen Dateinummer angegebene Zahl.
-
Skip_File_\<num>%: Überspringt die Datei, wenn der Prozentsatz der Fehler in der Datei den in Überspringen Dateinummer Prozentsatz angegebenen Prozentsatz überschreitet.
-
-
Fehler bei der Spaltenanzahl: Wenn ausgewählt, wird ein Fehler im Fehlerknoten des Antwortschemas gemeldet, wenn die Spaltenanzahlen von Quelle und Ziel nicht übereinstimmen. Wenn Sie diese Option nicht auswählen, schlägt die Operation nicht fehl und die bereitgestellten Daten werden eingefügt.
-
Zurück: Klicken Sie, um zum vorherigen Schritt zurückzukehren und die Konfiguration vorübergehend zu speichern.
-
Weiter: Klicken Sie, um zum nächsten Schritt fortzufahren und die Konfiguration vorübergehend zu speichern. Die Konfiguration wird nicht gespeichert, bis Sie auf die Schaltfläche Fertig im letzten Schritt klicken.
-
Änderungen verwerfen: Nach Änderungen klicken Sie, um die Konfiguration zu schließen, ohne die vorgenommenen Änderungen zu speichern. Eine Nachricht fordert Sie auf, zu bestätigen, dass Sie die Änderungen verwerfen möchten.
Microsoft Azure Stage File Ansatz
Dieser Ansatz ermöglicht es, eine CSV-Datei in Snowflake mithilfe einer Microsoft Azure-Quelle einzufügen. Die Datei wird gestaged und dann gemäß den Spezifikationen des Anfragedatenschemas in die Tabelle kopiert.
-
Ansatz: Verwenden Sie das Dropdown-Menü, um Stage File auszuwählen.
-
Stage-Typ: Wählen Sie Microsoft Azure, um Daten aus Microsoft Azure-Speichercontainern abzurufen.
-
Authentifizierungstyp: Wählen Sie entweder Anmeldeinformationen oder Speicherintegration. Anmeldeinformationen erfordern ein Microsoft Azure Shared Access Signature (SAS)-Token und einen Speicherkontonamen. Speicherintegration erfordert nur einen Namen für die Speicherintegration. Diese Authentifizierungstypen werden im Folgenden behandelt.
Anmeldeinformationen-Authentifizierung
Der Authentifizierungstyp Anmeldeinformationen erfordert ein Microsoft Azure SAS-Token und einen Speicherkontonamen.
-
Authentifizierungstyp: Wählen Sie Anmeldeinformationen.
-
Azure SAS-Token: Geben Sie das Microsoft Azure SAS-Token ein. Informationen zur Erstellung von SAS-Token für Speicherkonten in Microsoft Azure finden Sie in Erstellen von SAS-Token für Ihre Speicherkonten in der Microsoft Azure-Dokumentation.
-
Speicherkonto-Name: Geben Sie den Namen des Microsoft Azure-Speicherkontos ein.
Speicherung Integrationsauthentifizierung
Der Authentifizierungstyp Storage Integration erfordert die Erstellung einer Snowflake-Speicherintegration. Informationen zur Erstellung einer Snowflake-Speicherintegration finden Sie in Erstellen einer Speicherintegration in der Snowflake-Dokumentation.
-
Authentifizierungstyp: Wählen Sie Storage Integration.
-
Name der Speicherintegration: Geben Sie den Namen der Snowflake-Speicherintegration ein.
Zusätzliche Optionen
Für die Authentifizierung mit Anmeldeinformationen und Storage Integration gibt es diese zusätzlichen Optionen:
-
Master-Schlüssel: Geben Sie den Master-Schlüssel ein, der für die clientseitige Verschlüsselung (CSE) in Microsoft Azure verwendet wird. Dies wird ignoriert, wenn
azureMasterKey
im DatenschemaInsertMicrosoftAzureCloudRequest
bereitgestellt wird.Hinweis
Informationen zur Erstellung von Schlüsseln in Microsoft Azure finden Sie in Schnellstart: Einen Schlüssel im Azure Key Vault über das Azure-Portal festlegen und abrufen in der Microsoft Azure-Dokumentation.
Für Informationen zur Speicherung von CSE in Microsoft Azure siehe Client-seitige Verschlüsselung für Blobs in der Microsoft Azure-Dokumentation.
-
Containername: Geben Sie einen gültigen Bucket-Namen für einen vorhandenen Speicherkontainer in Microsoft Azure ein. Dies wird ignoriert, wenn
containerName
im DatenschemaInsertMicrosoftAzureCloudRequest
angegeben ist. -
Dateipfad: Geben Sie den Dateipfad ein.
-
Bei Fehler: Wählen Sie eine dieser Optionen aus dem Dropdown-Menü Bei Fehler; zusätzliche Optionen erscheinen entsprechend:
-
Abort_Statement: Bricht die Verarbeitung ab, wenn Fehler auftreten.
-
Fortfahren: Setzt das Laden der Datei fort, auch wenn Fehler auftreten.
-
Datei_Überspringen: Überspringt die Datei, wenn Fehler in der Datei auftreten.
-
Datei_Überspringen_\<num>: Überspringt die Datei, wenn die Anzahl der Fehler in der Datei die in Überspringen Dateinummer angegebene Zahl erreicht oder überschreitet.
-
Datei_Überspringen_\<num>%: Überspringt die Datei, wenn der Prozentsatz der Fehler in der Datei den in Überspringen Dateinummer Prozentsatz angegebenen Prozentsatz überschreitet.
-
-
Fehler bei Spaltenanzahl-Mismatch: Wenn ausgewählt, wird ein Fehler im Fehlerknoten des Antwortschemas gemeldet, wenn die Quell- und Zielspaltenanzahl nicht übereinstimmt. Wenn Sie diese Option nicht auswählen, schlägt die Operation nicht fehl und die bereitgestellten Daten werden eingefügt.
-
Zurück: Klicken Sie, um zum vorherigen Schritt zurückzukehren und die Konfiguration vorübergehend zu speichern.
-
Weiter: Klicken Sie, um zum nächsten Schritt fortzufahren und die Konfiguration vorübergehend zu speichern. Die Konfiguration wird nicht gespeichert, bis Sie die Schaltfläche Fertig im letzten Schritt klicken.
-
Änderungen verwerfen: Klicken Sie, um die Konfiguration zu schließen, ohne die an einem Schritt vorgenommenen Änderungen zu speichern. Eine Nachricht fragt Sie, ob Sie die Änderungen wirklich verwerfen möchten.
Schritt 3: Überprüfen der Datenschemas
Die Anforderungs- und Antwortschemas, die von dem Endpunkt generiert wurden, werden angezeigt. Die angezeigten Schemata hängen von dem im vorherigen Schritt angegebenen Ansatz ab.
Diese Unterabschnitte beschreiben die Anforderungs- und Antwortstrukturen für jede Kombination aus Ansatz und Stufentyp:
- SQL Insert-Ansatz
- Amazon S3 Stufen-Datei-Ansatz
- Google Cloud Storage Stufen-Datei-Ansatz
- Interner Stufen-Datei-Ansatz
- Microsoft Azure Stufen-Datei-Ansatz
Diese Aktionen sind mit jedem Ansatz verfügbar:
-
Daten-Schemas: Diese Daten-Schemas werden von benachbarten Transformationen geerbt und während der Transformationszuordnung erneut angezeigt.
Hinweis
Daten, die in einer Transformation bereitgestellt werden, haben Vorrang vor der Aktivitätskonfiguration.
Tipp
Wenn ein einzelnes Anführungszeichen (
'
) in einer Anforderungsnutzlast vorhanden ist, wird zur Laufzeit ein Syntaxfehler zurückgegeben. Sie können die Einstellung Sonderzeichen escapen in der Verbindung aktivieren, um der Aktivität zu ermöglichen, einzelne Anführungszeichen ('
) zur Laufzeit automatisch zu escapen.Der Snowflake-Connector verwendet Version 3.19.0 des Snowflake JDBC-Treibers und die Snowflake SQL-Befehle. Weitere Informationen zu den Schema-Knoten und -Feldern finden Sie in der API-Dokumentation.
-
Aktualisieren: Klicken Sie auf das Aktualisierungssymbol oder das Wort Aktualisieren, um die Schemata vom Snowflake-Endpunkt neu zu generieren. Diese Aktion regeneriert auch ein Schema an anderen Stellen im Projekt, an denen dasselbe Schema referenziert wird, z. B. in einer benachbarten Transformation.
-
Zurück: Klicken Sie, um die Konfiguration für diesen Schritt vorübergehend zu speichern und zum vorherigen Schritt zurückzukehren.
-
Fertig: Klicken Sie, um die Konfiguration für alle Schritte zu speichern und die Aktivitätskonfiguration zu schließen.
-
Änderungen verwerfen: Nach dem Vornehmen von Änderungen klicken Sie, um die Konfiguration zu schließen, ohne die Änderungen an einem Schritt zu speichern. Eine Nachricht fordert Sie auf, zu bestätigen, dass Sie die Änderungen verwerfen möchten.
SQL Insert-Ansatz
Wenn der Ansatz SQL Insert ist, werden die Tabellen-Spalten angezeigt, die in einer Transformation zugeordnet werden können.
-
Anfrage
Anfrage-Schema-Feld/Knoten Hinweise table
Knoten, der den Tabellennamen anzeigt. column_A
Name der ersten Tabellen-Spalte. column_B
Name der zweiten Tabellen-Spalte. . . .
Folgende Tabellen-Spalten. -
Antwort
Antwort-Schema-Feld/Knoten Hinweise status
Boolean-Flag, das angibt, ob die Datensatz-Einfügung erfolgreich war. errorMessage
Beschreibende Fehlermeldung, falls ein Fehler während der Einfügung auftritt. recordsInserted
Anzahl der eingefügten Datensätze, falls die Einfügung erfolgreich war.
Amazon S3 Stage File-Ansatz
Wenn der Ansatz Amazon S3 Stage File ist, werden die Spezifikationen für das Staging und Einfügen einer CSV-Datei im Datenschema angezeigt, sodass sie in einer Transformation zugeordnet werden können. Das verwendete Muster dient dazu, nur eine Datei zuzuordnen. Wenn das Muster mit mehr als einer Datei übereinstimmt, tritt bei der Aktivität ein Fehler mit einer beschreibenden Nachricht auf.
-
Anfrage
Anfrage-Schema Feld/Knoten Hinweise accessKey
Amazon S3 Zugangs-Schlüssel-ID. secretAccessKey
Amazon S3 Geheimzugangs-Schlüssel. storageintegrationName
Name der Snowflake-Speicherintegration, die für die Authentifizierung der Snowflake-Speicherintegration verwendet werden soll. bucketName
Gültiger Bucket-Name für einen vorhandenen Bucket auf dem Amazon S3-Server. filePath
Speicherort der Stage-Datei im Amazon S3-Bucket. pattern
Regulärer Ausdruck, der zum Finden der Datei auf der Stage verwendet wird; wenn compression
GZIP
ist, wird[.]gz
an das Muster angehängt.onError
Bei Fehler ausgewählte Option. encryption
Knoten, der die Verschlüsselung darstellt. encryptionType
Amazon S3 Verschlüsselungstyp (entweder serverseitige Verschlüsselung oder clientseitige Verschlüsselung). masterKey
Amazon S3 Master-Schlüssel. kmsKeyId
Amazon Key Management Service Master-ID. fileFormat
Knoten, der das Dateiformat darstellt. nullIf
Ein String, der in SQL NULL
umgewandelt werden soll; standardmäßig ist es ein leerer String. Siehe dieNULL_IF
-Option der SnowflakeCOPY INTO
<location>
Dokumentation.enclosingChar
Zeichen, das verwendet wird, um Datenfelder einzuschließen; siehe die FIELD_OPTIONALLY_ENCLOSED_BY
-Option der SnowflakeCOPY INTO
<location>
Dokumentation.Hinweis
Das
enclosingChar
kann entweder ein einfaches Anführungszeichen'
oder ein doppeltes Anführungszeichen"
sein. Um das einfache Anführungszeichen zu verwenden, verwenden Sie entweder die oktale'
oder die hexadezimale0x27
Darstellung oder verwenden Sie eine doppelte einfache Anführungszeichen-Escape''
. Wenn ein Feld dieses Zeichen enthält, escapen Sie es mit demselben Zeichen.compression
Der Komprimierungsalgorithmus, der für die Datendateien verwendet wird. GZIP
oderNONE
werden unterstützt. Siehe die Komprimierungsoption der SnowflakeCOPY INTO
<location>
Dokumentation.skipHeader
Anzahl der Zeilen am Anfang der Quelldatei, die übersprungen werden sollen. errorOnColumnCountMismatch
Boolean-Flag, um einen Fehler zu melden, wenn die Quell- und Zielanzahl des Antwortschemas nicht übereinstimmen. fieldDelimiter
Das Trennzeichen, das verwendet wird, um Datenfelder zu trennen; siehe die FIELD_DELIMITER
-Option der SnowflakeCOPY INTO
<table>
Dokumentation.recordDelimiter
Das Trennzeichen, das verwendet wird, um Gruppen von Feldern zu trennen; siehe die RECORD_DELIMITER
-Option der SnowflakeCOPY INTO
<table>
Dokumentation. -
Antwort
Antwortschema Feld/Knoten Hinweise status
Zurückgegebener Status. file
Name der gestellten CSV-Datei, die beim Einfügen von Daten in die Snowflake-Tabelle verarbeitet wurde. rows_parsed
Anzahl der aus der CSV-Datei geparsten Zeilen. rows_loaded
Anzahl der ohne Fehler aus der CSV-Datei in die Snowflake-Tabelle geladenen Zeilen. error
Knoten, der die Fehlermeldungen darstellt. error_limit
Anzahl der Fehler, die dazu führen, dass die Datei übersprungen wird, wie in Skip_File_\<num> festgelegt. errors_seen
Anzahl der gesehenen Fehler. first_error
Der erste Fehler in der Quelldatei. first_error_line
Die erste Zeilennummer des ersten Fehlers. first_error_character
Das erste Zeichen des ersten Fehlers. first_error_column_name
Der Spaltenname des ersten Fehlerorts.
Google Cloud Storage Stage File-Ansatz
Wenn der Ansatz Google Cloud Storage Stage File ist, werden die Spezifikationen für das Staging und Einfügen einer CSV-Datei im Datenschema angezeigt, damit sie in einer Transformation zugeordnet werden können. Das verwendete Muster ist so gestaltet, dass nur eine Datei übereinstimmt. Wenn das Muster mit mehr als einer Datei übereinstimmt, tritt ein Fehler mit einer beschreibenden Nachricht auf.
-
Anfrage
Anfrage-Schema Feld/Knoten Anmerkungen storageintegrationName
Name der Snowflake-Speicherintegration, die für die Authentifizierung der Snowflake-Speicherintegration verwendet werden soll. bucketName
Gültiger Bucket-Name für einen vorhandenen Bucket in Google Cloud Storage. filePath
Speicherort der Stufen-Datei im Google Cloud Storage-Bucket. pattern
Regulärer Ausdruck, der zum Finden der Datei auf der Stufe verwendet wird; wenn compressData
wahr ist, wird[.]gz
an das Muster angehängt.onError
Bei Fehler ausgewählte Option. fileFormat
Knoten, der das Dateiformat darstellt. nullIf
Ein String, der in SQL NULL
umgewandelt werden soll; standardmäßig ist es ein leerer String. Siehe dieNULL_IF
-Option der SnowflakeCOPY INTO
<location>
Dokumentation.enclosingChar
Zeichen, das verwendet wird, um Datenfelder einzuschließen; siehe die FIELD_OPTIONALLY_ENCLOSED_BY
-Option der SnowflakeCOPY INTO
<location>
Dokumentation.Hinweis
Das
enclosingChar
kann entweder ein einfaches Anführungszeichen'
oder ein doppeltes Anführungszeichen"
sein. Um das einfache Anführungszeichen zu verwenden, verwenden Sie entweder die oktale'
oder die hexadezimale0x27
Darstellung oder verwenden Sie eine doppelte einfache Anführungszeichen-Escape''
. Wenn ein Feld dieses Zeichen enthält, escapen Sie es mit demselben Zeichen.compression
Der Komprimierungsalgorithmus, der für die Datendateien verwendet wird. GZIP
oderNONE
werden unterstützt. Siehe die Komprimierungsoption der SnowflakeCOPY INTO
<location>
Dokumentation.skipHeader
Anzahl der Zeilen am Anfang der Quelldatei, die übersprungen werden sollen. errorOnColumnCountMismatch
Boolean-Flag, um einen Fehler zu melden, wenn die Quell- und Zielanzahl des Antwortschemas nicht übereinstimmen. fieldDelimiter
Das Trennzeichen, das verwendet wird, um Datenfelder zu trennen; siehe die FIELD_DELIMITER
-Option der SnowflakeCOPY INTO
<table>
Dokumentation.recordDelimiter
Das Trennzeichen, das verwendet wird, um Gruppen von Feldern zu trennen; siehe die RECORD_DELIMITER
-Option der SnowflakeCOPY INTO
<table>
Dokumentation. -
Antwort
Antwort-Schema Feld/Knoten Hinweise status
Zurückgegebener Status. file
Name der gestellten CSV-Datei, die beim Einfügen von Daten in die Snowflake-Tabelle verarbeitet wurde. rows_parsed
Anzahl der aus der CSV-Datei geparsten Zeilen. rows_loaded
Anzahl der ohne Fehler aus der CSV-Datei in die Snowflake-Tabelle geladenen Zeilen. error
Knoten, der die Fehlermeldungen darstellt. error_limit
Anzahl der Fehler, die dazu führen, dass die Datei übersprungen wird, wie in Skip_File_\<num> festgelegt. errors_seen
Anzahl der gesehenen Fehler. first_error
Der erste Fehler in der Quelldatei. first_error_line
Die erste Zeilennummer des ersten Fehlers. first_error_character
Das erste Zeichen des ersten Fehlers. first_error_column_name
Der Spaltenname des ersten Fehlerorts.
Interner Staging-Dateiansatz
Wenn der Ansatz Interner Staging-Datei ist, werden die Spezifikationen für das Staging und Einfügen einer CSV-Datei im Datenschema angezeigt, damit sie in einer Transformation zugeordnet werden können. Das verwendete Muster ist so gestaltet, dass nur eine Datei übereinstimmt. Wenn das Muster mit mehr als einer Datei übereinstimmt, tritt ein Fehler mit einer beschreibenden Nachricht auf.
-
Anfrage
Anfrage-Schema Feld/Knoten Hinweise stageName
Interne Snowflake-Stufe, Tabellenname oder Pfad. destinationPrefix
Pfad oder Präfix, unter dem die Daten auf der Snowflake-Stufe hochgeladen werden. fileContent
Dateninhalte der Datei im CSV-Format, die für den Upload in die Snowflake-Tabelle vorbereitet werden sollen. destinationFileName
Ziel-Dateiname, der auf der Snowflake-Stufe verwendet werden soll. compressData
Boolean-Flag, ob die Daten vor dem Hochladen in die interne Snowflake-Stufe komprimiert werden sollen. pattern
Regulärer Ausdruck, der zum Finden der Datei auf der Stufe verwendet wird; wenn compressData
wahr ist, wird[.]gz
an das Muster angehängt.onError
Bei Fehler ausgewählte Option. fileFormat
Knoten, der das Dateiformat darstellt. nullIf
Ein String, der in SQL NULL
umgewandelt werden soll; standardmäßig ist es ein leerer String. Siehe dieNULL_IF
-Option der SnowflakeCOPY INTO
<location>
Dokumentation.enclosingChar
Zeichen, das verwendet wird, um Datenfelder einzuschließen; siehe die FIELD_OPTIONALLY_ENCLOSED_BY
-Option der SnowflakeCOPY INTO
<location>
Dokumentation.Hinweis
Das
enclosingChar
kann entweder ein einfaches Anführungszeichen'
oder ein doppeltes Anführungszeichen"
sein. Um das einfache Anführungszeichen zu verwenden, verwenden Sie entweder die oktale'
oder die hexadezimale0x27
Darstellung oder verwenden Sie eine doppelte einfache Anführungszeichen-Escape''
. Wenn ein Feld dieses Zeichen enthält, escapen Sie es mit demselben Zeichen.errorOnColumnCountMismatch
Boolean-Flag, um einen Fehler zu melden, wenn die Quell- und Zielanzahl des Antwortschemas nicht übereinstimmen. fieldDelimiter
Das Trennzeichen, das verwendet wird, um Datenfelder zu trennen; siehe die FIELD_DELIMITER
-Option der SnowflakeCOPY INTO
<table>
Dokumentation.recordDelimiter
Das Trennzeichen, das verwendet wird, um Gruppen von Feldern zu trennen; siehe die RECORD_DELIMITER
-Option der SnowflakeCOPY INTO
<table>
Dokumentation. -
Antwort
Antwortschema Feld/Knoten Hinweise file
Name der gestellten CSV-Datei, die verarbeitet wird, wenn Daten in die Snowflake-Tabelle eingefügt werden. status
Zurückgegebener Status. rowsParsed
Anzahl der aus der CSV-Datei geparsten Zeilen. rowsLoaded
Anzahl der ohne Fehler aus der CSV-Datei in die Snowflake-Tabelle geladenen Zeilen. error
Knoten, der die Fehlermeldungen darstellt. error
Die Fehlermeldung. code
Der zurückgegebene Fehlercode. sqlState
Der zurückgegebene numerische SQL-Zustandsfehlercode des Datenbankaufrufs. file
Knoten, der die Fehlermeldungen darstellt. columnName
Name und Reihenfolge der Spalte, die den Fehler enthielt. rowNumber
Die Nummer der Zeile in der Quelldatei, in der der Fehler aufgetreten ist. rowStartLine
Die Nummer der ersten Zeile der Zeile, in der der Fehler aufgetreten ist.
Microsoft Azure Stage File-Ansatz
Wenn der Ansatz Microsoft Azure Stage File ist, werden die Spezifikationen für das Staging und Einfügen einer CSV-Datei im Datenschema angezeigt, damit sie in einer Transformation zugeordnet werden können. Das verwendete Muster ist so gestaltet, dass nur eine Datei übereinstimmt. Wenn das Muster mit mehr als einer Datei übereinstimmt, wird die Aktivität mit einer beschreibenden Fehlermeldung fehlschlagen.
-
Anfrage
Anfrage-Schema Feld/Knoten Hinweise azureSasToken
Microsoft Azure Shared Access Signature (SAS) Token. azureStorageAccountName
Microsoft Azure Storage-Konto-Name. azureStorageintegrationName
Name der Snowflake-Speicherintegration, die für die Authentifizierung der Snowflake-Speicherintegration verwendet werden soll. containerName
Gültiger Containername für einen vorhandenen Speichercontainer in Microsoft Azure. filePath
Speicherort der Stufen-Datei im Microsoft Azure-Speichercontainer. pattern
Regulärer Ausdruck, der zum Finden der Datei auf der Stufe verwendet wird; wenn compression
GZIP
ist, wird[.]gz
an das Muster angehängt.onError
Bei Fehler ausgewählte Option. encryption
Knoten, der die Verschlüsselung darstellt. encryptionType
Microsoft Azure-Verschlüsselungstyp (nur clientseitige Verschlüsselung). azureMasterKey
Microsoft Azure Master-Schlüssel. fileFormat
Knoten, der das Dateiformat darstellt. nullIf
Ein String, der in SQL NULL
umgewandelt werden soll; standardmäßig ist es ein leerer String. Siehe dieNULL_IF
-Option der SnowflakeCOPY INTO
<location>
Dokumentation.enclosingChar
Zeichen, das verwendet wird, um Datenfelder einzuschließen; siehe die FIELD_OPTIONALLY_ENCLOSED_BY
-Option der SnowflakeCOPY INTO
<location>
Dokumentation.Hinweis
Das
enclosingChar
kann entweder ein einfaches Anführungszeichen'
oder ein doppeltes Anführungszeichen"
sein. Um das einfache Anführungszeichen zu verwenden, verwenden Sie entweder die oktale'
oder die hexadezimale0x27
Darstellung oder verwenden Sie eine doppelte einfache Anführungszeichen-Escape''
. Wenn ein Feld dieses Zeichen enthält, escapen Sie es mit demselben Zeichen.compression
Der Komprimierungsalgorithmus, der für die Daten-Dateien verwendet wird. GZIP
oderNONE
werden unterstützt. Siehe die Komprimierungsoption der SnowflakeCOPY INTO
<location>
Dokumentation.skipHeader
Anzahl der Zeilen am Anfang der Quelldatei, die übersprungen werden sollen. errorOnColumnCountMismatch
Boolean-Flag, um einen Fehler zu melden, wenn die Quell- und Zielanzahl des Antwortschemas nicht übereinstimmen. fieldDelimiter
Das Trennzeichen, das verwendet wird, um Datenfelder zu trennen; siehe die FIELD_DELIMITER
-Option der SnowflakeCOPY INTO
<table>
Dokumentation.recordDelimiter
Das Trennzeichen, das verwendet wird, um Gruppen von Feldern zu trennen; siehe die RECORD_DELIMITER
-Option der SnowflakeCOPY INTO
<table>
Dokumentation. -
Antwort
Antwort-Schema-Feld/Knoten Hinweise status
Zurückgegebener Status. file
Name der gestellten CSV-Datei, die beim Einfügen von Daten in die Snowflake-Tabelle verarbeitet wurde. rows_parsed
Anzahl der aus der CSV-Datei geparsten Zeilen. rows_loaded
Anzahl der ohne Fehler aus der CSV-Datei in die Snowflake-Tabelle geladenen Zeilen. error
Knoten, der die Fehlermeldungen darstellt. error_limit
Anzahl der Fehler, die dazu führen, dass die Datei übersprungen wird, wie in Skip_File_\<num> festgelegt. errors_seen
Anzahl der gesehenen Fehler. first_error
Der erste Fehler in der Quelldatei. first_error_line
Die erste Zeilennummer des ersten Fehlers. first_error_character
Das erste Zeichen des ersten Fehlers. first_error_column_name
Der Spaltenname des ersten Fehlerorts.
Nächste Schritte
Nachdem Sie eine Snowflake Insert-Aktivität konfiguriert haben, vervollständigen Sie die Konfiguration der Operation, indem Sie andere Aktivitäten oder Werkzeuge als operationale Schritte hinzufügen und konfigurieren. Sie können auch die Betriebseinstellungen konfigurieren, die die Möglichkeit umfassen, Operationen zusammenzuführen, die sich in denselben oder unterschiedlichen Workflows befinden.
Menüaktionen für eine Aktivität sind im Projektbereich und auf der Entwurfsgrafik zugänglich. Für Details siehe Aktionsmenü für Aktivitäten in Connector-Grundlagen.
Snowflake Insert-Aktivitäten können als Ziel mit diesen Betriebsmustern verwendet werden:
- Transformationsmuster
- Zwei-Transformationsmuster (als erstes oder zweites Ziel)
Um die Aktivität mit Skriptfunktionen zu verwenden, schreiben Sie die Daten an einen temporären Ort und verwenden Sie dann diesen temporären Ort in der Skriptfunktion.
Wenn Sie bereit sind, bereitstellen und ausführen Sie den Vorgang und validieren Sie das Verhalten, indem Sie die Betriebsprotokolle überprüfen.