Zum Inhalt springen

Snowflake Insert-Aktivität

Einführung

Eine Snowflake Insert-Aktivität, die ihre Snowflake-Verbindung verwendet, fügt Tabellendaten (entweder als CSV-Datei oder direkt auf Spalten einer Tabelle abgebildet) in Snowflake ein und ist als Ziel gedacht, um Daten in einem Vorgang zu konsumieren.

Erstellen einer Snowflake Insert-Aktivität

Eine Instanz einer Snowflake Insert-Aktivität wird aus einer Snowflake-Verbindung unter Verwendung des Aktivitätstyps Insert erstellt.

Um eine Instanz einer Aktivität zu erstellen, ziehen Sie den Aktivitätstyp auf die Entwurfsfläche oder kopieren Sie den Aktivitätstyp und fügen Sie ihn auf der Entwurfsfläche ein. Weitere Einzelheiten finden Sie unter Erstellen einer Aktivitäts- oder Toolinstanz in Komponentenwiederverwendung.

Eine vorhandene Snowflake Insert-Aktivität kann von diesen Orten aus bearbeitet werden:

Konfigurieren einer Snowflake Insert-Aktivität

Befolgen Sie diese Schritte, um eine Snowflake Insert-Aktivität zu konfigurieren:

Schritt 1: Geben Sie einen Namen ein und wählen Sie ein Objekt aus

In diesem Schritt geben Sie einen Namen für die Aktivität ein und wählen eine Tabelle oder Ansicht aus (siehe Snowflakes Überblick über Ansichten). Jedes Benutzeroberflächenelement dieses Schrittes wird im Folgenden beschrieben.

Snowflake Insert-Aktivitätskonfiguration Schritt 1

  • Name: Geben Sie einen Namen ein, um die Aktivität zu identifizieren. Der Name muss für jede Snowflake Insert-Aktivität eindeutig sein und darf keine Schrägstriche / oder Doppelpunkte : enthalten.

  • Wählen Sie ein Objekt aus: Dieser Abschnitt zeigt die in der Snowflake-Schnittstelle verfügbaren Objekte an. Beim erneuten Öffnen einer bestehenden Aktivitätskonfiguration wird nur das ausgewählte Objekt angezeigt, anstatt die gesamte Objektliste neu zu laden.

    • Ausgewähltes Snowflake-Objekt: Nachdem ein Objekt ausgewählt wurde, wird es hier aufgelistet.

    • Suche: Geben Sie den Wert einer beliebigen Spalte in das Suchfeld ein, um die Liste der Objekte zu filtern. Die Suche ist nicht groß-/kleinschreibungsempfindlich. Wenn Objekte bereits in der Tabelle angezeigt werden, werden die Tabellenergebnisse in Echtzeit mit jedem Tastendruck gefiltert. Um Objekte aus der Schnittstelle beim Suchen neu zu laden, geben Sie Suchkriterien ein und aktualisieren Sie dann, wie unten beschrieben.

    • Aktualisieren: Klicken Sie auf das Aktualisierungssymbol oder das Wort Aktualisieren, um Objekte aus der Snowflake-Schnittstelle neu zu laden. Dies kann nützlich sein, wenn Objekte zu Snowflake hinzugefügt wurden. Diese Aktion aktualisiert alle Metadaten, die zum Erstellen der in der Konfiguration angezeigten Objekttabelle verwendet werden.

    • Ein Objekt auswählen: Klicken Sie innerhalb der Tabelle auf eine beliebige Stelle in einer Zeile, um ein Objekt auszuwählen. Es kann nur ein Objekt ausgewählt werden. Die für jedes Objekt verfügbaren Informationen werden von der Snowflake-Schnittstelle abgerufen:

      • Name: Der Name eines Objekts, entweder eine Tabelle oder eine Ansicht.

      • Typ: Der Typ des Objekts, entweder eine Tabelle oder eine Ansicht.

    Tipp

    Wenn die Tabelle nicht mit verfügbaren Objekten gefüllt wird, könnte die Snowflake-Verbindung nicht erfolgreich sein. Stellen Sie sicher, dass Sie verbunden sind, indem Sie die Verbindung erneut öffnen und die Anmeldeinformationen erneut testen.

  • Speichern & Beenden: Wenn aktiviert, klicken Sie, um die Konfiguration für diesen Schritt zu speichern und die Aktivitätskonfiguration zu schließen.

  • Weiter: Klicken Sie, um die Konfiguration für diesen Schritt vorübergehend zu speichern und zum nächsten Schritt fortzufahren. Die Konfiguration wird nicht gespeichert, bis Sie die Schaltfläche Fertig im letzten Schritt klicken.

  • Änderungen verwerfen: Nach Änderungen klicken Sie, um die Konfiguration zu schließen, ohne die vorgenommenen Änderungen zu speichern. Eine Nachricht fragt Sie, ob Sie die Änderungen wirklich verwerfen möchten.

Schritt 2: Wählen Sie einen Ansatz

Für das Einfügen von Daten in Snowflake werden verschiedene Ansätze unterstützt. Wählen Sie entweder SQL Insert oder Stage File. Wenn Sie den Ansatz Stage File verwenden, wählen Sie entweder die Dateitypen Amazon S3 oder Internal.

SQL Insert-Ansatz

Für diesen Ansatz werden die Tabellenspalten im folgenden Datenschema-Schritt angezeigt, sodass sie in einer Transformation zugeordnet werden können.

Snowflake Insert-Aktivitätskonfiguration Schritt 2 SQL Insert-Ansatz

  • Ansatz: Verwenden Sie das Dropdown-Menü, um SQL Insert auszuwählen.

  • Zurück: Klicken Sie, um zum vorherigen Schritt zurückzukehren und die Konfiguration vorübergehend zu speichern.

  • Weiter: Klicken Sie, um zum nächsten Schritt fortzufahren und die Konfiguration vorübergehend zu speichern. Die Konfiguration wird nicht gespeichert, bis Sie die Schaltfläche Fertig im letzten Schritt klicken.

  • Änderungen verwerfen: Nach dem Vornehmen von Änderungen klicken Sie, um die Konfiguration zu schließen, ohne die an einem Schritt vorgenommenen Änderungen zu speichern. Eine Nachricht fordert Sie auf, zu bestätigen, dass Sie die Änderungen verwerfen möchten.

Amazon S3 Stage File Ansatz

Dieser Ansatz ermöglicht es, eine CSV-Datei über eine Amazon S3-Quelle in Snowflake einzufügen. Die Datei wird zwischengespeichert und dann gemäß den Spezifikationen des Anforderungsdatenschemas in die Tabelle kopiert.

Für Informationen zum Anfordern von Daten von Amazon S3 siehe Anfragen stellen in der Amazon S3-Dokumentation.

Snowflake Insert-Aktivitätskonfiguration Schritt 2 Amazon S3 Stage File Ansatz

  • Ansatz: Verwenden Sie das Dropdown-Menü, um Stage File auszuwählen.

  • Staging-Typ: Wählen Sie Amazon S3, um Daten aus dem Amazon S3-Speicher abzurufen.

  • Authentifizierungstyp: Wählen Sie entweder Credentials oder Storage Integration. Credentials erfordert die Amazon S3-Zugangs-ID und den geheimen Zugriffsschlüssel. Storage Integration benötigt nur den Namen der Speicherintegration. Diese Authentifizierungstypen werden im Folgenden behandelt.

Authentifizierung mit Anmeldeinformationen

Der Authentifizierungstyp Credentials erfordert die Amazon S3-Zugangs-ID und den geheimen Zugriffsschlüssel (für Informationen zum Anfordern von Daten von Amazon S3 siehe Anfragen stellen in der Amazon S3-Dokumentation).

Snowflake Insert-Aktivitätskonfiguration Schritt 2 Amazon S3 Stage File Ansatz Anmeldeinformationen

  • Authentifizierungstyp: Wählen Sie Credentials.

  • Zugangs-ID: Geben Sie die Amazon S3-Zugangs-ID ein.

  • Geheimer Zugriffsschlüssel: Geben Sie den geheimen Zugriffsschlüssel für Amazon S3 ein.

Authentifizierung mit Speicherintegration

Die Storage Integration-Authentifizierung erfordert die Erstellung einer Snowflake-Speicherintegration. Informationen zur Erstellung einer Snowflake-Speicherintegration finden Sie in der Create Storage Integration in der Snowflake-Dokumentation.

Snowflake Insert-Aktivitätskonfiguration Schritt 2 Amazon S3-Stufen-Dateiansatz Speicherintegration

  • Authentifizierungstyp: Wählen Sie Storage Integration.

  • Name der Speicherintegration: Geben Sie den Namen der Snowflake-Speicherintegration ein.

Zusätzliche Optionen

Für sowohl Anmeldeinformationen als auch Storage Integration-Authentifizierung gibt es diese zusätzlichen Optionen:

Snowflake Insert-Aktivitätskonfiguration Schritt 2 Amazon S3-Stufen-Dateiansatz zusätzliche Optionen

  • Bucket-Name: Geben Sie einen gültigen Bucket-Namen für einen vorhandenen Bucket auf dem Amazon S3-Server ein. Dies wird ignoriert, wenn bucketName im Datenschema InsertAmazonS3Request angegeben ist.

  • Dateipfad: Geben Sie den Dateipfad ein.

  • Bei Fehler: Wählen Sie eine dieser Optionen aus dem Dropdown-Menü Bei Fehler; zusätzliche Optionen erscheinen entsprechend:

    • Abort_Statement: Bricht die Verarbeitung ab, wenn Fehler auftreten.

    • Continue: Setzt das Laden der Datei fort, auch wenn Fehler auftreten.

    • Skip_File: Überspringt die Datei, wenn Fehler in der Datei auftreten.

    • Skip_File_\<num>: Überspringt die Datei, wenn die Anzahl der Fehler in der Datei gleich oder größer ist als die in Skip File Number angegebene Zahl.

    • Skip_File_\<num>%: Überspringt die Datei, wenn der Prozentsatz der Fehler in der Datei den in Skip File Number Percentage angegebenen Prozentsatz überschreitet.

  • Fehler bei Spaltenanzahl-Mismatch: Wenn ausgewählt, wird ein Fehler im Fehlerknoten des Antwortschemas gemeldet, wenn die Quell- und Zielspaltenanzahl nicht übereinstimmt. Wenn Sie diese Option nicht auswählen, schlägt die Operation nicht fehl und die bereitgestellten Daten werden eingefügt.

  • Zurück: Klicken Sie, um zum vorherigen Schritt zurückzukehren und die Konfiguration vorübergehend zu speichern.

  • Weiter: Klicken Sie, um zum nächsten Schritt fortzufahren und die Konfiguration vorübergehend zu speichern. Die Konfiguration wird nicht gespeichert, bis Sie die Schaltfläche Fertig im letzten Schritt klicken.

  • Änderungen verwerfen: Klicken Sie nach Änderungen, um die Konfiguration zu schließen, ohne die Änderungen an einem Schritt zu speichern. Eine Nachricht fordert Sie auf, zu bestätigen, dass Sie die Änderungen verwerfen möchten.

Interne Stufen-Datei-Ansatz

Dieser Ansatz ermöglicht es, eine CSV-Datei in Snowflake einzufügen. Die Datei wird gestaged und dann gemäß den Spezifikationen des Anforderungsdatenschemas in die Tabelle kopiert.

Snowflake Insert-Aktivitätskonfiguration Schritt 2 interner Stufen-Datei-Ansatz

  • Ansatz: Verwenden Sie das Dropdown-Menü, um Stufen-Datei auszuwählen.

  • Stufentyp: Wählen Sie Intern, um die Daten aus einer internen Quelle abzurufen.

  • Bei Fehler: Wählen Sie eine dieser Optionen aus dem Dropdown-Menü Bei Fehler; zusätzliche Optionen erscheinen entsprechend:

    • Abort_Statement: Bricht die Verarbeitung ab, wenn Fehler auftreten.

    • Fortfahren: Lädt die Datei weiter, auch wenn Fehler auftreten.

    • Datei_Überspringen: Überspringt die Datei, wenn Fehler in der Datei auftreten.

    • Datei_Überspringen_\<num>: Überspringt die Datei, wenn die Anzahl der Fehler in der Datei die in Überspringen-Dateinummer angegebene Zahl erreicht oder überschreitet.

    • Datei_Überspringen_\<num>%: Überspringt die Datei, wenn der Prozentsatz der Fehler in der Datei den in Überspringen-Dateinummer-Prozentsatz angegebenen Prozentsatz überschreitet.

  • Fehler bei Spaltenanzahl-Mismatch: Wenn ausgewählt, wird ein Fehler im Fehlerknoten des Antwortschemas gemeldet, wenn die Quell- und Zielspaltenanzahl nicht übereinstimmt. Wenn Sie diese Option nicht auswählen, schlägt die Operation nicht fehl und die bereitgestellten Daten werden eingefügt.

  • Zurück: Klicken Sie, um zum vorherigen Schritt zurückzukehren und die Konfiguration vorübergehend zu speichern.

  • Next: Klicken Sie, um zum nächsten Schritt fortzufahren und die Konfiguration vorübergehend zu speichern. Die Konfiguration wird nicht gespeichert, bis Sie die Schaltfläche Fertig im letzten Schritt klicken.

  • Discard Changes: Nachdem Sie Änderungen vorgenommen haben, klicken Sie, um die Konfiguration zu schließen, ohne die Änderungen an einem Schritt zu speichern. Eine Nachricht fordert Sie auf, zu bestätigen, dass Sie die Änderungen verwerfen möchten.

Google Cloud Storage Stage File Ansatz

Dieser Ansatz ermöglicht es, eine CSV-Datei in Google Cloud Storage einzufügen. Die Datei wird zwischengespeichert und dann gemäß den Spezifikationen des Anforderungsdatenschemas in die Tabelle kopiert.

Snowflake Insert activity configuration step 2 Google Cloud Storage stage file approach

  • Approach: Verwenden Sie das Dropdown-Menü, um Stage File auszuwählen.

  • Stage Type: Wählen Sie Google Cloud Storage, um die Daten aus einer internen Quelle abzurufen.

  • Storage Integration Name: Geben Sie den Namen der Snowflake-Speicherintegration ein.

  • Bucket-Name: Geben Sie einen gültigen Bucket-Namen für einen vorhandenen Bucket in Google Cloud Storage ein. Dies wird ignoriert, wenn bucketName im Datenschema InsertGoogleCloudRequest angegeben ist.

  • Dateipfad: Geben Sie den Dateipfad ein.

  • Bei Fehler: Wählen Sie eine dieser Optionen aus dem Dropdown-Menü Bei Fehler; zusätzliche Optionen erscheinen entsprechend:

    • Abort_Statement: Bricht die Verarbeitung ab, wenn Fehler auftreten.

    • Continue: Setzt das Laden der Datei fort, auch wenn Fehler auftreten.

    • Skip_File: Überspringt die Datei, wenn Fehler in der Datei auftreten.

    • Skip_File_\<num>: Überspringt die Datei, wenn die Anzahl der Fehler in der Datei gleich oder größer ist als die in Überspringen Dateinummer angegebene Zahl.

    • Skip_File_\<num>%: Überspringt die Datei, wenn der Prozentsatz der Fehler in der Datei den in Überspringen Dateinummer Prozentsatz angegebenen Prozentsatz überschreitet.

  • Fehler bei der Spaltenanzahl: Wenn ausgewählt, wird ein Fehler im Fehlerknoten des Antwortschemas gemeldet, wenn die Spaltenanzahlen von Quelle und Ziel nicht übereinstimmen. Wenn Sie diese Option nicht auswählen, schlägt die Operation nicht fehl und die bereitgestellten Daten werden eingefügt.

  • Zurück: Klicken Sie, um zum vorherigen Schritt zurückzukehren und die Konfiguration vorübergehend zu speichern.

  • Weiter: Klicken Sie, um zum nächsten Schritt fortzufahren und die Konfiguration vorübergehend zu speichern. Die Konfiguration wird nicht gespeichert, bis Sie auf die Schaltfläche Fertig im letzten Schritt klicken.

  • Änderungen verwerfen: Nach Änderungen klicken Sie, um die Konfiguration zu schließen, ohne die vorgenommenen Änderungen zu speichern. Eine Nachricht fordert Sie auf, zu bestätigen, dass Sie die Änderungen verwerfen möchten.

Microsoft Azure Stage File Ansatz

Dieser Ansatz ermöglicht es, eine CSV-Datei in Snowflake mithilfe einer Microsoft Azure-Quelle einzufügen. Die Datei wird gestaged und dann gemäß den Spezifikationen des Anfragedatenschemas in die Tabelle kopiert.

Snowflake Insert-Aktivitätskonfiguration Schritt 2 Microsoft Azure Stage File Ansatz

  • Ansatz: Verwenden Sie das Dropdown-Menü, um Stage File auszuwählen.

  • Stage-Typ: Wählen Sie Microsoft Azure, um Daten aus Microsoft Azure-Speichercontainern abzurufen.

  • Authentifizierungstyp: Wählen Sie entweder Anmeldeinformationen oder Speicherintegration. Anmeldeinformationen erfordern ein Microsoft Azure Shared Access Signature (SAS)-Token und einen Speicherkontonamen. Speicherintegration erfordert nur einen Namen für die Speicherintegration. Diese Authentifizierungstypen werden im Folgenden behandelt.

Anmeldeinformationen-Authentifizierung

Der Authentifizierungstyp Anmeldeinformationen erfordert ein Microsoft Azure SAS-Token und einen Speicherkontonamen.

Snowflake Insert-Aktivitätskonfiguration Schritt 2 Microsoft Azure Stage File Ansatz Anmeldeinformationen

  • Authentifizierungstyp: Wählen Sie Anmeldeinformationen.

  • Azure SAS-Token: Geben Sie das Microsoft Azure SAS-Token ein. Informationen zur Erstellung von SAS-Token für Speicherkonten in Microsoft Azure finden Sie in Erstellen von SAS-Token für Ihre Speicherkonten in der Microsoft Azure-Dokumentation.

  • Speicherkonto-Name: Geben Sie den Namen des Microsoft Azure-Speicherkontos ein.

Speicherung Integrationsauthentifizierung

Der Authentifizierungstyp Storage Integration erfordert die Erstellung einer Snowflake-Speicherintegration. Informationen zur Erstellung einer Snowflake-Speicherintegration finden Sie in Erstellen einer Speicherintegration in der Snowflake-Dokumentation.

Snowflake Insert-Aktivitätskonfiguration Schritt 2 Microsoft Azure-Stufen-Dateiansatz Speicherintegration

  • Authentifizierungstyp: Wählen Sie Storage Integration.

  • Name der Speicherintegration: Geben Sie den Namen der Snowflake-Speicherintegration ein.

Zusätzliche Optionen

Für die Authentifizierung mit Anmeldeinformationen und Storage Integration gibt es diese zusätzlichen Optionen:

Snowflake Insert-Aktivitätskonfiguration Schritt 2 Microsoft Azure-Stufen-Dateiansatz zusätzliche Optionen

  • Master-Schlüssel: Geben Sie den Master-Schlüssel ein, der für die clientseitige Verschlüsselung (CSE) in Microsoft Azure verwendet wird. Dies wird ignoriert, wenn azureMasterKey im Datenschema InsertMicrosoftAzureCloudRequest bereitgestellt wird.

    Hinweis

    Informationen zur Erstellung von Schlüsseln in Microsoft Azure finden Sie in Schnellstart: Einen Schlüssel im Azure Key Vault über das Azure-Portal festlegen und abrufen in der Microsoft Azure-Dokumentation.

Für Informationen zur Speicherung von CSE in Microsoft Azure siehe Client-seitige Verschlüsselung für Blobs in der Microsoft Azure-Dokumentation.

  • Containername: Geben Sie einen gültigen Bucket-Namen für einen vorhandenen Speicherkontainer in Microsoft Azure ein. Dies wird ignoriert, wenn containerName im Datenschema InsertMicrosoftAzureCloudRequest angegeben ist.

  • Dateipfad: Geben Sie den Dateipfad ein.

  • Bei Fehler: Wählen Sie eine dieser Optionen aus dem Dropdown-Menü Bei Fehler; zusätzliche Optionen erscheinen entsprechend:

    • Abort_Statement: Bricht die Verarbeitung ab, wenn Fehler auftreten.

    • Fortfahren: Setzt das Laden der Datei fort, auch wenn Fehler auftreten.

    • Datei_Überspringen: Überspringt die Datei, wenn Fehler in der Datei auftreten.

    • Datei_Überspringen_\<num>: Überspringt die Datei, wenn die Anzahl der Fehler in der Datei die in Überspringen Dateinummer angegebene Zahl erreicht oder überschreitet.

    • Datei_Überspringen_\<num>%: Überspringt die Datei, wenn der Prozentsatz der Fehler in der Datei den in Überspringen Dateinummer Prozentsatz angegebenen Prozentsatz überschreitet.

  • Fehler bei Spaltenanzahl-Mismatch: Wenn ausgewählt, wird ein Fehler im Fehlerknoten des Antwortschemas gemeldet, wenn die Quell- und Zielspaltenanzahl nicht übereinstimmt. Wenn Sie diese Option nicht auswählen, schlägt die Operation nicht fehl und die bereitgestellten Daten werden eingefügt.

  • Zurück: Klicken Sie, um zum vorherigen Schritt zurückzukehren und die Konfiguration vorübergehend zu speichern.

  • Weiter: Klicken Sie, um zum nächsten Schritt fortzufahren und die Konfiguration vorübergehend zu speichern. Die Konfiguration wird nicht gespeichert, bis Sie die Schaltfläche Fertig im letzten Schritt klicken.

  • Änderungen verwerfen: Klicken Sie, um die Konfiguration zu schließen, ohne die an einem Schritt vorgenommenen Änderungen zu speichern. Eine Nachricht fragt Sie, ob Sie die Änderungen wirklich verwerfen möchten.

Schritt 3: Überprüfen der Datenschemas

Die Anforderungs- und Antwortschemas, die von dem Endpunkt generiert wurden, werden angezeigt. Die angezeigten Schemata hängen von dem im vorherigen Schritt angegebenen Ansatz ab.

Diese Unterabschnitte beschreiben die Anforderungs- und Antwortstrukturen für jede Kombination aus Ansatz und Stufentyp:

Diese Aktionen sind mit jedem Ansatz verfügbar:

  • Daten-Schemas: Diese Daten-Schemas werden von benachbarten Transformationen geerbt und während der Transformationszuordnung erneut angezeigt.

    Hinweis

    Daten, die in einer Transformation bereitgestellt werden, haben Vorrang vor der Aktivitätskonfiguration.

    Tipp

    Wenn ein einzelnes Anführungszeichen (') in einer Anforderungsnutzlast vorhanden ist, wird zur Laufzeit ein Syntaxfehler zurückgegeben. Sie können die Einstellung Sonderzeichen escapen in der Verbindung aktivieren, um der Aktivität zu ermöglichen, einzelne Anführungszeichen (') zur Laufzeit automatisch zu escapen.

    Der Snowflake-Connector verwendet Version 3.19.0 des Snowflake JDBC-Treibers und die Snowflake SQL-Befehle. Weitere Informationen zu den Schema-Knoten und -Feldern finden Sie in der API-Dokumentation.

  • Aktualisieren: Klicken Sie auf das Aktualisierungssymbol oder das Wort Aktualisieren, um die Schemata vom Snowflake-Endpunkt neu zu generieren. Diese Aktion regeneriert auch ein Schema an anderen Stellen im Projekt, an denen dasselbe Schema referenziert wird, z. B. in einer benachbarten Transformation.

  • Zurück: Klicken Sie, um die Konfiguration für diesen Schritt vorübergehend zu speichern und zum vorherigen Schritt zurückzukehren.

  • Fertig: Klicken Sie, um die Konfiguration für alle Schritte zu speichern und die Aktivitätskonfiguration zu schließen.

  • Änderungen verwerfen: Nach dem Vornehmen von Änderungen klicken Sie, um die Konfiguration zu schließen, ohne die Änderungen an einem Schritt zu speichern. Eine Nachricht fordert Sie auf, zu bestätigen, dass Sie die Änderungen verwerfen möchten.

SQL Insert-Ansatz

Wenn der Ansatz SQL Insert ist, werden die Tabellen-Spalten angezeigt, die in einer Transformation zugeordnet werden können.

Snowflake Insert-Aktivitätskonfiguration Schritt 3 SQL Insert-Ansatz

  • Anfrage

    Anfrage-Schema-Feld/Knoten Hinweise
    table Knoten, der den Tabellennamen anzeigt.
    column_A Name der ersten Tabellen-Spalte.
    column_B Name der zweiten Tabellen-Spalte.
    . . . Folgende Tabellen-Spalten.
  • Antwort

    Antwort-Schema-Feld/Knoten Hinweise
    status Boolean-Flag, das angibt, ob die Datensatz-Einfügung erfolgreich war.
    errorMessage Beschreibende Fehlermeldung, falls ein Fehler während der Einfügung auftritt.
    recordsInserted Anzahl der eingefügten Datensätze, falls die Einfügung erfolgreich war.

Amazon S3 Stage File-Ansatz

Wenn der Ansatz Amazon S3 Stage File ist, werden die Spezifikationen für das Staging und Einfügen einer CSV-Datei im Datenschema angezeigt, sodass sie in einer Transformation zugeordnet werden können. Das verwendete Muster dient dazu, nur eine Datei zuzuordnen. Wenn das Muster mit mehr als einer Datei übereinstimmt, tritt bei der Aktivität ein Fehler mit einer beschreibenden Nachricht auf.

Snowflake Insert-Aktivitätskonfiguration Schritt 3 Amazon S3 Stage File-Ansatz

  • Anfrage

    Anfrage-Schema Feld/Knoten Hinweise
    accessKey Amazon S3 Zugangs-Schlüssel-ID.
    secretAccessKey Amazon S3 Geheimzugangs-Schlüssel.
    storageintegrationName Name der Snowflake-Speicherintegration, die für die Authentifizierung der Snowflake-Speicherintegration verwendet werden soll.
    bucketName Gültiger Bucket-Name für einen vorhandenen Bucket auf dem Amazon S3-Server.
    filePath Speicherort der Stage-Datei im Amazon S3-Bucket.
    pattern Regulärer Ausdruck, der zum Finden der Datei auf der Stage verwendet wird; wenn compression GZIP ist, wird [.]gz an das Muster angehängt.
    onError Bei Fehler ausgewählte Option.
    encryption Knoten, der die Verschlüsselung darstellt.
    encryptionType Amazon S3 Verschlüsselungstyp (entweder serverseitige Verschlüsselung oder clientseitige Verschlüsselung).
    masterKey Amazon S3 Master-Schlüssel.
    kmsKeyId Amazon Key Management Service Master-ID.
    fileFormat Knoten, der das Dateiformat darstellt.
    nullIf Ein String, der in SQL NULL umgewandelt werden soll; standardmäßig ist es ein leerer String. Siehe die NULL_IF-Option der Snowflake COPY INTO <location> Dokumentation.
    enclosingChar Zeichen, das verwendet wird, um Datenfelder einzuschließen; siehe die FIELD_OPTIONALLY_ENCLOSED_BY-Option der Snowflake COPY INTO <location> Dokumentation.

    Hinweis

    Das enclosingChar kann entweder ein einfaches Anführungszeichen ' oder ein doppeltes Anführungszeichen " sein. Um das einfache Anführungszeichen zu verwenden, verwenden Sie entweder die oktale ' oder die hexadezimale 0x27 Darstellung oder verwenden Sie eine doppelte einfache Anführungszeichen-Escape ''. Wenn ein Feld dieses Zeichen enthält, escapen Sie es mit demselben Zeichen.

    compression Der Komprimierungsalgorithmus, der für die Datendateien verwendet wird. GZIP oder NONE werden unterstützt. Siehe die Komprimierungsoption der Snowflake COPY INTO <location> Dokumentation.
    skipHeader Anzahl der Zeilen am Anfang der Quelldatei, die übersprungen werden sollen.
    errorOnColumnCountMismatch Boolean-Flag, um einen Fehler zu melden, wenn die Quell- und Zielanzahl des Antwortschemas nicht übereinstimmen.
    fieldDelimiter Das Trennzeichen, das verwendet wird, um Datenfelder zu trennen; siehe die FIELD_DELIMITER-Option der Snowflake COPY INTO <table> Dokumentation.
    recordDelimiter Das Trennzeichen, das verwendet wird, um Gruppen von Feldern zu trennen; siehe die RECORD_DELIMITER-Option der Snowflake COPY INTO <table> Dokumentation.
  • Antwort

    Antwortschema Feld/Knoten Hinweise
    status Zurückgegebener Status.
    file Name der gestellten CSV-Datei, die beim Einfügen von Daten in die Snowflake-Tabelle verarbeitet wurde.
    rows_parsed Anzahl der aus der CSV-Datei geparsten Zeilen.
    rows_loaded Anzahl der ohne Fehler aus der CSV-Datei in die Snowflake-Tabelle geladenen Zeilen.
    error Knoten, der die Fehlermeldungen darstellt.
    error_limit Anzahl der Fehler, die dazu führen, dass die Datei übersprungen wird, wie in Skip_File_\<num> festgelegt.
    errors_seen Anzahl der gesehenen Fehler.
    first_error Der erste Fehler in der Quelldatei.
    first_error_line Die erste Zeilennummer des ersten Fehlers.
    first_error_character Das erste Zeichen des ersten Fehlers.
    first_error_column_name Der Spaltenname des ersten Fehlerorts.

Google Cloud Storage Stage File-Ansatz

Wenn der Ansatz Google Cloud Storage Stage File ist, werden die Spezifikationen für das Staging und Einfügen einer CSV-Datei im Datenschema angezeigt, damit sie in einer Transformation zugeordnet werden können. Das verwendete Muster ist so gestaltet, dass nur eine Datei übereinstimmt. Wenn das Muster mit mehr als einer Datei übereinstimmt, tritt ein Fehler mit einer beschreibenden Nachricht auf.

Snowflake Insert-Aktivitätskonfiguration Schritt 3 Google Cloud Storage-Stufen-Dateiansatz

  • Anfrage

    Anfrage-Schema Feld/Knoten Anmerkungen
    storageintegrationName Name der Snowflake-Speicherintegration, die für die Authentifizierung der Snowflake-Speicherintegration verwendet werden soll.
    bucketName Gültiger Bucket-Name für einen vorhandenen Bucket in Google Cloud Storage.
    filePath Speicherort der Stufen-Datei im Google Cloud Storage-Bucket.
    pattern Regulärer Ausdruck, der zum Finden der Datei auf der Stufe verwendet wird; wenn compressData wahr ist, wird [.]gz an das Muster angehängt.
    onError Bei Fehler ausgewählte Option.
    fileFormat Knoten, der das Dateiformat darstellt.
    nullIf Ein String, der in SQL NULL umgewandelt werden soll; standardmäßig ist es ein leerer String. Siehe die NULL_IF-Option der Snowflake COPY INTO <location> Dokumentation.
    enclosingChar Zeichen, das verwendet wird, um Datenfelder einzuschließen; siehe die FIELD_OPTIONALLY_ENCLOSED_BY-Option der Snowflake COPY INTO <location> Dokumentation.

    Hinweis

    Das enclosingChar kann entweder ein einfaches Anführungszeichen ' oder ein doppeltes Anführungszeichen " sein. Um das einfache Anführungszeichen zu verwenden, verwenden Sie entweder die oktale ' oder die hexadezimale 0x27 Darstellung oder verwenden Sie eine doppelte einfache Anführungszeichen-Escape ''. Wenn ein Feld dieses Zeichen enthält, escapen Sie es mit demselben Zeichen.

    compression Der Komprimierungsalgorithmus, der für die Datendateien verwendet wird. GZIP oder NONE werden unterstützt. Siehe die Komprimierungsoption der Snowflake COPY INTO <location> Dokumentation.
    skipHeader Anzahl der Zeilen am Anfang der Quelldatei, die übersprungen werden sollen.
    errorOnColumnCountMismatch Boolean-Flag, um einen Fehler zu melden, wenn die Quell- und Zielanzahl des Antwortschemas nicht übereinstimmen.
    fieldDelimiter Das Trennzeichen, das verwendet wird, um Datenfelder zu trennen; siehe die FIELD_DELIMITER-Option der Snowflake COPY INTO <table> Dokumentation.
    recordDelimiter Das Trennzeichen, das verwendet wird, um Gruppen von Feldern zu trennen; siehe die RECORD_DELIMITER-Option der Snowflake COPY INTO <table> Dokumentation.
  • Antwort

    Antwort-Schema Feld/Knoten Hinweise
    status Zurückgegebener Status.
    file Name der gestellten CSV-Datei, die beim Einfügen von Daten in die Snowflake-Tabelle verarbeitet wurde.
    rows_parsed Anzahl der aus der CSV-Datei geparsten Zeilen.
    rows_loaded Anzahl der ohne Fehler aus der CSV-Datei in die Snowflake-Tabelle geladenen Zeilen.
    error Knoten, der die Fehlermeldungen darstellt.
    error_limit Anzahl der Fehler, die dazu führen, dass die Datei übersprungen wird, wie in Skip_File_\<num> festgelegt.
    errors_seen Anzahl der gesehenen Fehler.
    first_error Der erste Fehler in der Quelldatei.
    first_error_line Die erste Zeilennummer des ersten Fehlers.
    first_error_character Das erste Zeichen des ersten Fehlers.
    first_error_column_name Der Spaltenname des ersten Fehlerorts.

Interner Staging-Dateiansatz

Wenn der Ansatz Interner Staging-Datei ist, werden die Spezifikationen für das Staging und Einfügen einer CSV-Datei im Datenschema angezeigt, damit sie in einer Transformation zugeordnet werden können. Das verwendete Muster ist so gestaltet, dass nur eine Datei übereinstimmt. Wenn das Muster mit mehr als einer Datei übereinstimmt, tritt ein Fehler mit einer beschreibenden Nachricht auf.

Snowflake Insert-Aktivitätskonfiguration Schritt 3 interner Stufenansatz

  • Anfrage

    Anfrage-Schema Feld/Knoten Hinweise
    stageName Interne Snowflake-Stufe, Tabellenname oder Pfad.
    destinationPrefix Pfad oder Präfix, unter dem die Daten auf der Snowflake-Stufe hochgeladen werden.
    fileContent Dateninhalte der Datei im CSV-Format, die für den Upload in die Snowflake-Tabelle vorbereitet werden sollen.
    destinationFileName Ziel-Dateiname, der auf der Snowflake-Stufe verwendet werden soll.
    compressData Boolean-Flag, ob die Daten vor dem Hochladen in die interne Snowflake-Stufe komprimiert werden sollen.
    pattern Regulärer Ausdruck, der zum Finden der Datei auf der Stufe verwendet wird; wenn compressData wahr ist, wird [.]gz an das Muster angehängt.
    onError Bei Fehler ausgewählte Option.
    fileFormat Knoten, der das Dateiformat darstellt.
    nullIf Ein String, der in SQL NULL umgewandelt werden soll; standardmäßig ist es ein leerer String. Siehe die NULL_IF-Option der Snowflake COPY INTO <location> Dokumentation.
    enclosingChar Zeichen, das verwendet wird, um Datenfelder einzuschließen; siehe die FIELD_OPTIONALLY_ENCLOSED_BY-Option der Snowflake COPY INTO <location> Dokumentation.

    Hinweis

    Das enclosingChar kann entweder ein einfaches Anführungszeichen ' oder ein doppeltes Anführungszeichen " sein. Um das einfache Anführungszeichen zu verwenden, verwenden Sie entweder die oktale ' oder die hexadezimale 0x27 Darstellung oder verwenden Sie eine doppelte einfache Anführungszeichen-Escape ''. Wenn ein Feld dieses Zeichen enthält, escapen Sie es mit demselben Zeichen.

    errorOnColumnCountMismatch Boolean-Flag, um einen Fehler zu melden, wenn die Quell- und Zielanzahl des Antwortschemas nicht übereinstimmen.
    fieldDelimiter Das Trennzeichen, das verwendet wird, um Datenfelder zu trennen; siehe die FIELD_DELIMITER-Option der Snowflake COPY INTO <table> Dokumentation.
    recordDelimiter Das Trennzeichen, das verwendet wird, um Gruppen von Feldern zu trennen; siehe die RECORD_DELIMITER-Option der Snowflake COPY INTO <table> Dokumentation.
  • Antwort

    Antwortschema Feld/Knoten Hinweise
    file Name der gestellten CSV-Datei, die verarbeitet wird, wenn Daten in die Snowflake-Tabelle eingefügt werden.
    status Zurückgegebener Status.
    rowsParsed Anzahl der aus der CSV-Datei geparsten Zeilen.
    rowsLoaded Anzahl der ohne Fehler aus der CSV-Datei in die Snowflake-Tabelle geladenen Zeilen.
    error Knoten, der die Fehlermeldungen darstellt.
    error Die Fehlermeldung.
    code Der zurückgegebene Fehlercode.
    sqlState Der zurückgegebene numerische SQL-Zustandsfehlercode des Datenbankaufrufs.
    file Knoten, der die Fehlermeldungen darstellt.
    columnName Name und Reihenfolge der Spalte, die den Fehler enthielt.
    rowNumber Die Nummer der Zeile in der Quelldatei, in der der Fehler aufgetreten ist.
    rowStartLine Die Nummer der ersten Zeile der Zeile, in der der Fehler aufgetreten ist.

Microsoft Azure Stage File-Ansatz

Wenn der Ansatz Microsoft Azure Stage File ist, werden die Spezifikationen für das Staging und Einfügen einer CSV-Datei im Datenschema angezeigt, damit sie in einer Transformation zugeordnet werden können. Das verwendete Muster ist so gestaltet, dass nur eine Datei übereinstimmt. Wenn das Muster mit mehr als einer Datei übereinstimmt, wird die Aktivität mit einer beschreibenden Fehlermeldung fehlschlagen.

Snowflake Insert-Aktivitätskonfiguration Schritt 3 Microsoft Azure-Stufen-Dateiansatz

  • Anfrage

    Anfrage-Schema Feld/Knoten Hinweise
    azureSasToken Microsoft Azure Shared Access Signature (SAS) Token.
    azureStorageAccountName Microsoft Azure Storage-Konto-Name.
    azureStorageintegrationName Name der Snowflake-Speicherintegration, die für die Authentifizierung der Snowflake-Speicherintegration verwendet werden soll.
    containerName Gültiger Containername für einen vorhandenen Speichercontainer in Microsoft Azure.
    filePath Speicherort der Stufen-Datei im Microsoft Azure-Speichercontainer.
    pattern Regulärer Ausdruck, der zum Finden der Datei auf der Stufe verwendet wird; wenn compression GZIP ist, wird [.]gz an das Muster angehängt.
    onError Bei Fehler ausgewählte Option.
    encryption Knoten, der die Verschlüsselung darstellt.
    encryptionType Microsoft Azure-Verschlüsselungstyp (nur clientseitige Verschlüsselung).
    azureMasterKey Microsoft Azure Master-Schlüssel.
    fileFormat Knoten, der das Dateiformat darstellt.
    nullIf Ein String, der in SQL NULL umgewandelt werden soll; standardmäßig ist es ein leerer String. Siehe die NULL_IF-Option der Snowflake COPY INTO <location> Dokumentation.
    enclosingChar Zeichen, das verwendet wird, um Datenfelder einzuschließen; siehe die FIELD_OPTIONALLY_ENCLOSED_BY-Option der Snowflake COPY INTO <location> Dokumentation.

    Hinweis

    Das enclosingChar kann entweder ein einfaches Anführungszeichen ' oder ein doppeltes Anführungszeichen " sein. Um das einfache Anführungszeichen zu verwenden, verwenden Sie entweder die oktale ' oder die hexadezimale 0x27 Darstellung oder verwenden Sie eine doppelte einfache Anführungszeichen-Escape ''. Wenn ein Feld dieses Zeichen enthält, escapen Sie es mit demselben Zeichen.

    compression Der Komprimierungsalgorithmus, der für die Daten-Dateien verwendet wird. GZIP oder NONE werden unterstützt. Siehe die Komprimierungsoption der Snowflake COPY INTO <location> Dokumentation.
    skipHeader Anzahl der Zeilen am Anfang der Quelldatei, die übersprungen werden sollen.
    errorOnColumnCountMismatch Boolean-Flag, um einen Fehler zu melden, wenn die Quell- und Zielanzahl des Antwortschemas nicht übereinstimmen.
    fieldDelimiter Das Trennzeichen, das verwendet wird, um Datenfelder zu trennen; siehe die FIELD_DELIMITER-Option der Snowflake COPY INTO <table> Dokumentation.
    recordDelimiter Das Trennzeichen, das verwendet wird, um Gruppen von Feldern zu trennen; siehe die RECORD_DELIMITER-Option der Snowflake COPY INTO <table> Dokumentation.
  • Antwort

    Antwort-Schema-Feld/Knoten Hinweise
    status Zurückgegebener Status.
    file Name der gestellten CSV-Datei, die beim Einfügen von Daten in die Snowflake-Tabelle verarbeitet wurde.
    rows_parsed Anzahl der aus der CSV-Datei geparsten Zeilen.
    rows_loaded Anzahl der ohne Fehler aus der CSV-Datei in die Snowflake-Tabelle geladenen Zeilen.
    error Knoten, der die Fehlermeldungen darstellt.
    error_limit Anzahl der Fehler, die dazu führen, dass die Datei übersprungen wird, wie in Skip_File_\<num> festgelegt.
    errors_seen Anzahl der gesehenen Fehler.
    first_error Der erste Fehler in der Quelldatei.
    first_error_line Die erste Zeilennummer des ersten Fehlers.
    first_error_character Das erste Zeichen des ersten Fehlers.
    first_error_column_name Der Spaltenname des ersten Fehlerorts.

Nächste Schritte

Nachdem Sie eine Snowflake Insert-Aktivität konfiguriert haben, vervollständigen Sie die Konfiguration der Operation, indem Sie andere Aktivitäten oder Werkzeuge als operationale Schritte hinzufügen und konfigurieren. Sie können auch die Betriebseinstellungen konfigurieren, die die Möglichkeit umfassen, Operationen zusammenzuführen, die sich in denselben oder unterschiedlichen Workflows befinden.

Menüaktionen für eine Aktivität sind im Projektbereich und auf der Entwurfsgrafik zugänglich. Für Details siehe Aktionsmenü für Aktivitäten in Connector-Grundlagen.

Snowflake Insert-Aktivitäten können als Ziel mit diesen Betriebsmustern verwendet werden:

Um die Aktivität mit Skriptfunktionen zu verwenden, schreiben Sie die Daten an einen temporären Ort und verwenden Sie dann diesen temporären Ort in der Skriptfunktion.

Wenn Sie bereit sind, bereitstellen und ausführen Sie den Vorgang und validieren Sie das Verhalten, indem Sie die Betriebsprotokolle überprüfen.