Zum Inhalt springen

Snowflake Insert-Aktivität

Einführung

Eine Snowflake Insert-Aktivität, die ihre Snowflake-Verbindung verwendet, fügt Tabellendaten (entweder als CSV-Datei oder direkt auf Spalten einer Tabelle abgebildet) in Snowflake ein und ist als Ziel gedacht, um Daten in einem Vorgang zu konsumieren.

Erstellen einer Snowflake Insert-Aktivität

Eine Instanz einer Snowflake Insert-Aktivität wird aus einer Snowflake-Verbindung unter Verwendung des Aktivitätstyps Insert erstellt.

Um eine Instanz einer Aktivität zu erstellen, ziehen Sie den Aktivitätstyp auf die Entwurfsfläche oder kopieren Sie den Aktivitätstyp und fügen Sie ihn auf der Entwurfsfläche ein. Weitere Informationen finden Sie unter Erstellen einer Aktivitäts- oder Toolinstanz in Komponentenwiederverwendung.

Eine vorhandene Snowflake Insert-Aktivität kann von diesen Orten aus bearbeitet werden:

Konfigurieren einer Snowflake Insert-Aktivität

Befolgen Sie diese Schritte, um eine Snowflake Insert-Aktivität zu konfigurieren:

Schritt 1: Geben Sie einen Namen ein und wählen Sie ein Objekt aus

In diesem Schritt geben Sie einen Namen für die Aktivität ein und wählen eine Tabelle oder Ansicht aus (siehe Snowflakes Überblick über Ansichten). Jedes Benutzeroberflächenelement dieses Schrittes wird im Folgenden beschrieben.

  • Name: Geben Sie einen Namen ein, um die Aktivität zu identifizieren. Der Name muss für jede Snowflake Insert-Aktivität eindeutig sein und darf keine Schrägstriche / oder Doppelpunkte : enthalten.

  • Wählen Sie ein Objekt aus: In diesem Abschnitt werden die im Snowflake-Endpunkt verfügbaren Objekte angezeigt. Beim erneuten Öffnen einer vorhandenen Aktivitätskonfiguration wird nur das ausgewählte Objekt angezeigt, anstatt die gesamte Objektliste neu zu laden.

    • Ausgewähltes Snowflake-Objekt: Nachdem ein Objekt ausgewählt wurde, wird es hier aufgelistet.

    • Suche: Geben Sie den Wert einer beliebigen Spalte in das Suchfeld ein, um die Liste der Objekte zu filtern. Die Suche ist nicht groß-/kleinschreibungsempfindlich. Wenn Objekte bereits in der Tabelle angezeigt werden, werden die Tabellenergebnisse in Echtzeit mit jedem Tastendruck gefiltert. Um Objekte beim Suchen vom Endpunkt neu zu laden, geben Sie Suchkriterien ein und aktualisieren Sie dann, wie unten beschrieben.

    • Aktualisieren: Klicken Sie auf das Aktualisierungssymbol oder das Wort Aktualisieren, um Objekte vom Snowflake-Endpunkt neu zu laden. Dies kann nützlich sein, wenn Objekte zu Snowflake hinzugefügt wurden. Diese Aktion aktualisiert alle Metadaten, die zum Erstellen der in der Konfiguration angezeigten Objekttabelle verwendet werden.

    • Auswählen eines Objekts: Klicken Sie innerhalb der Tabelle auf eine beliebige Stelle in einer Zeile, um ein Objekt auszuwählen. Es kann nur ein Objekt ausgewählt werden. Die für jedes Objekt verfügbaren Informationen werden vom Snowflake-Endpunkt abgerufen:

      • Name: Der Name eines Objekts, entweder eine Tabelle oder eine Ansicht.

      • Typ: Der Typ des Objekts, entweder eine Tabelle oder eine Ansicht.

    Tipp

    Wenn die Tabelle nicht mit verfügbaren Objekten gefüllt wird, könnte die Snowflake-Verbindung nicht erfolgreich sein. Stellen Sie sicher, dass Sie verbunden sind, indem Sie die Verbindung erneut öffnen und die Anmeldeinformationen erneut testen.

  • Speichern & Beenden: Wenn aktiviert, klicken Sie, um die Konfiguration für diesen Schritt zu speichern und die Aktivitätskonfiguration zu schließen.

  • Weiter: Klicken Sie, um die Konfiguration für diesen Schritt vorübergehend zu speichern und zum nächsten Schritt fortzufahren. Die Konfiguration wird nicht gespeichert, bis Sie die Schaltfläche Fertig im letzten Schritt klicken.

  • Änderungen verwerfen: Nach Änderungen klicken Sie, um die Konfiguration zu schließen, ohne die Änderungen an einem Schritt zu speichern. Eine Nachricht fordert Sie auf, zu bestätigen, dass Sie die Änderungen verwerfen möchten.

Schritt 2: Wählen Sie einen Ansatz

Für das Einfügen von Daten in Snowflake werden verschiedene Ansätze unterstützt. Wählen Sie entweder SQL Insert oder Stage File. Wenn Sie den Ansatz Stage File verwenden, wählen Sie entweder die Dateitypen Amazon S3 oder Internal.

SQL Insert Ansatz

Für diesen Ansatz werden die Tabellenspalten im folgenden Datenschema-Schritt angezeigt, sodass sie in einer Transformation zugeordnet werden können.

  • Ansatz: Verwenden Sie das Dropdown-Menü, um SQL Insert auszuwählen.

  • Zurück: Klicken Sie, um zum vorherigen Schritt zurückzukehren und die Konfiguration vorübergehend zu speichern.

  • Weiter: Klicken Sie, um zum nächsten Schritt fortzufahren und die Konfiguration vorübergehend zu speichern. Die Konfiguration wird nicht gespeichert, bis Sie die Schaltfläche Fertig im letzten Schritt klicken.

  • Änderungen verwerfen: Nach Änderungen klicken Sie, um die Konfiguration zu schließen, ohne die Änderungen an einem Schritt zu speichern. Eine Nachricht fordert Sie auf, zu bestätigen, dass Sie die Änderungen verwerfen möchten.

Amazon S3 Stage File Ansatz

Dieser Ansatz ermöglicht es, eine CSV-Datei über eine Amazon S3-Quelle in Snowflake einzufügen. Die Datei wird zwischengespeichert und dann gemäß den Spezifikationen des Anforderungsdatenschemas in die Tabelle kopiert.

Für Informationen zum Anfordern von Daten von Amazon S3 siehe Anfragen stellen in der Amazon S3-Dokumentation.

  • Ansatz: Verwenden Sie das Dropdown-Menü, um Datei zwischenspeichern auszuwählen.

  • Zwischenspeichertyp: Wählen Sie Amazon S3, um Daten aus dem Amazon S3-Speicher abzurufen.

  • Authentifizierungstyp: Wählen Sie entweder Anmeldeinformationen oder Speicherintegration. Anmeldeinformationen erfordert die Amazon S3-Zugangs-ID und den geheimen Zugriffsschlüssel. Speicherintegration benötigt nur den Namen der Speicherintegration. Diese Authentifizierungstypen werden im Folgenden behandelt.

Anmeldeinformationen-Authentifizierung

Der Authentifizierungstyp Anmeldeinformationen erfordert die Amazon S3-Zugangs-ID und den geheimen Zugriffsschlüssel (für Informationen zum Anfordern von Daten von Amazon S3 siehe Anfragen stellen in der Amazon S3-Dokumentation).

  • Authentifizierungstyp: Wählen Sie Anmeldeinformationen.

  • Zugangs-ID: Geben Sie die Amazon S3-Zugangs-ID ein.

  • Geheimer Zugriffsschlüssel: Geben Sie den geheimen Zugriffsschlüssel für Amazon S3 ein.

Speicherintegrations-Authentifizierung

Der Authentifizierungstyp Speicherintegration erfordert die Erstellung einer Snowflake-Speicherintegration. Für Informationen zur Erstellung einer Snowflake-Speicherintegration siehe Speicherintegration erstellen in der Snowflake-Dokumentation.

  • Authentifizierungstyp: Wählen Sie Speicherintegration.

  • Name der Speicherintegration: Geben Sie den Namen der Snowflake-Speicherintegration ein.

Zusätzliche Optionen

Für die Authentifizierungstypen Anmeldeinformationen und Speicherintegration gibt es diese zusätzlichen Optionen:

  • Bucket-Name: Geben Sie einen gültigen Bucket-Namen für einen vorhandenen Bucket auf dem Amazon S3-Server ein. Dies wird ignoriert, wenn bucketName im Datenschema InsertAmazonS3Request angegeben ist.

  • Dateipfad: Geben Sie den Dateipfad ein.

  • Bei Fehler: Wählen Sie eine dieser Optionen aus dem Dropdown-Menü Bei Fehler; zusätzliche Optionen werden entsprechend angezeigt:

    • Abort_Statement: Bricht die Verarbeitung ab, wenn Fehler auftreten.

    • Continue: Setzt das Laden der Datei fort, auch wenn Fehler auftreten.

    • Skip_File: Überspringt die Datei, wenn Fehler in der Datei auftreten.

    • Skip_File_\<num>: Überspringt die Datei, wenn die Anzahl der Fehler in der Datei die in Überspringen Dateinummer angegebene Zahl erreicht oder überschreitet.

    • Skip_File_\<num>%: Überspringt die Datei, wenn der Prozentsatz der Fehler in der Datei den in Überspringen Dateinummer Prozentsatz angegebenen Prozentsatz überschreitet.

  • Fehler bei Spaltenanzahl-Mismatch: Wenn ausgewählt, wird ein Fehler im Fehlerknoten des Antwortschemas gemeldet, wenn die Quell- und Zielspaltenanzahl nicht übereinstimmt. Wenn Sie diese Option nicht auswählen, schlägt die Operation nicht fehl und die bereitgestellten Daten werden eingefügt.

  • Zurück: Klicken Sie, um zum vorherigen Schritt zurückzukehren und die Konfiguration vorübergehend zu speichern.

  • Weiter: Klicken Sie, um zum nächsten Schritt fortzufahren und die Konfiguration vorübergehend zu speichern. Die Konfiguration wird nicht gespeichert, bis Sie die Schaltfläche Fertig im letzten Schritt klicken.

  • Änderungen verwerfen: Klicken Sie nach Änderungen, um die Konfiguration zu schließen, ohne die vorgenommenen Änderungen zu speichern. Eine Nachricht fragt Sie, ob Sie die Änderungen wirklich verwerfen möchten.

Interne Stage-Datei-Ansatz

Dieser Ansatz ermöglicht es, eine CSV-Datei in Snowflake einzufügen. Die Datei wird gestaged und dann gemäß den Spezifikationen des Anforderungsdatenschemas in die Tabelle kopiert.

  • Ansatz: Verwenden Sie das Dropdown-Menü, um Datei stagen auszuwählen.

  • Staging-Typ: Wählen Sie Intern, um die Daten aus einer internen Quelle abzurufen.

  • Bei Fehler: Wählen Sie eine dieser Optionen aus dem Dropdown-Menü Bei Fehler; zusätzliche Optionen werden entsprechend angezeigt:

    • Abort_Statement: Bricht die Verarbeitung ab, wenn Fehler auftreten.

    • Continue: Setzt das Laden der Datei fort, auch wenn Fehler auftreten.

    • Skip_File: Überspringt die Datei, wenn Fehler in der Datei auftreten.

    • Skip_File_\<num>: Überspringt die Datei, wenn die Anzahl der Fehler in der Datei die in Skip File Number angegebene Anzahl erreicht oder überschreitet.

    • Skip_File_\<num>%: Überspringt die Datei, wenn der Prozentsatz der Fehler in der Datei den in Skip File Number Percentage angegebenen Prozentsatz überschreitet.

  • Error on Column Count Mismatch: Wenn ausgewählt, wird ein Fehler im Fehlerknoten des Antwortschemas gemeldet, wenn die Quell- und Zielspaltenanzahl nicht übereinstimmt. Wenn Sie diese Option nicht auswählen, schlägt die Operation nicht fehl und die bereitgestellten Daten werden eingefügt.

  • Back: Klicken Sie, um zum vorherigen Schritt zurückzukehren und die Konfiguration vorübergehend zu speichern.

  • Next: Klicken Sie, um zum nächsten Schritt fortzufahren und die Konfiguration vorübergehend zu speichern. Die Konfiguration wird nicht gespeichert, bis Sie die Schaltfläche Finished im letzten Schritt klicken.

  • Discard Changes: Klicken Sie nach Änderungen, um die Konfiguration zu schließen, ohne die vorgenommenen Änderungen zu speichern. Eine Nachricht fragt Sie, ob Sie die Änderungen verwerfen möchten.

Google Cloud Storage Stage File Ansatz

Dieser Ansatz ermöglicht es, eine CSV-Datei in Google Cloud Storage einzufügen. Die Datei wird zwischengespeichert und dann gemäß den Spezifikationen des Anforderungsdatenschemas in die Tabelle kopiert.

  • Approach: Verwenden Sie das Dropdown-Menü, um Stage File auszuwählen.

  • Stage Type: Wählen Sie Google Cloud Storage, um die Daten aus einer internen Quelle abzurufen.

  • Storage Integration Name: Geben Sie den Namen der Snowflake-Speicherintegration ein.

  • Bucket Name: Geben Sie einen gültigen Bucket-Namen für einen vorhandenen Bucket in Google Cloud Storage ein. Dies wird ignoriert, wenn bucketName im Datenschema InsertGoogleCloudRequest bereitgestellt wird.

  • Dateipfad: Geben Sie den Dateipfad ein.

  • Bei Fehler: Wählen Sie eine dieser Optionen aus dem Dropdown-Menü Bei Fehler; zusätzliche Optionen erscheinen entsprechend:

    • Abort_Statement: Bricht die Verarbeitung ab, wenn Fehler auftreten.

    • Continue: Setzt das Laden der Datei fort, auch wenn Fehler auftreten.

    • Skip_File: Überspringt die Datei, wenn Fehler in der Datei auftreten.

    • Skip_File_\<num>: Überspringt die Datei, wenn die Anzahl der Fehler in der Datei die in Überspringen Dateinummer angegebene Zahl erreicht oder überschreitet.

    • Skip_File_\<num>%: Überspringt die Datei, wenn der Prozentsatz der Fehler in der Datei den in Überspringen Dateinummer Prozentsatz angegebenen Prozentsatz überschreitet.

  • Fehler bei Spaltenanzahl-Mismatch: Wenn ausgewählt, wird ein Fehler im Fehlerknoten des Antwortschemas gemeldet, wenn die Quell- und Zielspaltenanzahlen nicht übereinstimmen. Wenn Sie diese Option nicht auswählen, schlägt die Operation nicht fehl und die bereitgestellten Daten werden eingefügt.

  • Zurück: Klicken Sie, um zum vorherigen Schritt zurückzukehren und die Konfiguration vorübergehend zu speichern.

  • Weiter: Klicken Sie, um zum nächsten Schritt fortzufahren und die Konfiguration vorübergehend zu speichern. Die Konfiguration wird nicht gespeichert, bis Sie die Schaltfläche Fertig im letzten Schritt klicken.

  • Änderungen verwerfen: Klicken Sie nach Änderungen, um die Konfiguration zu schließen, ohne die vorgenommenen Änderungen zu speichern. Eine Nachricht fragt Sie, ob Sie die Änderungen wirklich verwerfen möchten.

Microsoft Azure Stage File Ansatz

Dieser Ansatz ermöglicht es, eine CSV-Datei in Snowflake einzufügen, indem eine Microsoft Azure-Quelle verwendet wird. Die Datei wird gestaged und dann gemäß den Spezifikationen des Anforderungsdatenschemas in die Tabelle kopiert.

  • Ansatz: Verwenden Sie das Dropdown-Menü, um Stage File auszuwählen.

  • Staging-Typ: Wählen Sie Microsoft Azure, um Daten aus Microsoft Azure-Speichercontainern abzurufen.

  • Authentifizierungstyp: Wählen Sie entweder Anmeldeinformationen oder Speicherintegration. Anmeldeinformationen erfordert ein Microsoft Azure Shared Access Signature (SAS)-Token und einen Speicherkontonamen. Speicherintegration erfordert nur einen Namen für die Speicherintegration. Diese Authentifizierungstypen werden im Folgenden behandelt.

Anmeldeinformationen-Authentifizierung

Der Anmeldeinformationen-Authentifizierungstyp erfordert ein Microsoft Azure SAS-Token und einen Speicherkontonamen.

  • Authentifizierungstyp: Wählen Sie Anmeldeinformationen.

  • Azure SAS-Token: Geben Sie das Microsoft Azure SAS-Token ein. Informationen zur Erstellung von SAS-Token für Speicherkonten in Microsoft Azure finden Sie unter SAS-Token für Ihre Speicherkonten erstellen in der Microsoft Azure-Dokumentation.

  • Speicherkontoname: Geben Sie den Namen des Microsoft Azure-Speicherkontos ein.

Speicherintegrations-Authentifizierung

Der Speicherintegration-Authentifizierungstyp erfordert die Erstellung einer Snowflake-Speicherintegration. Informationen zur Erstellung einer Snowflake-Speicherintegration finden Sie unter Speicherintegration erstellen in der Snowflake-Dokumentation.

  • Authentifizierungstyp: Wählen Sie Speicherintegration.

  • Name der Speicherintegration: Geben Sie den Namen der Snowflake-Speicherintegration ein.

Zusätzliche Optionen

Für sowohl Anmeldeinformationen als auch Speicherintegration-Authentifizierung gibt es diese zusätzlichen Optionen:

  • Master Key: Geben Sie den Master-Key ein, der für die clientseitige Verschlüsselung (CSE) in Microsoft Azure verwendet wird. Dies wird ignoriert, wenn azureMasterKey im Datenschema InsertMicrosoftAzureCloudRequest bereitgestellt wird.

    Hinweis

    Informationen zur Erstellung von Schlüsseln in Microsoft Azure finden Sie unter Schnellstart: Einen Schlüssel im Azure Key Vault über das Azure-Portal festlegen und abrufen in der Microsoft Azure-Dokumentation.

    Informationen zur Speicher-CSE in Microsoft Azure finden Sie unter Clientseitige Verschlüsselung für Blobs in der Microsoft Azure-Dokumentation.

  • Containername: Geben Sie einen gültigen Bucket-Namen für einen vorhandenen Speichercontainer in Microsoft Azure ein. Dies wird ignoriert, wenn containerName im Datenschema InsertMicrosoftAzureCloudRequest bereitgestellt wird.

  • Dateipfad: Geben Sie den Dateipfad ein.

  • Bei Fehler: Wählen Sie eine der Optionen aus dem Dropdown-Menü Bei Fehler; zusätzliche Optionen erscheinen entsprechend:

    • Abort_Statement: Bricht die Verarbeitung ab, wenn Fehler auftreten.

    • Fortfahren: Setzt das Laden der Datei fort, auch wenn Fehler auftreten.

    • Datei_Überspringen: Überspringt die Datei, wenn Fehler in der Datei auftreten.

    • Datei_Überspringen_\<num>: Überspringt die Datei, wenn die Anzahl der Fehler in der Datei die in Überspringen Dateinummer angegebene Zahl erreicht oder überschreitet.

    • Datei_Überspringen_\<num>%: Überspringt die Datei, wenn der Prozentsatz der Fehler in der Datei den in Überspringen Dateinummer Prozentsatz angegebenen Prozentsatz überschreitet.

  • Fehler bei Spaltenanzahl-Mismatch: Wenn ausgewählt, wird ein Fehler im Fehlerknoten des Antwortschemas gemeldet, wenn die Quell- und Zielspaltenanzahl nicht übereinstimmt. Wenn Sie diese Option nicht auswählen, schlägt die Operation nicht fehl und die bereitgestellten Daten werden eingefügt.

  • Zurück: Klicken Sie, um zum vorherigen Schritt zurückzukehren und die Konfiguration vorübergehend zu speichern.

  • Weiter: Klicken Sie, um zum nächsten Schritt fortzufahren und die Konfiguration vorübergehend zu speichern. Die Konfiguration wird nicht gespeichert, bis Sie die Schaltfläche Fertig im letzten Schritt klicken.

  • Änderungen verwerfen: Klicken Sie nach Änderungen, um die Konfiguration zu schließen, ohne die vorgenommenen Änderungen zu speichern. Eine Nachricht fragt Sie, ob Sie die Änderungen wirklich verwerfen möchten.

Schritt 3: Überprüfen Sie die Datenschemas

Die Anforderungs- und Antwortschemas, die von dem Endpunkt generiert wurden, werden angezeigt. Die angezeigten Schemata hängen von dem im vorherigen Schritt angegebenen Ansatz ab.

Diese Unterabschnitte beschreiben die Anforderungs- und Antwortstrukturen für jede Kombination von Ansatz und Stagetyp:

Diese Aktionen sind mit jedem Ansatz verfügbar:

  • Daten-Schemas: Diese Daten-Schemas werden von benachbarten Transformationen übernommen und während der Transformationszuordnung erneut angezeigt.

    Hinweis

    Daten, die in einer Transformation bereitgestellt werden, haben Vorrang vor der Aktivitätskonfiguration.

    Tipp

    Wenn ein einfaches Anführungszeichen (') in einem Anforderungs-Payload vorhanden ist, wird zur Laufzeit ein Syntaxfehler zurückgegeben. Sie können die Einstellung Sonderzeichen escapen in der Verbindung aktivieren, um der Aktivität zu ermöglichen, einfache Anführungszeichen (') zur Laufzeit automatisch zu escapen.

    Der Snowflake-Connector verwendet Version 3.19.0 des Snowflake JDBC-Treibers und die Snowflake SQL-Befehle. Weitere Informationen zu den Schema-Knoten und -Feldern finden Sie in der API-Dokumentation.

  • Aktualisieren: Klicken Sie auf das Aktualisierungssymbol oder das Wort Aktualisieren, um die Schemata vom Snowflake-Endpunkt neu zu generieren. Diese Aktion regeneriert auch ein Schema an anderen Stellen im Projekt, an denen dasselbe Schema referenziert wird, wie in einer benachbarten Transformation.

  • Zurück: Klicken Sie, um die Konfiguration für diesen Schritt vorübergehend zu speichern und zum vorherigen Schritt zurückzukehren.

  • Fertig: Klicken Sie, um die Konfiguration für alle Schritte zu speichern und die Aktivitätskonfiguration zu schließen.

  • Änderungen verwerfen: Nachdem Sie Änderungen vorgenommen haben, klicken Sie, um die Konfiguration zu schließen, ohne die Änderungen an einem Schritt zu speichern. Eine Nachricht fragt Sie, ob Sie die Änderungen verwerfen möchten.

SQL Insert-Ansatz

Wenn der Ansatz SQL Insert ist, werden die Tabellen-Spalten angezeigt, sodass sie in einer Transformation zugeordnet werden können.

  • Anfrage

    Anfrage-Schema Feld/Knoten Hinweise
    table Knoten, der den Tabellennamen anzeigt.
    column_A Name der ersten Tabellen-Spalte.
    column_B Name der zweiten Tabellen-Spalte.
    . . . Folgende Tabellen-Spalten.
  • Antwort

    Antwort-Schema Feld/Knoten Hinweise
    status Boolean-Flag, das angibt, ob die Datensatz-Einfügung erfolgreich war.
    errorMessage Beschreibende Fehlermeldung, falls ein Fehler während der Einfügung auftritt.
    recordsInserted Anzahl der eingefügten Datensätze, falls die Einfügung erfolgreich war.

Amazon S3 Stage File-Ansatz

Wenn der Ansatz Amazon S3 Stage File ist, werden die Spezifikationen für das Staging und Einfügen einer CSV-Datei im Datenschema angezeigt, damit sie in einer Transformation zugeordnet werden können. Das verwendete Muster dient dazu, nur eine Datei zuzuordnen. Wenn das Muster mehr als eine Datei zuordnet, wird die Aktivität mit einer beschreibenden Nachricht fehlschlagen.

  • Anfrage

    Anfrage-Schema Feld/Knoten Hinweise
    accessKey Amazon S3 Access Key ID.
    secretAccessKey Amazon S3 Secret Access Key.
    storageintegrationName Name der Snowflake-Speicherintegration, die für die Authentifizierung der Snowflake-Speicherintegration verwendet werden soll.
    bucketName Gültiger Bucket-Name für einen vorhandenen Bucket auf dem Amazon S3-Server.
    filePath Speicherort der Stage-Datei im Amazon S3-Bucket.
    pattern Reguläres Ausdrucksmuster, das zum Finden der Datei auf der Stage verwendet wird; wenn compression GZIP ist, wird [.]gz an das Muster angehängt.
    onError On Error-Option ausgewählt.
    encryption Knoten, der die Verschlüsselung darstellt.
    encryptionType [Amazon S3-Verschlüsselungstyp][aws-encryption] (entweder serverseitige Verschlüsselung oder clientseitige Verschlüsselung).
    masterKey Amazon S3 Master Key.
    kmsKeyId [Amazon Key Management Service][amazon-kms] Master-ID.
    fileFormat Knoten, der das Dateiformat darstellt.
    nullIf Ein String, der in SQL NULL umgewandelt werden soll; standardmäßig ist es ein leerer String. Siehe die NULL_IF-Option der Snowflake COPY INTO <location> Dokumentation.
    enclosingChar Zeichen, das verwendet wird, um Datenfelder einzuschließen; siehe die FIELD_OPTIONALLY_ENCLOSED_BY-Option der Snowflake COPY INTO <location> Dokumentation.

    Hinweis

    Das enclosingChar kann entweder ein einfaches Anführungszeichen ' oder ein doppeltes Anführungszeichen " sein. Um das einfache Anführungszeichen zu verwenden, verwenden Sie entweder die oktale ' oder die hexadezimale 0x27 Darstellung oder verwenden Sie eine doppelte einfache Anführungszeichen-Escape ''. Wenn ein Feld dieses Zeichen enthält, entkommen Sie ihm mit demselben Zeichen.

    compression Der Komprimierungsalgorithmus, der für die Datendateien verwendet wird. GZIP oder NONE werden unterstützt. Siehe die Komprimierungsoption der Snowflake COPY INTO <location> Dokumentation.
    skipHeader Anzahl der Zeilen am Anfang der Quelldatei, die übersprungen werden sollen.
    errorOnColumnCountMismatch Boolean-Flag, um einen Fehler zu melden, wenn die Quell- und Zielanzahl des Antwortschemas nicht übereinstimmen.
    fieldDelimiter Das Trennzeichen, das verwendet wird, um Datenfelder zu trennen; siehe die FIELD_DELIMITER-Option der Snowflake COPY INTO <table> Dokumentation.
    recordDelimiter Das Trennzeichen, das verwendet wird, um Gruppen von Feldern zu trennen; siehe die RECORD_DELIMITER-Option der Snowflake COPY INTO <table> Dokumentation.
  • Antwort

    Antwortschema Feld/Knoten Hinweise
    status Zurückgegebener Status.
    file Name der gestellten CSV-Datei, die beim Einfügen von Daten in die Snowflake-Tabelle verarbeitet wurde.
    rows_parsed Anzahl der aus der CSV-Datei geparsten Zeilen.
    rows_loaded Anzahl der ohne Fehler aus der CSV-Datei in die Snowflake-Tabelle geladenen Zeilen.
    error Knoten, der die Fehlermeldungen darstellt.
    error_limit Anzahl der Fehler, die dazu führen, dass die Datei übersprungen wird, wie in Skip_File_\<num> festgelegt.
    errors_seen Anzahl der gesehenen Fehler.
    first_error Der erste Fehler in der Quelldatei.
    first_error_line Die erste Zeilennummer des ersten Fehlers.
    first_error_character Das erste Zeichen des ersten Fehlers.
    first_error_column_name Der Spaltenname des ersten Fehlerorts.

Google Cloud Storage Stage File-Ansatz

Wenn der Ansatz Google Cloud Storage Stage File ist, werden die Spezifikationen für das Staging und Einfügen einer CSV-Datei im Datenschema angezeigt, damit sie in einer Transformation zugeordnet werden können. Das verwendete Muster ist so gestaltet, dass nur eine Datei übereinstimmt. Wenn das Muster mit mehr als einer Datei übereinstimmt, tritt ein Fehler mit einer beschreibenden Meldung auf.

  • Anfrage

    Anfrage-Schema Feld/Knoten Anmerkungen
    storageintegrationName Name der Snowflake-Speicherintegration, die für die Authentifizierung der Snowflake-Speicherintegration verwendet werden soll.
    bucketName Gültiger Bucket-Name für einen vorhandenen Bucket in Google Cloud Storage.
    filePath Speicherort der Stage-Datei im Google Cloud Storage-Bucket.
    pattern Regulärer Ausdruck, der zum Finden der Datei auf der Stage verwendet wird; wenn compressData wahr ist, wird [.]gz an das Muster angehängt.
    onError Bei Fehler ausgewählte Option.
    fileFormat Knoten, der das Dateiformat darstellt.
    nullIf Ein String, der in SQL NULL umgewandelt werden soll; standardmäßig ist es ein leerer String. Siehe die NULL_IF-Option der Snowflake COPY INTO <location> Dokumentation.
    enclosingChar Zeichen, das verwendet wird, um Datenfelder einzuschließen; siehe die FIELD_OPTIONALLY_ENCLOSED_BY-Option der Snowflake COPY INTO <location> Dokumentation.

    Hinweis

    Das enclosingChar kann entweder ein einfaches Anführungszeichen ' oder ein doppeltes Anführungszeichen " sein. Um das einfache Anführungszeichen zu verwenden, verwenden Sie entweder die oktale ' oder die hexadezimale 0x27 Darstellung oder verwenden Sie eine doppelte einfache Anführungszeichen-Escape ''. Wenn ein Feld dieses Zeichen enthält, escapen Sie es mit demselben Zeichen.

    compression Der Komprimierungsalgorithmus, der für die Datendateien verwendet wird. GZIP oder NONE werden unterstützt. Siehe die Komprimierungsoption der Snowflake COPY INTO <location> Dokumentation.
    skipHeader Anzahl der Zeilen am Anfang der Quelldatei, die übersprungen werden sollen.
    errorOnColumnCountMismatch Boolean-Flag, um einen Fehler zu melden, wenn die Quell- und Zielanzahl des Antwortschemas nicht übereinstimmen.
    fieldDelimiter Das Trennzeichen, das verwendet wird, um Datenfelder zu trennen; siehe die FIELD_DELIMITER-Option der Snowflake COPY INTO <table> Dokumentation.
    recordDelimiter Das Trennzeichen, das verwendet wird, um Gruppen von Feldern zu trennen; siehe die RECORD_DELIMITER-Option der Snowflake COPY INTO <table> Dokumentation.
  • Antwort

    Antwort-Schema Feld/Knoten Hinweise
    status Zurückgegebener Status.
    file Name der gestellten CSV-Datei, die beim Einfügen von Daten in die Snowflake-Tabelle verarbeitet wurde.
    rows_parsed Anzahl der aus der CSV-Datei geparsten Zeilen.
    rows_loaded Anzahl der ohne Fehler aus der CSV-Datei in die Snowflake-Tabelle geladenen Zeilen.
    error Knoten, der die Fehlermeldungen darstellt.
    error_limit Anzahl der Fehler, die dazu führen, dass die Datei übersprungen wird, wie in Skip_File_\<num> festgelegt.
    errors_seen Anzahl der gesehenen Fehler.
    first_error Der erste Fehler in der Quelldatei.
    first_error_line Die erste Zeilennummer des ersten Fehlers.
    first_error_character Das erste Zeichen des ersten Fehlers.
    first_error_column_name Der Spaltenname des ersten Fehlerorts.

Interner Staging-Dateiansatz

Wenn der Ansatz Interner Staging-Datei ist, werden die Spezifikationen für das Staging und Einfügen einer CSV-Datei im Datenschema angezeigt, damit sie in einer Transformation zugeordnet werden können. Das verwendete Muster ist so gestaltet, dass nur eine Datei übereinstimmt. Wenn das Muster mit mehr als einer Datei übereinstimmt, tritt ein Fehler mit einer beschreibenden Nachricht auf.

  • Anfrage

    Anfrage-Schema Feld/Knoten Hinweise
    stageName Interner Snowflake-Stadium, Tabellenname oder Pfad.
    destinationPrefix Pfad oder Präfix, unter dem die Daten im Snowflake-Stadium hochgeladen werden.
    fileContent Dateninhalte der Datei im CSV-Format, die für den Upload in die Snowflake-Tabelle vorbereitet werden sollen.
    destinationFileName Ziel-Dateiname, der im Snowflake-Stadium verwendet werden soll.
    compressData Boolean-Flag, ob die Daten vor dem Hochladen in das interne Snowflake-Stadium komprimiert werden sollen.
    pattern Regulärer Ausdruck, der zum Finden der Datei im Stadium verwendet wird; wenn compressData wahr ist, wird [.]gz an das Muster angehängt.
    onError Bei Fehler ausgewählte Option.
    fileFormat Knoten, der das Dateiformat darstellt.
    nullIf Ein String, der in SQL NULL umgewandelt werden soll; standardmäßig ist es ein leerer String. Siehe die NULL_IF-Option der Snowflake COPY INTO <location> Dokumentation.
    enclosingChar Zeichen, das verwendet wird, um Datenfelder einzuschließen; siehe die FIELD_OPTIONALLY_ENCLOSED_BY-Option der Snowflake COPY INTO <location> Dokumentation.

    Hinweis

    Das enclosingChar kann entweder ein einfaches Anführungszeichen ' oder ein doppeltes Anführungszeichen " sein. Um das einfache Anführungszeichen zu verwenden, nutzen Sie entweder die oktale ' oder die hexadezimale 0x27 Darstellung oder verwenden Sie eine doppelte einfache Anführungszeichen-Escape ''. Wenn ein Feld dieses Zeichen enthält, escapen Sie es mit demselben Zeichen.

    errorOnColumnCountMismatch Boolean-Flag, um einen Fehler zu melden, wenn die Quell- und Zielanzahl des Antwortschemas nicht übereinstimmen.
    fieldDelimiter Das Trennzeichen, das verwendet wird, um Datenfelder zu trennen; siehe die FIELD_DELIMITER-Option der Snowflake COPY INTO <table> Dokumentation.
    recordDelimiter Das Trennzeichen, das verwendet wird, um Gruppen von Feldern zu trennen; siehe die RECORD_DELIMITER-Option der Snowflake COPY INTO <table> Dokumentation.
  • Antwort

    Antwort-Schema Feld/Knoten Hinweise
    file Name der gestellten CSV-Datei, die verarbeitet wird, wenn Daten in die Snowflake-Tabelle eingefügt werden.
    status Zurückgegebener Status.
    rowsParsed Anzahl der aus der CSV-Datei geparsten Zeilen.
    rowsLoaded Anzahl der ohne Fehler aus der CSV-Datei in die Snowflake-Tabelle geladenen Zeilen.
    error Knoten, der die Fehlermeldungen darstellt.
    error Die Fehlermeldung.
    code Der zurückgegebene Fehlercode.
    sqlState Der zurückgegebene numerische SQL-Zustandsfehlercode des Datenbankaufrufs.
    file Knoten, der die Fehlermeldungen darstellt.
    columnName Name und Reihenfolge der Spalte, die den Fehler enthielt.
    rowNumber Die Nummer der Zeile in der Quelldatei, in der der Fehler aufgetreten ist.
    rowStartLine Die Nummer der ersten Zeile der Zeile, in der der Fehler aufgetreten ist.

Microsoft Azure Stage File-Ansatz

Wenn der Ansatz Microsoft Azure Stage File ist, werden die Spezifikationen für das Staging und Einfügen einer CSV-Datei im Datenschema angezeigt, damit sie in einer Transformation zugeordnet werden können. Das verwendete Muster ist so gestaltet, dass nur eine Datei übereinstimmt. Wenn das Muster mit mehr als einer Datei übereinstimmt, wird die Aktivität mit einer beschreibenden Fehlermeldung fehlschlagen.

  • Anfrage

    Anfrage-Schema Feld/Knoten Hinweise
    azureSasToken Microsoft Azure Shared Access Signature (SAS) Token.
    azureStorageAccountName Microsoft Azure Storage-Konto-Name.
    azureStorageintegrationName Name der Snowflake-Speicherintegration, die für die Authentifizierung der Snowflake-Speicherintegration verwendet werden soll.
    containerName Gültiger Containername für einen vorhandenen Speicherkontainer in Microsoft Azure.
    filePath Speicherort der Stage-Datei im Microsoft Azure-Speicherkontainer.
    pattern Regulärer Ausdruck, der zum Finden der Datei auf der Stage verwendet wird; wenn compression GZIP ist, wird [.]gz an das Muster angehängt.
    onError Bei Fehler ausgewählte Option.
    encryption Knoten, der die Verschlüsselung darstellt.
    encryptionType Microsoft Azure-Verschlüsselungstyp (nur clientseitige Verschlüsselung).
    azureMasterKey Microsoft Azure Master Key.
    fileFormat Knoten, der das Dateiformat darstellt.
    nullIf Ein String, der in SQL NULL umgewandelt werden soll; standardmäßig ist es ein leerer String. Siehe die NULL_IF-Option der Snowflake COPY INTO <location> Dokumentation.
    enclosingChar Zeichen, das verwendet wird, um Datenfelder einzuschließen; siehe die FIELD_OPTIONALLY_ENCLOSED_BY-Option der Snowflake COPY INTO <location> Dokumentation.

    Hinweis

    Das enclosingChar kann entweder ein einfaches Anführungszeichen ' oder ein doppeltes Anführungszeichen " sein. Um das einfache Anführungszeichen zu verwenden, nutzen Sie entweder die oktale ' oder die hexadezimale 0x27 Darstellung oder verwenden Sie eine doppelte einfache Anführungszeichen-Escape ''. Wenn ein Feld dieses Zeichen enthält, escapen Sie es mit demselben Zeichen.

    compression Der Komprimierungsalgorithmus, der für die Datendateien verwendet wird. GZIP oder NONE werden unterstützt. Siehe die Komprimierungsoption der Snowflake COPY INTO <location> Dokumentation.
    skipHeader Anzahl der Zeilen am Anfang der Quelldatei, die übersprungen werden sollen.
    errorOnColumnCountMismatch Boolean-Flag, um einen Fehler zu melden, wenn die Quell- und Zielanzahl des Antwortschemas nicht übereinstimmen.
    fieldDelimiter Das Trennzeichen, das verwendet wird, um Datenfelder zu trennen; siehe die FIELD_DELIMITER-Option der Snowflake COPY INTO <table> Dokumentation.
    recordDelimiter Das Trennzeichen, das verwendet wird, um Gruppen von Feldern zu trennen; siehe die RECORD_DELIMITER-Option der Snowflake COPY INTO <table> Dokumentation.
  • Antwort

    Antwort-Schema Feld/Knoten Hinweise
    status Zurückgegebener Status.
    file Name der gestellten CSV-Datei, die beim Einfügen von Daten in die Snowflake-Tabelle verarbeitet wurde.
    rows_parsed Anzahl der aus der CSV-Datei geparsten Zeilen.
    rows_loaded Anzahl der ohne Fehler aus der CSV-Datei in die Snowflake-Tabelle geladenen Zeilen.
    error Knoten, der die Fehlermeldungen darstellt.
    error_limit Anzahl der Fehler, die dazu führen, dass die Datei übersprungen wird, wie in Skip_File_\<num> festgelegt.
    errors_seen Anzahl der gesehenen Fehler.
    first_error Der erste Fehler in der Quelldatei.
    first_error_line Die erste Zeilennummer des ersten Fehlers.
    first_error_character Das erste Zeichen des ersten Fehlers.
    first_error_column_name Der Spaltenname des ersten Fehlerorts.

Nächste Schritte

Nachdem Sie eine Snowflake Insert-Aktivität konfiguriert haben, vervollständigen Sie die Konfiguration der Operation, indem Sie andere Aktivitäten oder Werkzeuge als Operation Schritte hinzufügen und konfigurieren. Sie können auch die Betriebseinstellungen konfigurieren, die die Möglichkeit umfassen, Operationen zusammenzuführen, die sich in denselben oder unterschiedlichen Workflows befinden.

Menüaktionen für eine Aktivität sind im Projektbereich und auf der Entwurfsgrafik zugänglich. Für Details siehe Aktionsmenü der Aktivität in Connector-Grundlagen.

Snowflake Insert-Aktivitäten können als Ziel mit diesen Betriebsmustern verwendet werden:

Um die Aktivität mit Skriptfunktionen zu verwenden, schreiben Sie die Daten an einen temporären Ort und verwenden Sie dann diesen temporären Ort in der Skriptfunktion.

Wenn Sie bereit sind, setzen Sie die Operation ein und führen Sie sie aus und validieren Sie das Verhalten, indem Sie die Betriebsprotokolle überprüfen.