Freigeben über


Video-Tutorials zum Mapping-Datenfluss

Gilt für: Azure Data Factory Azure Synapse Analytics

Tipp

Data Factory in Microsoft Fabric ist die nächste Generation von Azure Data Factory mit einer einfacheren Architektur, integrierter KI und neuen Features. Wenn Sie mit der Datenintegration noch nicht vertraut sind, beginnen Sie mit Fabric Data Factory. Vorhandene ADF-Workloads können auf Fabric aktualisiert werden, um auf neue Funktionen in der Datenwissenschaft, Echtzeitanalysen und Berichterstellung zuzugreifen.

Nachfolgend finden Sie eine Liste der Lernvideos zum Zuordnen des Datenflusses, die vom Azure Data Factory Team erstellt wurden.

Da Updates ständig an dem Produkt vorgenommen werden, verfügen einige Features in der aktuellen Azure Data Factory Nutzererfahrung über hinzugefügte oder veränderte Funktionen.

Erste Schritte

Erste Schritte mit Zuordnungsdatenflüssen in Azure Data Factory

Debuggen und Entwickeln von Zuordnungsdatenflüssen

Debuggen und Testen von Zuordnungsdatenflüssen

Datenuntersuchung

Schnelle Aktionen für die Datenvorschau

Überwachen und Verwalten der Leistung von Zuordnungsdatenflüssen

Benchmark-Zeiten

Debuggen von Workflows für Datenflüsse

Aktualisierte Überwachungsansicht

Übersicht über Transformationen

Aggregattransformation

Zeilenänderungstransformation

Derived Column Transformation

Join-Transformation

Selbstverknüpfungsmuster

Lookup transformation (Suchtransformation)

Updates und Tipps zur Lookup-Transformation

Pivot-Transformation

Transformation für Pivot: Zuordnen abweichender Spalten

Transformation auswählen

Auswahltransformation: Regelbasierte Zuordnung

Auswahltransformation: Große Datasets

Ersatzschlüsseltransformation

Vereinigungstransformation

Unpivot-Transformation

Fenstertransformation

Filter Transformation

Bedingte Aufteilungstransformation

Exists-Transformation

Dynamische Verknüpfungen und dynamische Suchen

Vereinfachungstransformation

Flowlets

Stringify-Transformation

Transformation externer Aufrufe

Transformieren hierarchischer Daten

Rangtransformation

Zwischengespeicherte Abfrage

Zeilenkontext über Fenstertransformation

Analysieren der Transformation

Transformieren komplexer Datentypen

Ausgabe an nächste Aktivität

Stringify-Transformation

Transformation externer Aufrufe

Transformation bestätigen

Protokollieren von Assert-Fehlerzeilen

Fuzzy-Join

Quelle und Senke

Lesen und Schreiben von JSONs

Parquet und durch Trennzeichen getrennte Textdateien

CosmosDB-Connector

Ableiten von Datentypen in durch Trennzeichen getrennten Textdateien

Lesen und Schreiben partitionierter Dateien

Transformieren und Erstellen mehrerer SQL-Tabellen

Partitionieren Ihrer Dateien im Data Lake

Data Warehouse-Ladeverfahren

Ausgabeoptionen für Data Lake-Dateien

Optimieren von Mapping-Datenflüssen

Datenherkunft

Durchlaufen von Dateien mit Parametern

Verkürzen der Startzeit

Leistung der SQL-Datenbank

Protokollierung und Überwachung

Dynamisches Optimieren der Datenfluss-Clustergröße zur Laufzeit

Optimieren der Startzeiten für den Datenfluss

Azure Integration Runtimes für Datenflüsse

Schnelle Cluster-Startzeitdauer mit Azure IR

Szenarien für Zuordnungsdatenflüsse

Fuzzysuche

Staging-Datenmuster

Muster für bereinigte Adressen

Deduplizierung

Zusammenführen von Dateien

Langsam veränderliche Dimensionen, Typ 1: Überschreiben

Langsam veränderliche Dimensionen, Typ 2: Verlauf

Laden von Faktentabellen

Transform SQL Server on-prem mit Delta-Datenlademuster

Parametrisierung

Individuelle Zeilen und Zeilenanzahl

Behandeln von Kürzungsfehlern

Intelligentes Datenrouting

Datenmaskierung für vertrauliche Daten

Gegenüberstellung von logischen Modellen und physischen Modellen

Erkennen von Quelldatenänderungen

Generischer Typ 2 – langsam veränderliche Dimension

Löschen von Zeilen im Ziel, wenn sie nicht in der Quelle vorhanden sind

Inkrementelles Laden von Daten mit Azure Data Factory und Azure SQL DB

Transformieren von Avro-Daten aus Event Hubs mithilfe von Parse und Flatten

Datenflussausdrücke

Ausdrücke für Datum/Uhrzeit

Aufteilen von Arrays und Case-Anweisungen

Spaß mit Zeichenfolgeninterpolation und Parametern

Datenfluss Script Intro: Kopieren, Einfügen, Codeausschnitte

Ausdrücke zur Datenqualität

Erfassen der Aggregatfunktion

Dynamische Ausdrücke als Parameter

Benutzerdefinierte Funktionen

Metadaten

Metadatenvalidierungsregeln