Hinweis
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, sich anzumelden oder das Verzeichnis zu wechseln.
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, das Verzeichnis zu wechseln.
Gilt für:
Azure Data Factory
Azure Synapse Analytics
Tipp
Data Factory in Microsoft Fabric ist die nächste Generation von Azure Data Factory mit einer einfacheren Architektur, integrierter KI und neuen Features. Wenn Sie mit der Datenintegration noch nicht vertraut sind, beginnen Sie mit Fabric Data Factory. Vorhandene ADF-Workloads können auf Fabric aktualisiert werden, um auf neue Funktionen in der Datenwissenschaft, Echtzeitanalysen und Berichterstellung zuzugreifen.
Nachfolgend finden Sie eine Liste der Lernvideos zum Zuordnen des Datenflusses, die vom Azure Data Factory Team erstellt wurden.
Da Updates ständig an dem Produkt vorgenommen werden, verfügen einige Features in der aktuellen Azure Data Factory Nutzererfahrung über hinzugefügte oder veränderte Funktionen.
Erste Schritte
Erste Schritte mit Zuordnungsdatenflüssen in Azure Data Factory
Debuggen und Entwickeln von Zuordnungsdatenflüssen
Debuggen und Testen von Zuordnungsdatenflüssen
Schnelle Aktionen für die Datenvorschau
Überwachen und Verwalten der Leistung von Zuordnungsdatenflüssen
Debuggen von Workflows für Datenflüsse
Aktualisierte Überwachungsansicht
Übersicht über Transformationen
Lookup transformation (Suchtransformation)
Updates und Tipps zur Lookup-Transformation
Transformation für Pivot: Zuordnen abweichender Spalten
Auswahltransformation: Regelbasierte Zuordnung
Auswahltransformation: Große Datasets
Bedingte Aufteilungstransformation
Dynamische Verknüpfungen und dynamische Suchen
Transformation externer Aufrufe
Transformieren hierarchischer Daten
Zeilenkontext über Fenstertransformation
Analysieren der Transformation
Transformieren komplexer Datentypen
Transformation externer Aufrufe
Protokollieren von Assert-Fehlerzeilen
Quelle und Senke
Parquet und durch Trennzeichen getrennte Textdateien
Ableiten von Datentypen in durch Trennzeichen getrennten Textdateien
Lesen und Schreiben partitionierter Dateien
Transformieren und Erstellen mehrerer SQL-Tabellen
Partitionieren Ihrer Dateien im Data Lake
Ausgabeoptionen für Data Lake-Dateien
Optimieren von Mapping-Datenflüssen
Durchlaufen von Dateien mit Parametern
Protokollierung und Überwachung
Dynamisches Optimieren der Datenfluss-Clustergröße zur Laufzeit
Optimieren der Startzeiten für den Datenfluss
Azure Integration Runtimes für Datenflüsse
Schnelle Cluster-Startzeitdauer mit Azure IR
Szenarien für Zuordnungsdatenflüsse
Muster für bereinigte Adressen
Langsam veränderliche Dimensionen, Typ 1: Überschreiben
Langsam veränderliche Dimensionen, Typ 2: Verlauf
Transform SQL Server on-prem mit Delta-Datenlademuster
Individuelle Zeilen und Zeilenanzahl
Datenmaskierung für vertrauliche Daten
Gegenüberstellung von logischen Modellen und physischen Modellen
Erkennen von Quelldatenänderungen
Generischer Typ 2 – langsam veränderliche Dimension
Löschen von Zeilen im Ziel, wenn sie nicht in der Quelle vorhanden sind
Inkrementelles Laden von Daten mit Azure Data Factory und Azure SQL DB
Transformieren von Avro-Daten aus Event Hubs mithilfe von Parse und Flatten
Datenflussausdrücke
Aufteilen von Arrays und Case-Anweisungen
Spaß mit Zeichenfolgeninterpolation und Parametern
Datenfluss Script Intro: Kopieren, Einfügen, Codeausschnitte
Dynamische Ausdrücke als Parameter