Hinweis
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, sich anzumelden oder das Verzeichnis zu wechseln.
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, das Verzeichnis zu wechseln.
Gilt für:
Azure Data Factory
Azure Synapse Analytics
Tipp
Data Factory in Microsoft Fabric ist die nächste Generation von Azure Data Factory mit einer einfacheren Architektur, integrierter KI und neuen Features. Wenn Sie mit der Datenintegration noch nicht vertraut sind, beginnen Sie mit Fabric Data Factory. Vorhandene ADF-Workloads können auf Fabric aktualisiert werden, um auf neue Funktionen in der Datenwissenschaft, Echtzeitanalysen und Berichterstellung zuzugreifen.
Wenn Sie Ihren Data Lake oder Enterprise Data Warehouse (EDW) zu Microsoft Azure migrieren möchten, sollten Sie Azure Data Factory verwenden. Azure Data Factory eignet sich gut für die folgenden Szenarien:
- Migration von Big Data Workload von Amazon Simple Storage Service (Amazon S3) oder einem lokalen Hadoop Distributed File System (HDFS) zu Azure
- EDW-Migration von Oracle Exadata, Netezza, Teradata oder Amazon Redshift zu Azure
Mit Azure Data Factory können bei der Data Lake-Migration Daten im Petabyte-Bereich (PB) und bei der Data Warehouse-Migration mehrere Terabytes (TB) an Daten verschoben werden.
Warum Azure Data Factory für die Datenmigration verwendet werden kann
- Azure Data Factory kann die Menge der Verarbeitungsleistung problemlos skalieren, um Daten auf serverlose Weise mit hoher Leistung, Resilienz und Skalierbarkeit zu verschieben. Sie bezahlen dabei nur für das, was Sie tatsächlich nutzen. Beachten Sie dabei außerdem Folgendes:
- Azure Data Factory hat keine Einschränkungen für das Datenvolume oder die Anzahl der Dateien.
- Azure Data Factory können Ihre Netzwerk- und Speicherbandbreite vollständig verwenden, um den höchsten Datenverschiebungsdurchsatz in Ihrer Umgebung zu erzielen.
- Azure Data Factory eine pay-as-you-go-Methode verwendet, sodass Sie nur für die Zeit bezahlen, die Sie tatsächlich zum Ausführen der Datenmigration zum Azure verwenden.
- Azure Data Factory können sowohl eine einmalige historische Last als auch geplante inkrementelle Lasten ausführen.
- Azure Data Factory verwendet Azure Integration Runtime (IR), um Daten zwischen öffentlich zugänglichen Data Lake- und Warehouse-Endpunkten zu verschieben. Von Azure Data Factory kann auch eine selbstgehostete IR verwendet werden, um Daten für Data Lake- und Data Warehouse-Endpunkte innerhalb von Azure Virtual Network (VNET) oder hinter einer Firewall zu verschieben.
- Azure Data Factory verfügt über Sicherheit auf Unternehmensniveau: Sie können Windows Installer (MSI) oder Dienstidentität für die sichere Dienst-zu-Dienst-Integration verwenden oder Azure Key Vault für die Verwaltung von Anmeldeinformationen verwenden.
- Azure Data Factory bietet eine codefreie Erstellungserfahrung und ein umfassendes, integriertes Überwachungsdashboard.
Online- im Vergleich zu Offlinedatenmigration
Azure Data Factory ist ein Standardmäßiges Onlinedatenmigrationstool zum Übertragen von Daten über ein Netzwerk (Internet, ER oder VPN). Während benutzer bei der Offlinedatenmigration geräte physisch von ihrer Organisation an ein Azure Data Center versenden.
Bei der Entscheidung zwischen Online- und Offlinemigration gibt es drei wichtige Kriterien:
- Größe der zu migrierenden Daten
- Netzwerkbandbreite
- Migrationszeitfenster
Gehen Sie beispielsweise davon aus, dass Sie Azure Data Factory verwenden möchten, um die Datenmigration innerhalb von zwei Wochen abzuschließen (Das Fenster migration). Beachten Sie die rosafarbene/blaue Markierung in der folgenden Tabelle. Die unterste rosafarbene Zelle einer Spalte gibt jeweils die Kombination aus Datengröße/Netzwerkbandbreite an, deren Migrationszeitfenster den zwei Wochen am nächsten kommt, ohne es zu übersteigen. (Bei den blau eingefärbten Kombinationen aus Größe/Bandbreite wird das zweiwöchige Zeitfenster für die Onlinemigration jeweils überschritten.)
Diese Tabelle hilft Ihnen zu bestimmen, ob Sie Ihr beabsichtigtes Migrationsfenster über die Onlinemigration (Azure Data Factory) basierend auf der Größe Ihrer Daten und ihrer verfügbaren Netzwerkbandbreite erfüllen können. Beträgt das Zeitfenster für die Onlinemigration mehr als zwei Wochen, empfiehlt sich eine Offlinemigration.
Hinweis
Bei der Onlinemigration können Sie mithilfe eines einzigen Tools im Rahmen eines End-to-End-Vorgangs sowohl historische Daten laden als auch inkrementelle Feeds nutzen. Dadurch bleiben Ihre Daten während des gesamten Migrationszeitfensters zwischen dem vorhandenen Speicher und dem neuen Speicher synchronisiert. Somit können Sie Ihre ETL-Logik im neuen Speicher mit aktualisierten Daten neu erstellen.