Freigeben über


Laden von Daten aus Microsoft 365 (Office 365) mithilfe von Azure Data Factory

Gilt für: Azure Data Factory Azure Synapse Analytics

Tipp

Data Factory in Microsoft Fabric ist die nächste Generation von Azure Data Factory mit einer einfacheren Architektur, integrierter KI und neuen Features. Wenn Sie mit der Datenintegration noch nicht vertraut sind, beginnen Sie mit Fabric Data Factory. Vorhandene ADF-Workloads können auf Fabric aktualisiert werden, um auf neue Funktionen in der Datenwissenschaft, Echtzeitanalysen und Berichterstellung zuzugreifen.

In diesem Artikel erfahren Sie, wie Sie die Data Factory verwenden, um Daten aus Microsoft 365 (Office 365) in den Azure Blob-Speicher zu laden. Sie können ähnliche Schritte ausführen, um Daten in Azure Data Lake Gen1 oder Gen2 zu kopieren. Informationen zum Kopieren von Daten aus Microsoft 365 (Office 365) im Allgemeinen finden Sie im Artikel Microsoft 365 (Office 365)-Connector-Artikel.

Erstellen einer Data Factory

  1. Wenn Sie Ihre Datenfactory noch nicht erstellt haben, führen Sie die Schritte in Quickstart aus: Erstellen Sie eine Datenfactory mithilfe des Azure Portals und Azure Data Factory Studio, um eine zu erstellen. Navigieren Sie nach der Erstellung zur Data Factory im Azure-Portal.

    Startseite für die Azure Data Factory, mit der Kachel

  2. Wählen Sie Open im Open Azure Data Factory Studio Kachel aus, um die Datenintegrationsanwendung auf einer separaten Registerkarte zu starten.

Erstellen einer Pipeline

  1. Wählen Sie auf der Startseite die Option Orchestrieren aus.

    Screenshot, der die ADF-Startseite zeigt.

  2. Geben Sie auf der Registerkarte Allgemein der Pipeline als Name der Pipeline „CopyPipeline“ ein.

  3. Im Aktivitäten-Toolfeld Kategorie "Verschieben & Transformieren" ziehen Sie die Aktivität "Kopieren" aus dem Werkzeugkasten auf die Oberfläche des Pipeline-Designers. Geben Sie „CopyFromOffice365ToBlob“ als Aktivitätsnamen an.

Hinweis

Verwenden Sie Azure Integrationslaufzeit sowohl in Quell- als auch in sink-verknüpften Diensten. Die selbstgehostete Integration Runtime und die verwaltete Integration Runtime für virtuelle Netzwerke werden nicht unterstützt.

Konfigurieren der Quelle

  1. Navigieren Sie zur Pipeline und zur Registerkarte >Quelle, und wählen Sie + Neu aus, um ein Quelldataset zu erstellen.

  2. Wählen Sie im Fenster "Neues Dataset" Microsoft 365 (Office 365) aus, und wählen Sie dann Continue aus.

  3. Sie befinden sich jetzt auf der Registerkarte "Konfiguration der Kopieraktivität". Wählen Sie auf der Schaltfläche Edit neben dem Dataset Microsoft 365 (Office 365) aus, um die Datenkonfiguration fortzusetzen.

    Konfiguriere Microsoft 365 (Office 365) Datensatz allgemein.

  4. Sie sehen, dass eine neue Registerkarte für den Microsoft 365-Datensatz (Office 365) geöffnet wird. Geben Sie auf der Registerkarte General unten im Eigenschaftenfenster "SourceOffice365Dataset" für "Name" ein.

  5. Wechseln Sie zur Registerkarte Verbinden des Eigenschaftenfenster. Klicken Sie neben dem Textfeld „Verknüpfter Dienst“ auf + Neu.

  6. Geben Sie im Fenster „New Linked Service“ (Neuer verknüpfter Dienst) als Name „Office365LinkedService“ sowie die Dienstprinzipal-ID und den Dienstprinzipalschlüssel ein. Testen Sie anschließend die Verbindung, und wählen Sie Erstellen aus, um den verknüpften Dienst bereitzustellen.

    Neuer Microsoft 365 (Office 365) verknüpfter Dienst.

  7. Nach der Erstellung des verknüpften Diensts werden wieder die Datensatzeinstellungen angezeigt. Wählen Sie neben Table den Abwärtspfeil aus, um die Liste der verfügbaren Microsoft 365 -Datasets (Office 365) zu erweitern und "BasicDataSet_v0" auszuwählen. Message_v0" aus der Dropdownliste:

    Konfigurieren der Microsoft 365 (Office 365) Datensatztabelle.

  8. Kehren Sie nun zur Registerkarte pipeline>Source zurück, um weitere Eigenschaften für Microsoft 365 -Datenextraktion (Office 365) zu konfigurieren. Der Benutzerbereichs- und Der Benutzerbereichsfilter sind optionale Prädikate, die Sie definieren können, um die Daten einzuschränken, die Sie aus Microsoft 365 extrahieren möchten (Office 365). Informationen zum Konfigurieren dieser Einstellungen finden Sie im Abschnitt Microsoft 365 (Office 365)-Dataseteigenschaften.

  9. Sie müssen einen der Datumsfilter auswählen und Werte für die Start- und Endzeit angeben.

  10. Klicken Sie auf die Registerkarte Schema importieren, um das Schema für das Nachrichtendataset zu importieren.

    Konfigurieren Sie das Microsoft 365 (Office 365) Datensatzschema.

Senke konfigurieren

  1. Wechseln Sie zur Pipeline und zur >Registerkarte Senke, und wählen Sie + Neu aus, um ein Senkendataset zu erstellen.

  2. Beachten Sie im Fenster "Neues Dataset", dass beim Kopieren aus Microsoft 365 (Office 365) nur die unterstützten Ziele ausgewählt werden. Wählen Sie Azure Blob Storage aus, wählen Sie "Binärformat" und dann Continue aus. In diesem Lernprogramm kopieren Sie Microsoft 365 (Office 365) Daten in eine Azure Blob Storage.

  3. Klicken Sie auf die Edit-Schaltfläche neben dem Azure Blob Storage-Dataset, um die Datenkonfiguration fortzusetzen.

  4. Geben Sie auf der Registerkarte Allgemein des Eigenschaftenfensters im Feld Name "OutputBlobDataset" ein.

  5. Wechseln Sie zur Registerkarte Verbinden des Eigenschaftenfenster. Klicken Sie neben dem Textfeld „Verknüpfter Dienst“ auf + Neu.

  6. Geben Sie im Fenster „New Linked Service“ (Neuer verknüpfter Dienst) als Name „AzureStorageLinkedService“ ein, wählen Sie in der Dropdownliste der Authentifizierungsmethoden die Option „Dienstprinzipal“ aus, und geben Sie den Dienstendpunkt, den Mandanten, die Dienstprinzipal-ID und den Dienstprinzipalschlüssel ein. Wählen Sie anschließend „Speichern“ aus, um den verknüpften Dienst bereitzustellen. Informationen zum Einrichten der Dienstprinzipalauthentifizierung für Azure Blob Storage finden Sie unter here.

    Neuer Blob-verbundener Dienst

Überprüfen der Pipeline

Klicken Sie auf der Symbolleiste auf Überprüfen, um die Pipeline zu überprüfen.

Sie können den JSON-Code der Pipeline auch anzeigen, indem Sie oben rechts auf „Code“ klicken.

Veröffentlichen Sie die Pipeline

Wählen Sie auf der oberen Symbolleiste Publish All (Alle veröffentlichen). Mit dieser Aktion werden erstellte Entitäten (Datasets und Pipelines) in Data Factory veröffentlicht.

Veröffentlichen von Änderungen

Manuelles Auslösen der Pipeline

Wählen Sie in der Symbolleiste die Option Trigger hinzufügen und dann Jetzt auslösen. Klicken Sie auf der Seite „Pipeline Run“ (Pipelineausführung) auf Fertig stellen.

Überwachen der Pipeline

Wechseln Sie links zur Registerkarte Überwachen. Sie sehen eine Pipelineausführung, die von einem manuellen Trigger ausgelöst wird. Sie können über Links in der Spalte Aktionen Aktivitätsdetails anzeigen und die Pipeline erneut ausführen.

Überwachen der Pipeline

Klicken Sie in der Spalte „Aktionen“ auf den Link View Activity Runs (Aktivitätsausführungen anzeigen), um mit der Pipelineausführung verknüpfte Aktivitätsausführungen anzuzeigen. Da in diesem Beispiel nur eine Aktivität vorhanden ist, wird in der Liste nur ein Eintrag angezeigt. Wenn Sie Details zum Kopiervorgang anzeigen möchten, wählen Sie in der Spalte „Aktionen“ den Link Details (Brillensymbol) aus.

Überwachen der Aktivität

Wenn Sie erstmals Daten für diesen Kontext anfordern (also für eine Kombination daraus, auf welche Datentabelle zugegriffen wird, in welches Zielkonto die Daten geladen werden und welche Benutzeridentität die Datenzugriffsanforderung sendet), wird als Status der Kopieraktivität In Bearbeitung angezeigt. Nur wenn Sie unter „Aktionen“ den Link „Details“ auswählen, wird als Status RequestingConsent angezeigt. Ein Mitglied aus der Gruppe der Datenzugriffsgenehmiger muss die Anforderung in Privileged Access Management genehmigen, bevor die Datenextraktion fortgesetzt werden kann.

Status, in dem Zustimmung angefordert wird:Details zur Aktivitätsausführung: Anfordern der Zustimmung

Status, in dem Daten extrahiert werden:

Details zur Aktivitätsausführung: Extrahieren der Daten

Nach dem Erteilen der Zustimmung wird die Datenextraktion fortgesetzt, und nach einiger Zeit wird der Pipeline-Durchlauf als erfolgreich angezeigt.

Überwachen der Pipeline: Erfolgreich

Wechseln Sie nun zum Ziel Azure Blob Storage und überprüfen Sie, ob Microsoft 365 -Daten (Office 365) im Binärformat extrahiert wurden.

Wechseln Sie zum folgenden Artikel, um mehr über Azure Synapse Analytics Support zu erfahren: