Hinweis
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, sich anzumelden oder das Verzeichnis zu wechseln.
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, das Verzeichnis zu wechseln.
In diesem Artikel wird beschrieben, wie Administratoren den Zugriff auf Daten in einem Container in Azure Data Lake Storage (ADLS) konfigurieren können, damit Azure Databricks-Benutzer Daten aus ADLS in eine Tabelle in Azure Databricks laden können.
In diesem Artikel werden die folgenden Möglichkeiten zum Konfigurieren des sicheren Zugriffs auf Quelldaten beschrieben:
- (Empfohlen) Erstellen Sie ein Unity Catalog-Volume.
- Erstellen eines externen Unity Catalog-Speicherorts mit Speicheranmeldeinformationen
- Starten Sie eine Rechenressource, die einen Dienstprinzipal verwendet
- Generieren temporärer Anmeldeinformationen (ein Blob-SAS-Token)
Bevor Sie beginnen
Bevor Sie den Zugriff auf Daten in ADLS konfigurieren, stellen Sie sicher, dass Sie über Folgendes verfügen:
- Daten in einem Container in Ihrem Azure Storage-Konto. Informationen zum Erstellen eines Containers finden Sie unter Erstellen eines Containers in der Azure Storage-Dokumentation.
- Die Nutzung eines Unity Catalog-Volumes zum Zugriff auf Daten (empfohlen) erfordert die
READ VOLUME-Berechtigung für das Volume. Weitere Informationen finden Sie unter "Was sind Unity-Katalogvolumes? und Unity-Katalogberechtigungen". - Um auf Daten über einen externen Speicherort im Unity Catalog zuzugreifen, wird das
READ FILES-Privileg für diesen Speicherort benötigt. Weitere Informationen finden Sie unter Erteilen von Berechtigungen für einen externen Speicherort.
- Um auf Daten mit einer Compute-Ressource und einem Dienstprinzipal zuzugreifen, sind Administratorberechtigungen für den Azure Databricks-Arbeitsbereich erforderlich.
- So greifen Sie mit temporären Anmeldeinformationen auf Daten zu:
- Berechtigungen für den*die Azure Databricks-Arbeitsbereichsadministrator*in.
- Berechtigungen in Ihrem Azure-Konto zum Erstellen von Blob-SAS-Token. Dadurch können Sie temporäre Anmeldeinformationen generieren.
- Ein Databricks SQL-Warehouse. Informationen zum Erstellen eines SQL-Warehouse finden Sie unter Erstellen eines SQL-Warehouse.
- Kenntnisse der Benutzeroberfläche von Databricks SQL.
Konfigurieren des Zugriffs auf Cloudspeicher
Verwenden Sie eine der folgenden Methoden, um den Zugriff auf ADLS zu konfigurieren:
- (Empfohlen) Erstellen Sie ein Unity Catalog-Volume. Weitere Informationen finden Sie unter Was sind Unity Catalog-Volumes?.
- Konfigurieren eines externen Unity Catalog-Speicherorts mit Speicheranmeldeinformationen. Weitere Informationen zu externen Speicherorten finden Sie unter Übersicht über externe Speicherorte.
- Konfigurieren einer Rechnerressource für die Verwendung eines Dienstprinzipals. Weitere Informationen finden Sie unter Konfigurieren eines Dienstprinzipals.
- Generieren Sie temporäre Anmeldeinformationen (ein Blob SAS-Token), um sie mit anderen Azure Databricks-Benutzern zu teilen. Weitere Informationen finden Sie unter Generieren temporärer Anmeldeinformationen für die Erfassung.
Bereinigen
Sie können die mit Ihrem Cloud-Konto und Azure Databricks verbundenen Ressourcen bereinigen, wenn Sie diese nicht länger behalten möchten.
Löschen des ADLS-Speicherkontos
- Öffnen Sie das Azure-Portal für Ihr Azure-Konto, typischerweise bei https://portal.azure.com.
- Navigieren Sie zu Ihrem Speicherkonto, und öffnen Sie es.
- Klicken Sie auf Löschen.
- Geben Sie den Namen des Kontos ein, und klicken Sie dann auf Löschen.
Beenden des SQL-Warehouse
Wenn Sie das SQL-Warehouse nicht für andere Aufgaben verwenden, sollten Sie es beenden, um zusätzliche Kosten zu vermeiden.
- Klicken Sie in der SQL Persona auf der Randleiste auf SQL-Warehouses.
- Klicken Sie neben dem Namen des SQL-Warehouse auf Beenden.
- Wenn Sie dazu aufgefordert werden, klicken Sie erneut auf Beenden.
Nächste Schritte
Nachdem Sie die Schritte in diesem Artikel ausgeführt haben, können Benutzer den COPY INTO Befehl ausführen, um die Daten aus dem ADLS-Container in Ihren Azure Databricks-Arbeitsbereich zu laden.
- Informationen zum Laden von Daten mithilfe eines Unity-Katalogvolumes oder eines externen Speicherorts finden Sie unter Laden von Daten mit COPY INTO Unity-Katalogvolumes oder externen Speicherorten.
- Informationen zum Laden von Daten mithilfe eines SQL-Warehouses mit einem Dienstprinzipal finden Sie unter Laden von Daten mit COPY INTO einem Dienstprinzipal.
- Informationen zum Laden von Daten mit temporären Anmeldeinformationen (einem Blob SAS-Token) finden Sie unter Laden von Daten mit COPY INTO temporären Anmeldeinformationen.