Ausführen von Notebooks im Microsoft Sentinel Data Lake

Jupyter Notebooks bieten eine interaktive Umgebung zum Untersuchen, Analysieren und Visualisieren von Daten im Microsoft Sentinel Data Lake und Verbundtabellen. Mit Notebooks können Sie Code schreiben und ausführen, Ihren Workflow dokumentieren und Ergebnisse anzeigen – alles an einem Ort. Dies erleichtert das Durchsuchen von Daten, das Erstellen erweiterter Analyselösungen und das Teilen von Erkenntnissen mit anderen. Durch die Nutzung von Python und Apache Spark in Visual Studio Code helfen Notebooks Ihnen, rohe Sicherheitsdaten in umsetzbare Intelligenz zu transformieren.

In diesem Artikel erfahren Sie, wie Sie Data Lake-Daten mithilfe von Jupyter Notebooks in Visual Studio Code untersuchen und damit interagieren.

Voraussetzungen

Onboarding in den Microsoft Sentinel Data Lake

Um Notebooks im Microsoft Sentinel Data Lake verwenden zu können, müssen Sie zuerst das Onboarding in den Data Lake durchführen. Wenn Sie noch kein Onboarding in den Sentinel Data Lake vorgenommen haben, finden Sie weitere Informationen unter Onboarding to Microsoft Sentinel Data Lake( Onboarding to Microsoft Sentinel Data Lake). Wenn Sie kürzlich das Onboarding in den Data Lake durchgeführt haben, kann es einige Zeit dauern, bis eine ausreichende Menge an Daten erfasst wird, bevor Sie aussagekräftige Analysen mithilfe von Notebooks erstellen können.

Berechtigungen

Microsoft Entra ID Rollen bieten umfassenden Zugriff auf alle Arbeitsbereiche im Data Lake. Alternativ können Sie zugriff auf einzelne Arbeitsbereiche gewähren, indem Sie Azure RBAC-Rollen verwenden. Benutzer mit Azure RBAC-Berechtigungen für Microsoft Sentinel Arbeitsbereiche können Notebooks für diese Arbeitsbereiche auf der Data Lake-Ebene ausführen. Weitere Informationen finden Sie unter Rollen und Berechtigungen in Microsoft Sentinel.

Optional kann Microsoft Sentinel Bereichs- oder RBAC auf Zeilenebene konfiguriert werden, um den Datenzugriff innerhalb eines Arbeitsbereichs weiter einzuschränken. Wenn diese Option aktiviert ist, schränkt die Bereichsdefinition auf Zeilenebene die von Abfragen zurückgegebenen Daten basierend auf dem zugewiesenen Bereich des Benutzers ein. Wenn die Bereichsdefinition auf Zeilenebene nicht konfiguriert ist, wird das vorhandene Berechtigungsmodell auf Arbeitsbereichsebene unverändert angewendet. Weitere Informationen finden Sie unter Konfigurieren Microsoft Sentinel Bereich (RBAC auf Zeilenebene) (Vorschau).

Um neue benutzerdefinierte Tabellen auf der Analyseebene zu erstellen, muss der verwalteten Data Lake-Identität die Rolle Log Analytics-Mitwirkender im Log Analytics-Arbeitsbereich zugewiesen werden.

Führen Sie die folgenden Schritte aus, um die Rolle zuzuweisen:

  1. Navigieren Sie im Azure-Portal zu dem Log Analytics-Arbeitsbereich, dem Sie die Rolle zuweisen möchten.
  2. Wählen Sie im linken Navigationsbereich Zugriffssteuerung (IAM) aus.
  3. Wählen Sie Rollenzuweisung hinzufügen aus.
  4. Wählen Sie in der Tabelle Rolle die Option Log Analytics-Mitwirkender und dann Weiter aus.
  5. Wählen Sie Verwaltete Identität und dann Mitglieder auswählen aus.
  6. Ihre verwaltete Data Lake-Identität ist eine systemseitig zugewiesene verwaltete Identität namens msg-resources-<guid>. Wählen Sie die verwaltete Identität und dann Auswählen aus.
  7. Wählen Sie Überprüfen und zuweisen aus.

Weitere Informationen zum Zuweisen von Rollen zu verwalteten Identitäten finden Sie unter Zuweisen von Azure Rollen mithilfe des Azure-Portal.

Installieren von Visual Studio Code und der Microsoft Sentinel-Erweiterung

Wenn Sie noch nicht über Visual Studio Code verfügen, laden Sie Visual Studio Code für Mac, Linux oder Windows herunter, und installieren Sie es.

Die Microsoft Sentinel-Erweiterung für Visual Studio Code (VS Code) wird über den Marketplace für Erweiterungen installiert. Führen Sie die folgenden Schritte aus, um die Erweiterung zu installieren:

  1. Wählen Sie in der linken Symbolleiste den Marketplace für Erweiterungen aus.
  2. Suchen Sie nach Sentinel.
  3. Wählen Sie die Microsoft Sentinel-Erweiterung und dann Installieren aus.
  4. Nachdem die Erweiterung installiert wurde, wird das Microsoft Sentinel Shield-Symbol in der linken Symbolleiste angezeigt.

Screenshot: Erweiterungsmarktplatz

Installieren Sie die GitHub Copilot-Erweiterung für Visual Studio Code, um codevervollständigen und Vorschläge in Notebooks zu ermöglichen.

  1. Suchen Sie im Marketplace für Erweiterungen nach GitHub Copilot, und installieren Sie sie.
  2. Melden Sie sich nach der Installation mit Ihrem GitHub-Konto bei GitHub Copilot an.

Erkunden von Data Lake-Ebenentabellen

Nach der Installation der Microsoft Sentinel-Erweiterung können Sie damit beginnen, Data Lake-Tariftabellen zu untersuchen und Jupyter Notebooks zu erstellen, um die Daten zu analysieren.

Anmelden bei der Microsoft Sentinel-Erweiterung

  1. Wählen Sie in der linken Symbolleiste das Symbol Microsoft Sentinel Schild aus.

  2. Es wird ein Dialogfeld mit dem folgenden Text angezeigt: Die Erweiterung "Microsoft Sentinel" möchte sich mit Microsoft anmelden. Wählen Sie Zulassen aus.

    Screenshot des Anmeldedialogfelds

  3. Wählen Sie Ihren Kontonamen aus, um die Anmeldung abzuschließen.

    Screenshot: Kontoauswahlliste oben auf der Seite

    Wenn Ihrer Anmeldung mehrere Gastkonten zugeordnet sind, können Sie nahtlos zwischen Konten wechseln. Um zwischen Konten zu wechseln, wählen Sie unten links im Visual Studio Code-Fenster den Kontonamen aus. Es kann jeweils nur ein Konto ausgewählt werden.

    Screenshot: Wechseln von Konten in Visual Studio Code

    Wichtig

    Beim Wechseln zwischen Konten werden alle aktiven pyspark-Sitzungen getrennt.

Anzeigen von Data Lake-Tabellen und -Aufträgen

Nach der Anmeldung zeigt die erweiterung Sentinel im linken Bereich eine Liste der Lake-Tabellen und Aufträge an. Die Tabellen werden nach datenbank und kategorie gruppiert. Verbundtabellen werden unter der Kategorie Verbundtabellen unter Systemtabellen angezeigt. Wählen Sie eine Tabelle aus, um die Spaltendefinitionen anzuzeigen.

Informationen zu Aufträgen finden Sie unter Aufträge und Zeitplanung. Weitere Informationen zu Verbundtabellen finden Sie unter Verwenden von Verbundtabellen im Microsoft Sentinel Data Lake.

Screenshot: Liste der Tabellen, Aufträge und metadaten der ausgewählten Tabelle

Erstellen eines neuen Notebooks

  1. Verwenden Sie eine der folgenden Methoden, um ein neues Notebook zu erstellen.

  2. Geben Sie > in das Suchfeld ein, oder drücken Sie STRG+UMSCHALT+P, und geben Sie dann Create New Jupyter Notebook ein. Screenshot: Erstellen eines neuen Notizbuchs über die Suchleiste

  3. Wählen Sie Datei > Neue Datei und dann in der Dropdownliste Jupyter Notebook aus.
    Screenshot: Erstellen eines neuen Notizbuchs im Dateimenü

  4. Fügen Sie im neuen Notebook den folgenden Code in die erste Zelle ein.

    from sentinel_lake.providers import MicrosoftSentinelProvider
    data_provider = MicrosoftSentinelProvider(spark)
    
    table_name = "EntraGroups"  
    df = data_provider.read_table(table_name)  
    df.select("displayName", "groupTypes", "mail", "mailNickname", "description", "tenantId").show(100,   truncate=False)  
    

Der Editor bietet IntelliSense-Codevervollständigen sowohl für die MicrosoftSentinelProvider Klassen- als auch für die Tabellennamen im Data Lake.

  1. Wählen Sie das Dreieck Ausführen aus, um den Code im Notebook auszuführen. Die Ergebnisse werden im Ausgabebereich unterhalb der Codezelle angezeigt.
    Screenshot: Ausführen einer Notebookzelle

  2. Wählen Sie Microsoft Sentinel aus der Liste aus, um eine Liste der Laufzeitpools zu erhalten. Screenshot: Laufzeitauswahl

  3. Wählen Sie Mittel aus, um das Notebook im mittelgroßen Laufzeitpool auszuführen. Weitere Informationen zu den verschiedenen Runtimes finden Sie unter Auswählen der entsprechenden Microsoft Sentinel Runtime. Screenshot: Auswahl für die Größe des ausführenden Pools

Hinweis

Wenn Sie den Kernel auswählen, wird die Spark-Sitzung gestartet und der Code im Notebook ausgeführt. Nachdem Sie den Pool ausgewählt haben, kann es 3-5 Minuten dauern, bis die Sitzung gestartet wird. Nachfolgende Ausführungen werden schneller ausgeführt, da die Sitzung bereits aktiv ist.

Wenn die Sitzung gestartet wird, wird der Code im Notebook ausgeführt, und die Ergebnisse werden im Ausgabebereich unterhalb der Codezelle angezeigt, z. B.: Screenshot mit den Ergebnissen der Ausführung einer Notebookzelle.

Beispielnotebooks, die die Interaktion mit dem Microsoft Sentinel Data Lake veranschaulichen, finden Sie unter Beispielnotebooks für Microsoft Sentinel Data Lake.

Statusleiste

Die status-Leiste am unteren Rand des Notebooks enthält Informationen zum aktuellen Zustand des Notebooks und der Spark-Sitzung. Die status-Leiste enthält die folgenden Informationen:

  • Der Prozentsatz der V-Kern-Auslastung für den ausgewählten Spark-Pool. Zeigen Sie auf den Prozentsatz, um die Anzahl der verwendeten virtuellen Kerne und die Gesamtanzahl der im Pool verfügbaren virtuellen Kerne anzuzeigen. Die Prozentsätze stellen die aktuelle Nutzung für interaktive Workloads und Auftragsworkloads für das angemeldete Konto dar.

  • Die Verbindung status der Spark-Sitzung, z. BConnecting. , Connectedoder Not Connected.

Screenshot: status leiste am unteren Rand des Notebooks

Festlegen von Sitzungstimeouts

Sie können die Sitzungstimeout- und Timeoutwarnungen für interaktive Notizbücher festlegen. Um das Timeout zu ändern, wählen Sie die verbindung status in der status leiste unten im Notizbuch aus. Wählen Sie aus den folgenden Optionen aus:

  • Festlegen des Sitzungstimeoutzeitraums: Legt die Zeit in Minuten vor dem Sitzungstimeout fest. Der Standardwert beträgt 30 Minuten.

  • Sitzungstimeoutperiode zurücksetzen: Setzt das Sitzungstimeout auf den Standardwert von 30 Minuten zurück.

  • Sitzungstimeout-Warnzeitraum festlegen: Legt die Zeit in Minuten vor dem Timeout fest, für die eine Warnung angezeigt wird, dass für die Sitzung ein Timeout bevor steht. Der Standardwert beträgt 5 Minuten.

  • Warnungszeitraum zum Zurücksetzen des Sitzungstimeouts: Setzt die Sitzungstimeoutwarnung auf den Standardwert von 5 Minuten zurück.

    Screenshot: Sitzungstimeouteinstellung

Verwenden von GitHub Copilot in Notebooks

Verwenden Sie GitHub Copilot, um Code in Notebooks zu schreiben. GitHub Copilot bietet Codevorschläge und automatische Vervollständigung basierend auf dem Kontext Ihres Codes. Um GitHub Copilot zu verwenden, stellen Sie sicher, dass die GitHub Copilot-Erweiterung in Visual Studio Code installiert ist.

Kopieren Sie Code aus den Beispielnotebooks für Microsoft Sentinel Data Lake, und speichern Sie ihn im Ordner notebooks, um Kontext für GitHub Copilot bereitzustellen. GitHub Copilot können dann Code-Vervollständigungen basierend auf dem Kontext Ihres Notebooks vorschlagen.

Das folgende Beispiel zeigt GitHub Copilot Generieren einer Codeüberprüfung.

Screenshot: GitHub Copilot Generieren einer Codeüberprüfung

Microsoft Sentinel Provider-Klasse

Verwenden Sie die -Klasse, um eine Verbindung mit dem SentinelLakeProvider Microsoft Sentinel Data Lake herzustellen. Diese Klasse ist Teil des access_module.data_loader Moduls und stellt Methoden für die Interaktion mit dem Data Lake bereit. Um diese Klasse zu verwenden, importieren Sie sie, und erstellen Sie eine instance der -Klasse mithilfe einer spark Sitzung.

from sentinel_lake.providers import MicrosoftSentinelProvider
data_provider = MicrosoftSentinelProvider(spark)

Weitere Informationen zu den verfügbaren Methoden finden Sie unter Microsoft Sentinel Anbieterklassenreferenz.

Auswählen des geeigneten Laufzeitpools

Es stehen drei Laufzeitpools zur Verfügung, um Ihre Jupyter Notebooks in der Microsoft Sentinel-Erweiterung auszuführen. Jeder Pool ist für unterschiedliche Workloads und Leistungsanforderungen ausgelegt. Die Auswahl des Laufzeitpools wirkt sich auf die Leistung, die Kosten und die Ausführungszeit Ihrer Spark-Aufträge aus.

Laufzeitpool Empfohlene Anwendungsfälle Merkmale
Small Entwicklung, Tests und einfache explorative Analyse.
Kleine Workloads mit einfachen Transformationen.
Kosteneffizienz priorisiert.
Geeignet für kleine Workloads
Einfache Transformationen.
Geringere Kosten, längere Ausführungszeit.
Medium ETL-Aufträge mit Joins, Aggregationen und ML-Modelltraining.
Moderieren Sie Workloads mit komplexen Transformationen.
Verbesserte Leistung gegenüber Small.
Behandelt Parallelität und moderate speicherintensive Vorgänge.
Large Deep Learning- und ML-Workloads.
Umfangreiches Datenmuffling, große Verknüpfungen oder Echtzeitverarbeitung.
Kritische Ausführungszeit.
Hohe Arbeitsspeicher- und Computeleistung.
Minimale Verzögerungen.
Am besten geeignet für große, komplexe oder zeitkritische Workloads.

Hinweis

Beim ersten Zugriff kann das Laden der Kerneloptionen etwa 30 Sekunden dauern.
Nach dem Auswählen eines Laufzeitpools kann es 3 bis 5 Minuten dauern, bis die Sitzung gestartet wird.

Anzeigen von Nachrichten, Protokollen und Fehlern

Nachrichtenprotokolle und Fehlermeldungen werden in Visual Studio Code in drei Bereichen angezeigt.

  1. Der Bereich Ausgabe .

    1. Wählen Sie im Bereich Ausgabe in der Dropdownliste Microsoft Sentinel aus.
    2. Wählen Sie Debuggen aus, um ausführliche Protokolleinträge einzuschließen.

    Screenshot: Ausgabebereich

  2. Inlinenachrichten im Notebook liefern Feedback und Informationen zur Ausführung von Codezellen. Diese Meldungen umfassen Ausführung status Updates, Statusanzeigen und Fehlerbenachrichtigungen im Zusammenhang mit dem Code in der vorherigen Zelle.

  3. Ein Benachrichtigungs-Popupfenster in der unteren rechten Ecke von Visual Studio Code, das auch als Popupmeldung bekannt ist, enthält Echtzeitwarnungen und Aktualisierungen zu den status von Vorgängen im Notebook und in der Spark-Sitzung. Diese Benachrichtigungen umfassen Meldungen, Warnungen und Fehlerwarnungen wie erfolgreiche Verbindung mit einer Spark-Sitzung und Timeoutwarnungen.

    Screenshot: Popupmeldung und Inlinefehlermeldung

Aufträge und Planung

Mithilfe der Microsoft Sentinel-Erweiterung für Visual Studio Code können Sie Aufträge so planen, dass sie zu bestimmten Zeiten oder Intervallen ausgeführt werden. Mit Aufträgen können Sie Datenverarbeitungsaufgaben automatisieren, um Daten im Microsoft Sentinel Data Lake zusammenzufassen, zu transformieren oder zu analysieren. Aufträge werden auch verwendet, um Daten zu verarbeiten und Ergebnisse in benutzerdefinierte Tabellen auf der Data Lake- oder Analyseebene zu schreiben. Weitere Informationen zum Erstellen und Verwalten von Aufträgen finden Sie unter Erstellen und Verwalten von Jupyter Notebook-Aufträgen.

Dienstparameter und Grenzwerte für VS Code-Notebooks

Im folgenden Abschnitt werden die Dienstparameter und Grenzwerte für Microsoft Sentinel Data Lake bei Verwendung von VS Code Notebooks aufgeführt.

Kategorie Parameter/Grenzwert
Benutzerdefinierte Tabelle auf der Analyseebene Benutzerdefinierte Tabellen in der Analyseebene können nicht aus einem Notebook gelöscht werden. Verwenden Sie Log Analytics, um diese Tabellen zu löschen. Weitere Informationen finden Sie unter Hinzufügen oder Löschen von Tabellen und Spalten in Azure Monitor-Protokollen.
Gateway-Websockettimeout 2 Stunden
Timeout für interaktive Abfragen 2 Stunden
Timeout für interaktive Sitzungsinaktivität 20 Minuten
Sprache Python
Timeout für Notebookaufträge 8 Stunden
Maximale Anzahl gleichzeitiger Notebook-Aufträge 3. Nachfolgende Aufträge werden in die Warteschlange eingereiht
Maximale Anzahl gleichzeitiger Benutzer bei interaktiven Abfragen 8-10 für großen Pool
Sitzungsstartzeit Der Start der Spark-Computesitzung dauert etwa 5 bis 6 Minuten. Sie können die status der Sitzung unten in Ihrem VS Code-Notebook anzeigen.
Unterstützte Bibliotheken Nur Azure Synapse Bibliotheken 3.4 und die Microsoft Sentinel Provider-Bibliothek für abstrahierte Funktionen werden zum Abfragen des Data Lake unterstützt. Pip-Installationen oder benutzerdefinierte Bibliotheken werden nicht unterstützt.
VS Code-UX-Grenzwert für die Anzeige von Datensätzen 100 000 Zeilen

Problembehandlung

In der folgenden Tabelle sind häufige Fehler, die bei der Arbeit mit Notebooks auftreten können, deren Grundursachen und vorgeschlagene Aktionen aufgeführt, um sie zu beheben.

Fehlerkategorie Fehlername Fehlercode Fehlermeldung Vorgeschlagene Aktion
DatabaseError DatabaseNotFound 2001 Die Datenbank {DatabaseName} wurde nicht gefunden. Überprüfen Sie, ob die Datenbank vorhanden ist. Wenn die Datenbank neu ist, warten Sie auf eine Metadatenaktualisierung.
DatabaseError AmbiguousDatabaseName 2002 Mehrere Datenbanken (IDs: {DatabaseID1}, {DatabaseID2}, ...) teilen sich den Namen {DatabaseName}. Geben Sie eine bestimmte Datenbank-ID an. Geben Sie eine Datenbank-ID an, wenn mehrere Datenbanken denselben Namen haben.
DatabaseError DatabaseIdMismatch 2003 Datenbank ({DatabaseName}, ID {DatabaseID}) nicht gefunden. Überprüfen Sie sowohl den Datenbanknamen als auch die ID. Um Datenbank-IDs abzurufen, listen Sie alle Datenbanken auf.
DatabaseError ListDatabasesFailure 2004 Datenbanken können nicht abgerufen werden. Starten Sie die Sitzung neu, und versuchen Sie es erneut. Starten Sie die Sitzung neu, und wiederholen Sie den Vorgang nach einigen Minuten.
TableError TableDoesNotExist 2100 Die Tabelle {TableName} wurde in der Datenbank {DatabaseName} nicht gefunden. Überprüfen Sie, ob die Tabelle in der Datenbank vorhanden ist. Wenn die Tabelle oder Datenbank neu ist, warten Sie einige Minuten, und versuchen Sie es erneut.
TableError ProvisioningIncomplete 2101 Die Tabelle {TableName} ist nicht bereit. Warten Sie einige Minuten, bevor Sie es erneut versuchen. Die Tabelle wird bereitgestellt. Warten Sie einige Minuten, bevor Sie es erneut versuchen.
TableError DeltaTableMissing 2102 Die Tabelle {TableName} ist leer. Es kann einige Stunden dauern, bis neue Tabellen bereit sind. Die vollständige Synchronisierung einer Analysetabelle mit dem Data Lake kann einige Stunden dauern. Überprüfen Sie bei Tabellen, die sich nur im Data Lake befinden, ob die Daten geladen oder wiederhergestellt werden müssen.
TableError TableDoesNotExistForDelete 2103 Tabelle kann nicht gelöscht werden. Die Tabelle {TableName} wurde nicht gefunden. Überprüfen Sie, ob die Tabelle in der Datenbank vorhanden ist. Wenn die Tabelle oder Datenbank neu ist, warten Sie einige Minuten, und versuchen Sie es erneut.
AuthorizationFailure MissingSASToken 2201 Auf die Tabelle kann nicht zugegriffen werden. Starten Sie die Sitzung neu, und versuchen Sie es erneut. Fehler bei der Autorisierung beim Abrufen des Zugriffstokens für die Tabelle. Starten Sie die Sitzung neu, und versuchen Sie es erneut.
AuthorizationFailure InvalidSASToken 2202 Auf die Tabelle kann nicht zugegriffen werden. Starten Sie die Sitzung neu, und versuchen Sie es erneut. Fehler bei der Autorisierung beim Abrufen des Zugriffstokens für die Tabelle. Starten Sie die Sitzung neu, und versuchen Sie es erneut.
AuthorizationFailure TokenExpired 2203 Auf die Tabelle kann nicht zugegriffen werden. Starten Sie die Sitzung neu, und versuchen Sie es erneut. Fehler bei der Autorisierung beim Abrufen des Zugriffstokens für die Tabelle. Starten Sie die Sitzung neu, und versuchen Sie es erneut.
AuthorizationFailure TableInsufficientPermissions 2204 Zugriff erforderlich für die Tabelle {TableName} in der Datenbank {DatabaseName}. Wenden Sie sich an einen Administrator, um Zugriff auf die Tabelle oder die Datenbank (Arbeitsbereich) anzufordern.
AuthorizationFailure InternalTableAccessDenied 2205 Der Zugriff auf die Tabelle {TableName} ist eingeschränkt. Aus einem Notebook kann nur auf system- oder benutzerdefinierte Tabellen zugegriffen werden.
AuthorizationFailure TableAuthFailure 2206 Daten können nicht in der Tabelle gespeichert werden. Starten Sie die Sitzung neu, und versuchen Sie es erneut. Fehler bei der Autorisierung beim Versuch, Daten in der Tabelle zu speichern. Starten Sie die Sitzung neu, und versuchen Sie es erneut.
ConfigurationError HadoopConfigFailure 2301 Die Sitzungskonfiguration kann nicht aktualisiert werden. Starten Sie die Sitzung neu, und versuchen Sie es erneut. Dieses Problem ist vorübergehend und kann behoben werden, indem die Sitzung neu gestartet und erneut versucht wird. Wenn dieses Problem weiterhin besteht, wenden Sie sich an den Support.
Dataerror JsonParsingFailure 2302 Tabellenmetadaten wurden beschädigt. Wenden Sie sich an den Support, um Unterstützung zu erhalten. Wenden Sie sich an den Support, um Unterstützung zu erhalten. Geben Sie Ihre Mandanten-ID, den Tabellennamen und den Datenbanknamen an.
TableSchemaError TableSchemaMismatch 2401 Die Spalte wurde in der Zieltabelle nicht gefunden. Richten Sie das DataFrame-Schema und die Zieltabelle aus, oder verwenden Sie den Überschreibungsmodus. Aktualisieren Sie das DataFrame-Schema so, dass es mit der Tabelle in Ihrer Zieldatenbank übereinstimmt. Sie können die Tabelle auch vollständig im Überschreibungsmodus ersetzen.
TableSchemaError MissingRequiredColumns 2402 Die Spalte {ColumnName} fehlt im DataFrame. Überprüfen Sie das DataFrame-Schema, und richten Sie es an der Zieltabelle aus. Aktualisieren Sie das DataFrame-Schema so, dass es mit der Tabelle in Ihrer Zieldatenbank übereinstimmt. Sie können die Tabelle auch vollständig im Überschreibungsmodus ersetzen.
TableSchemaError ColumnTypeChangeNotAllowed 2403 Der Datentyp der Spalte {ColumnName} kann nicht geändert werden. Eine Änderung des Datentyps ist für die Spalte nicht zulässig. Überprüfen Sie vorhandene Spalten in der Zieltabelle, und richten Sie alle Datentypen im DataFrame aus.
TableSchemaError ColumnNullabilityChangeNotAllowed 2404 Die NULL-Zulässigkeit der Spalte {ColumnName} kann nicht geändert werden. Die NULL-Zulässigkeitseinstellungen der Spalte können nicht aktualisiert werden. Überprüfen Sie die Zieltabelle, und richten Sie die Einstellungen am DataFrame aus.
IngestionError FolderCreationFailure 2501 Speicher für die Tabelle {TableName} kann nicht erstellt werden. Dieses Problem ist vorübergehend und kann behoben werden, indem die Sitzung neu gestartet und erneut versucht wird. Wenn dieses Problem weiterhin besteht, wenden Sie sich an den Support.
IngestionError SubJobRequestFailure 2502 Der Erfassungsauftrag für die Tabelle {TableName} kann nicht erstellt werden. Dieses Problem ist vorübergehend und kann behoben werden, indem die Sitzung neu gestartet und erneut versucht wird. Wenn dieses Problem weiterhin besteht, wenden Sie sich an den Support.
IngestionError SubJobCreationFailure 2503 Der Erfassungsauftrag für die Tabelle {TableName} kann nicht erstellt werden. Dieses Problem ist vorübergehend und kann behoben werden, indem die Sitzung neu gestartet und erneut versucht wird. Wenn dieses Problem weiterhin besteht, wenden Sie sich an den Support.
InputError InvalidWriteMode 2601 Ungültiger Schreibmodus. Verwenden Sie anfügen oder überschreiben. Geben Sie vor dem Speichern des DataFrames einen gültigen Schreibmodus (Anfügen oder Überschreiben) an.
InputError PartitioningNotAllowed 2602 Analysetabellen können nicht partitionieren. Entfernen Sie jegliche Partitionierung für alle Spalten in Analysetabellen.
InputError MissingTableSuffixLake 2603 Ungültiger benutzerdefinierter Tabellenname. Alle Namen benutzerdefinierter Tabellen im Data Lake müssen mit _SPRK enden. Fügen Sie dem Tabellennamen _SPRK als Suffix hinzu, bevor Sie ihn in den Data Lake schreiben.
InputError MissingTableSuffixLA 2604 Ungültiger benutzerdefinierter Tabellenname. Alle Namen von benutzerdefinierten Analysetabellen müssen mit _SPRK_CL enden. Fügen Sie dem Tabellennamen _SPRK_CL als Suffix hinzu, bevor Sie ihn in den Analysespeicher schreiben.
UnknownError InternalServerError 2901 Ein Problem ist aufgetreten. Starten Sie die Sitzung neu, und versuchen Sie es erneut. Dieses Problem ist vorübergehend und kann behoben werden, indem die Sitzung neu gestartet und erneut versucht wird. Wenn dieses Problem weiterhin besteht, wenden Sie sich an den Support.

Hinweis

Das Abfragen von Legacytabellen wie AzureDiagnostics wird nicht unterstützt.