Hinweis
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, sich anzumelden oder das Verzeichnis zu wechseln.
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, das Verzeichnis zu wechseln.
Hinweis
Dieser Artikel behandelt Databricks Connect für Databricks Runtime Version 13.3 LTS und höher.
In diesem Artikel werden Einschränkungen mit Databricks Connect für Python aufgeführt. Databricks Connect ermöglicht es Ihnen, beliebte IDEs, Notizbuchserver und benutzerdefinierte Anwendungen mit Azure Databricks Clustern zu verbinden. Weitere Informationen finden Sie unter Databricks Connect. Die Scala-Version dieses Artikels finden Sie unter Einschränkungen bei Databricks Connect für Scala.
Von Bedeutung
Abhängig von der Version von Python, Databricks Runtime und Databricks Connect, die Sie verwenden, kann es für einige Funktionen Versionsanforderungen geben. Siehe Databricks Connect-Nutzungsanforderungen.
Verfügbarkeit von Funktionen
Nicht verfügbar in Databricks Connect für Databricks Runtime 13.3 LTS und früher:
- Streaming
foreachBatch - Erstellen von DataFrames über 128 MB
- Lange Abfragen über 3.600 Sekunden
Für Databricks Connect in Databricks Runtime 15.3 und älteren Versionen nicht verfügbar:
-
ApplyinPandas()undCogroup()mit Compute mit Standardzugriffsmodus
Nicht verfügbar für Databricks Connect bei Databricks Runtime 16.3 und älter:
- Bei serverloser Berechnung können UDFs keine benutzerdefinierten Bibliotheken enthalten.
Nicht verfügbar:
-
dataframe.display()-API - Databricks-Hilfsprogramme:
credentials,library,notebook workflowundwidgets - Spark-Kontext
- RDDs
- Bibliotheken, die RDDs, Spark Context oder Zugriff auf den zugrunde liegenden Spark JVM verwenden, z. B. Mosaik-Geospatial, GraphFrames oder GreatExpectations
-
CREATE TABLE <table-name> AS SELECT(verwenden Sie stattdessenspark.sql("SELECT ...").write.saveAsTable("table")) - Ändern der log4j-Protokollebene durch
SparkContext - Verteilte ML-Schulung wird nicht unterstützt.
- Synchronisieren der lokalen Entwicklungsumgebung mit dem Remotecluster