Freigeben über


Einschränkungen bei Databricks Connect für Python

Hinweis

Dieser Artikel behandelt Databricks Connect für Databricks Runtime Version 13.3 LTS und höher.

In diesem Artikel werden Einschränkungen mit Databricks Connect für Python aufgeführt. Databricks Connect ermöglicht es Ihnen, beliebte IDEs, Notizbuchserver und benutzerdefinierte Anwendungen mit Azure Databricks Clustern zu verbinden. Weitere Informationen finden Sie unter Databricks Connect. Die Scala-Version dieses Artikels finden Sie unter Einschränkungen bei Databricks Connect für Scala.

Von Bedeutung

Abhängig von der Version von Python, Databricks Runtime und Databricks Connect, die Sie verwenden, kann es für einige Funktionen Versionsanforderungen geben. Siehe Databricks Connect-Nutzungsanforderungen.

Verfügbarkeit von Funktionen

Nicht verfügbar in Databricks Connect für Databricks Runtime 13.3 LTS und früher:

  • Streaming foreachBatch
  • Erstellen von DataFrames über 128 MB
  • Lange Abfragen über 3.600 Sekunden

Für Databricks Connect in Databricks Runtime 15.3 und älteren Versionen nicht verfügbar:

  • ApplyinPandas() und Cogroup() mit Compute mit Standardzugriffsmodus

Nicht verfügbar für Databricks Connect bei Databricks Runtime 16.3 und älter:

  • Bei serverloser Berechnung können UDFs keine benutzerdefinierten Bibliotheken enthalten.

Nicht verfügbar:

  • dataframe.display()-API
  • Databricks-Hilfsprogramme: credentials, library, notebook workflow und widgets
  • Spark-Kontext
  • RDDs
  • Bibliotheken, die RDDs, Spark Context oder Zugriff auf den zugrunde liegenden Spark JVM verwenden, z. B. Mosaik-Geospatial, GraphFrames oder GreatExpectations
  • CREATE TABLE <table-name> AS SELECT (verwenden Sie stattdessen spark.sql("SELECT ...").write.saveAsTable("table"))
  • Ändern der log4j-Protokollebene durch SparkContext
  • Verteilte ML-Schulung wird nicht unterstützt.
  • Synchronisieren der lokalen Entwicklungsumgebung mit dem Remotecluster