Freigeben über


Databricks Runtime 18.2 (Beta)

Die folgenden Versionshinweise enthalten Informationen zu Databricks Runtime 18.2 (Beta).

Diese Version enthält alle Features, Verbesserungen und Fehlerbehebungen aller vorherigen Databricks-Runtime-Versionen. Databricks hat diese Version im April 2026 veröffentlicht.

Von Bedeutung

Databricks Runtime 18.2 befindet sich in der Betaversion. Der Inhalt der unterstützten Umgebungen kann sich während der Betaversion ändern. Änderungen können die Liste der Pakete oder Versionen installierter Pakete enthalten.

Änderungen des Verhaltens

XPath ruft keine externen DTDs mehr ab

Wenn Sie XPath über XML auswerten, lädt Azure Databricks keine externen Dokumenttypdefinitionen (DTDs), die im Dokument deklariert sind. Bisher konnte XPath fehlschlagen, wenn der XML-Code einen externen DTD-Verweis enthielt, der auf eine falsch formatierte URL oder einen nicht erreichbaren Endpunkt verweist. Da die DTD-Überprüfung von der XPath-Auswertung getrennt ist, geben Abfragen, die bereits erfolgreich waren, dieselben Ergebnisse wie zuvor zurück. Abfragen, die zuvor nur während des externen DTD-Abrufs fehlgeschlagen waren, können jetzt erfolgreich sein.

NULL-Strukturarchivierung in INSERT, MERGE und Streaming-Schreibvorgängen mit Schemaentwicklung

Für INSERT, MERGE, und Streaming-Schreibvorgänge, die Schema-Evolution verwenden, wird nun eine NULL-Struct in der Quelle als NULL im Ziel gespeichert. Zuvor wurde dieser Wert fälschlicherweise als eine Nicht-Null-Struktur materialisiert, bei der jedes Feld auf NULL gesetzt wurde, während dieselben Vorgänge ohne Schema-Evolution ordnungsgemäß NULL-Strukturen beibehalten haben. Wenn ihr Code auf dem Empfang einer Nicht-Null-Struktur basiert, deren Felder alle NULL waren, aktualisieren Sie den Code stattdessen, um eine NULL-Struktur zu behandeln.

Unterstützung von NullType (VOID) in Delta-Tabellen

Delta-Tabellen unterstützen jetzt Spalten von VOID (von Spark's NullType). VOID Spalten werden beim Lesen nicht mehr aus dem Tabellenschema gelöscht. Schreibvorgänge sind nicht betroffen. Siehe VOID Typ für Einschränkungen, wo VOID Spalten im Schema erscheinen können.

SHOW CREATE TABLE unterstützt Metrikansichten

SHOW CREATE TABLE unterstützt jetzt Metrikansichten. Zuvor hat das Ausführen dieses Befehls in einer Metrikansicht einen Fehler ausgelöst. Die Ausgabe für Metriksichten enthält den vollqualifizierten dreiteiligen Namen mit Katalog (z. B. CREATE VIEW catalog.db.my_metric_view ...), wodurch es einfacher ist, die Metriksicht an der richtigen Position wiederherzustellen.

Korrektur für LEFT OUTER JOIN LATERAL, die Zeilen entfernt

Ein Fehler, bei dem Zeilen aus LEFT OUTER JOIN LATERAL Abfragen fälschlicherweise gelöscht wurden, wurde jetzt behoben. Abfragen, die dieses Konstrukt verwenden, geben jetzt die richtigen Ergebnisse zurück. Um vorübergehend zum vorherigen Verhalten zurückzukehren, setzen Sie spark.databricks.sql.optimizer.lateralJoinPreserveOuterSemantic auf true.

NATURAL JOIN unterstützt den Abgleich von groß- und kleinschreibungsunabhängigen Spalten.

NATURAL JOIN verwendet jetzt bei der spaltenübergreifenden Übereinstimmung ordnungsgemäß einen fallunempfindlichen Vergleich, wenn spark.sql.caseSensitive auf false (die Standardeinstellung) gesetzt ist. Früher verwendete NATURAL JOIN einen fallsensitiven Vergleich, um allgemeine Spalten zu identifizieren, was dazu führte, dass Spalten, die sich nur in Groß- und Kleinschreibung unterschieden (z. B. ID versus id), nicht als übereinstimmend erkannt wurden. Dies führte dazu, dass NATURAL JOIN Cross-Join-Ergebnisse still und heimlich erzeugt wurden. Diese Korrektur stimmt das Verhalten von NATURAL JOIN mit USING Verknüpfungen überein, die die Groß-/Kleinschreibung bereits korrekt berücksichtigen. Von diesem Fehler betroffene Abfragen geben jetzt korrekte Ergebnisse mit ordnungsgemäß verknüpften Spalten zurück.

SQL UDF-Abhängigkeitsüberprüfung im Unity-Katalog

Unity Catalog erzwingt jetzt die Abhängigkeitsüberprüfung für benutzerdefinierte SQL-Funktionen (UDFs), um die Umgehung der Zugriffssteuerung zu verhindern. Zuvor konnten sql-Funktionen, die über die REST-API erstellt wurden, auf Abhängigkeiten verweisen, auf die der Benutzer nicht zugreifen konnte. SQL UDFs mit ungültigen Abhängigkeitskonfigurationen werden jetzt von der Ausführung blockiert.

Optimierte Schreibvorgänge für partitionierte Unity-Katalogtabellen, die mit CRTAS erstellt wurden

Optimierte Schreibvorgänge werden jetzt ordnungsgemäß auf partitionierte Unity-Katalogtabellen angewendet, die mit CREATE OR REPLACE TABLE ... AS SELECT (CRTAS) erstellt wurden. Zuvor haben CRTAS für neue partitionierte Unity-Katalogtabellen keine optimierten Schreibvorgänge angewendet, was zu einer höheren Anzahl kleiner Dateien pro Partition führt. Dieser Fix kann die Schreiblatenz erhöhen. Wenn Sie das vorherige Verhalten wiederherstellen möchten, setzen Sie spark.databricks.delta.optimizeWrite.UCTableCRTAS.enabled auf false.

AWS SDK v1-Abhängigkeiten sind schattiert

AWS SDK v1-Abhängigkeiten, die mit Databricks Runtime gebündelt sind, sind jetzt schattiert und nicht mehr direkt auf dem Klassenpfad verfügbar. Wenn Ihr Code von AWS SDK v1-Bibliotheken abhängt, die zuvor von Databricks Runtime bereitgestellt wurden, fügen Sie sie als explizite Abhängigkeiten in Ihrem Projekt hinzu. Diese Änderung bereitet sich auf die Migration zu AWS SDK v2 vor, nachdem der AWS-Support für SDK v1 beendet wurde.

Korrigieren falscher EPSG-Autorität für ESRI-definierte SRID 102100

Die Koordinatenverweissystemzuordnung (CRS) für SRID 102100 verwendet ESRI:102100 jetzt ordnungsgemäß anstelle der falschen EPSG:102100. Dieser Fix stellt sicher, dass Geospatialdaten mit der richtigen Autorität gespeichert werden, um eine bessere Interoperabilität mit anderen Systemen zu ermöglichen.

Neue Features und Verbesserungen

CREATE OR REPLACE-Unterstützung für temporäre Tabellen

CREATE OR REPLACE TEMP TABLE Die Syntax wird jetzt unterstützt, sodass Sie temporäre Tabellen in einer einzelnen Anweisung erstellen oder ersetzen können. Dadurch ist es nicht erforderlich, temporäre Tabellen explizit abzulegen und neu zu erstellen.

agg() Alias für measure() Funktion

agg() ist jetzt als Alias für die measure() Funktion verfügbar. Diese Änderung ist vollständig abwärtskompatibel. Vorhandene Abfragen, die measure() verwenden, funktionieren weiterhin ohne Änderung. agg() erzeugt identische Ergebnisse, wenn es mit denselben Argumenten verwendet wird.

Snowflake JDBC-Treiber-Upgrade

Der Snowflake DRIVER wird von 3.22.0 auf 3.28.0 aktualisiert.

pyspark.pipelines.testing Namespacealias

pyspark.pipelines.testing ist jetzt als Komfortalias für dlt.testing APIs verfügbar. Importieren Sie Lakeflow Spark deklarative Pipelines Testtools über beide Namensräume.

Verbesserte Leistung beim automatischen Laden

Auto Loader verwendet jetzt eine effizientere Eintragsmethode, die die Eintragsgeschwindigkeit für Cloudspeicherquellen verbessert. Wenn Ihr Datenstrom aufgrund von langen Auflistungsvorgängen überlappend auslöst, kann diese Optimierung zu höheren Kosten für die Cloudauflistungs-API führen. Überwachen Sie Ihre Triggerintervalle, und passen Sie die Planung an, um überlappende Vorgänge zu verhindern, wenn Kostensteigerungen beobachtet werden.

Delta-Tabellenverlauf enthält Schreiboptionskennzeichnungen

Delta-Tabellenverlauf (DESCRIBE HISTORY) enthält jetzt Schreiboptionen-Flags in der Spalte operationParameters für die Vorgänge WRITE und REPLACE TABLE. Wenn die folgenden Optionen explizit aktiviert sind, werden sie als boolesche Flags im Verlauf angezeigt (nur in folgenden trueFällen enthalten):

Für WRITE und REPLACE TABLE Vorgänge:

  • isDynamicPartitionOverwrite: vorhanden, wenn der Dynamische Partitionsüberschreibmodus verwendet wurde
  • canOverwriteSchema: vorhanden, wenn das Schema überschreiben (overwriteSchema) aktiviert wurde
  • canMergeSchema: vorhanden, wenn die Schemazusammenführung (mergeSchema) aktiviert wurde

Für REPLACE TABLE Vorgänge:

  • predicate: vorhanden, wann replaceWhere verwendet wurde
  • isV1WriterSaveAsTableOverwrite: vorhanden, wenn die Ersetzung durch eine .saveAsTable Überschreibung ausgelöst wurde

Unterstützung für strukturiertes Streaming, Zurückspulen und Replay

Strukturiertes Streaming unterstützt jetzt das Zurückspulen und die Wiedergabe für Streaming-Pipelines. Dieses Feature ermöglicht die Erneute Verarbeitung von einem früheren Punkt im Datenstrom, um Fehler wie Schemaänderungen, falsch formatierte Eingabedaten oder Logikfehler wiederherzustellen, ohne dass ein vollständiger Zustand zurückgesetzt werden muss. Dadurch wird das Standardverhalten vorhandener Streamingworkloads nicht geändert.

Verbesserungen der Bibliothek

  • Aktualisierte Python-Bibliotheken:

    In dieser Version wurden keine Bibliotheken aktualisiert.

  • Aktualisierte R-Bibliotheken:

    In dieser Version wurden keine Bibliotheken aktualisiert.

  • Aktualisierte Java-Bibliotheken:

    • io.delta.delta-sharing-client_2.13 von 1.3.9 bis 1.3.10

Apache Spark

Databricks Runtime 18.2 umfasst Apache Spark 4.1.0. Diese Version enthält alle Spark-Fixes und Verbesserungen, die in Databricks Runtime 18.1 enthalten sind, sowie die folgenden zusätzlichen Fehlerbehebungen und Verbesserungen, die an Spark vorgenommen wurden:

  • SPARK-56219 Rückgängigmachen von "[SC-225028][PS] Angleichung des groupby idxmax und idxmin Verhaltens bei skipna=False an pandas 2/3"
  • SPARK-56204 Strip Alias Wrapper von Inline-Tabellenzeilen-Ausdrücken im Parser
  • SPARK-56186 PyPy eingestellt
  • SPARK-56202 Refaktorierung von Streaming-Join-Tests: Aufspaltung der Base/Suite-Hierarchie und Vereinfachung der Modusweiterleitung
  • SPARK-56221 Funktionsgleichheit zwischen spark.catalog.* und DDL-Befehlen
  • SPARK-56301 Korrigieren von Tippfehlern in error-conditions.json
  • SPARK-55729 Unterstützung des Datenquellenlesers für das neue Zustandsformat v4 beim Stream-Stream-Join
  • SPARK-56256 Hinzufügen der emptyDataFrame-API zu SparkSession
  • SPARK-56205 Überprüfen der Prüfpunkt-ID des Basiszustandsspeichers vor dem Commit von Microbatch
  • SPARK-55827 Korrigieren des Typhinweiss für Datenquellenmitarbeiter
  • SPARK-55579 Benennen Sie PySpark-Fehlerklassen in "eval-type-agnostic" um.
  • SPARK-56247 Beheben des Fallbackverhaltens und Typhinweises von inheritable_thread_target
  • SPARK-56244 Optimieren des Benchmarkklassenlayouts in bench_eval_type.py
  • SPARK-56262 Entfernen der unnötigen Deaktivierung der mypy-Überprüfung für Typen
  • SPARK-55969 regr_r2 sollte den ersten Parameter als die abhängige Variable behandeln
  • SPARK-56179 Konsolidieren von Fehlerklassen für Typeninkonsistenz - Teil 3
  • SPARK-55630 Aktualisierung der übereinstimmenden Kennzeichnung für nicht äußere Seite im Stream-Stream-Join v4 überspringen
  • SPARK-56217 Behebung von bucketBy-Ausnahmen in Connect
  • SPARK-56225 Fehlermeldung zur Verbesserung der Ansicht MIT SCHEMA EVOLUTION
  • SPARK-55865 Umbenennen von _LEGACY_ERROR_TEMP_1266 in CANNOT_TRUNCATE_EXTERNAL_TABLE
  • SPARK-55861 Umbenennen von _LEGACY_ERROR_TEMP_2045 in UNSUPPORTED_TABLE_CHANGE
  • SPARK-56166 Verwenden von ArrowBatchTransformer.enforce_schema, um spaltenweise Koersionslogik zu ersetzen
  • SPARK-56245 Behebung der DataFrame.eval Inplace-Zuweisung in Pandas 3
  • SPARK-56062 Isolieren von memory_profiler zur Verbesserung der Importzeit
  • SPARK-55964-Systemkatalog hat Vorrang vor dem Benutzerkatalog für BUILTIN- und SESSION-Schemas.
  • SPARK-56226 Erfassen von Analysefehlern vor dem InternalFrame.__init__ in .loc
  • SPARK-55723 Verallgemeinern enforce_schema Fehler zu PySparkTypeError
  • SPARK-54878 Option "sortKeys" zu to_json Funktion hinzufügen
  • SPARK-56219 Vereinheitlichung des Verhaltens von groupby mit idxmax und idxmin bei skipna=False in Einklang mit pandas 2/3
  • SPARK-44065 Optimieren von BroadcastHashJoin-Skew in OptimizeSkewedJoin
  • SPARK-56179 Rückgängig machen "[SC-225014][PYTHON] Konsolidieren Fehlerklassen für Typkonflikt - Teil 3"
  • SPARK-53399 Zusammenführen Python UDFs
  • SPARK-56224 Polnische Typanmerkungen für accumulators.py
  • SPARK-55448 Beheben des Verlusts der Abfrageereignisse, wenn die Sitzung während der Abfrage geschlossen wird
  • SPARK-55862 Umbenennen von _LEGACY_ERROR_TEMP_2027 in UNEXPECTED_OPERATOR_IN_CORRELATED_SUBQUERY
  • SPARK-56201 Führen Sie die Tests von SPARK-49829 mit VCF-Joins durch, da StateDataSource dies nun unterstützt.
  • SPARK-56179 Konsolidieren von Fehlerklassen für Typeninkonsistenz - Teil 3
  • SPARK-56184 Ersetzen durch assert ordnungsgemäße SparkRuntimeException Partitionsspaltenanalyse
  • ** SPARK-56206 Fehlerbehebung bei der Groß-/Kleinschreibungs-unabhängigen Erkennung von doppelten CTE-Namen
  • SPARK-55866 Umbenennen von _LEGACY_ERROR_TEMP_2145 in OPTION_VALUE_EXCEEDS_ONE_CHARACTER
  • SPARK-56067 Verzögerter Import von psutil zur Verbesserung der Importgeschwindigkeit
  • SPARK-56066 Verzögerter Import von numpy, um die Importgeschwindigkeit zu verbessern
  • SPARK-55719 Entfernen der Veraltungswarnung für spark.sql.hive.convertCTAS
  • SPARK-56179 Fehlerklassen für Typeninkonsistenz konsolidieren – Teil 2
  • SPARK-55510 Aktualisieren structured-streaming-state-data-source.md Dokuments, um deleteRange widerzuspiegeln
  • SPARK-56050 Eifrig auflösen IDENTIFIER() mit Zeichenfolgenliteralen zur Analysezeit
  • SPARK-56151 Verbessern der CreateVariable-Anzeigezeichenfolge
  • SPARK-55751 Hinzufügen von Metriken zum Laden des Zustandsspeichers aus DFS
  • SPARK-56188 Align Series.map({}) with pandas 3 empty-dict behavior
  • SPARK-55964 Der Systemkatalog "[SC-223957] hat Vorrang vor dem Benutzerkatalog für BUILTIN und SESSION-Schemas."
  • SPARK-55577 Umgestalten SQL_SCALAR_ARROW_ITER_UDF Wrapper-, Mapper- und Serialisierungslogik
  • SPARK-55596 Filterung erweiterter Partitionsstatistiken für DSV2
  • SPARK-56179 Rückgängig machen von "[SC-224777][PYTHON] Konsolidieren von Fehlerklassen für Typkonflikt - Teil 2"
  • Der SPARK-55964-Systemkatalog hat Vorrang vor dem Benutzerkatalog für BUILTIN- und SESSION-Schemas.
  • SPARK-56050 Rückgängig machen von "[SC-224153][SQL] Sofortiges Auflösen von IDENTIFIER() mit Zeichenfolgenliteralen beim Parsen"
  • SPARK-56179 Konsolidierung von Fehlertypen für Typinkompatibilität – Teil 2
  • SPARK-56102UnionEstimation Codebereinigung
  • SPARK-51712 Verschlucken Sie nicht tödliche Throwables beim Auflösen von Tabellen/Ansichten in spark.catalog.listTables()
  • SPARK-55881 Hinzufügen von queryId, errorMessage und rootExecutionId zur REST-API zur SQL-Ausführung
  • SPARK-56050 Eifrig auflösen IDENTIFIER() mit Zeichenfolgenliteralen zur Analysezeit
  • SPARK-55628 Integrieren des Streamstream-Verknüpfungsstatusformats V4
  • SPARK-56187 Behebung der Null-Werte-Reihenfolge in Series.argsort für Pandas 3
  • SPARK-56167 astype auf das Standardverhalten für Zeichenfolgen in Pandas 3 abstimmen.
  • SPARK-56018 Verwende Ruff als Formatierer
  • SPARK-56042 Korrigieren von vertauschten Metriken der externen/internen Spaltenfamilien im RocksDBStateStoreProvider
  • SPARK-56179 Konsolidierung von Fehlerklassen für Typenkonflikt - Teil 1
  • SPARK-56089 Angleichung von asinh/acosh an den Fdlibm-Algorithmus für maschinenübergreifende Kompatibilität
  • SPARK-55453 Korrigieren des LIKE-Musterabgleichs für ergänzende Unicode-Zeichen
  • SPARK-52785 Vereinfachen der Super()-Syntax in PySpark
  • Beheben SPARK-56169 in der Fehlerberichterstattung, wenn der Typ des untergeordneten Elements durch die Plantransformation geändert wird.
  • SPARK-55557 Hyperbolische Funktionen sollten bei großen Eingaben nicht überlaufen.
  • SPARK-47997 Hinzufügen eines Fehlerparameters zu "DataFrame.drop" und "Series.drop"
  • SPARK-55008 Abfrage-ID in SparkUI anzeigen
  • SPARK-54660 Hinzufügen eines RTM-Triggers zu Python
  • SPARK-56047 Propagieren distinctCount durch die Union in der CBO-Statistikschätzung
  • SPARK-56111 Fügen Sie SparkContext.isDriver() hinzu, und verwenden Sie es über die Codebasis hinweg.
  • SPARK-55999 ForceSnapshotUploadOnLag standardmäßig aktivieren
  • SPARK-55610 Füge getExecutorInfos zum StatusTracker in Python hinzu
  • SPARK-55728 Einführung einer Konfiguration für die Größe des Threadpools zur Dateichecksumme und die Möglichkeit, den Threadpool zu deaktivieren.
  • SPARK-55686 SizeEstimator kümmert sich um Compact Object Headers
  • SPARK-56044 HistoryServerDiskManager löscht den App-Store bei der Veröffentlichung nicht, wenn sich die App nicht in der aktiven Karte befindet.
  • SPARK-55809 HeapHistogram verwendet DiagnosticCommandMBean anstelle von jmap-Unterprozess
  • SPARK-56122 Verwenden Sie pandas-kompatible numerische dtype-Check in Series.cov
  • SPARK-56113 Verbesserung der Pandas 3-Zeichenfolgenwiederherstellung in Pandas-on-Spark
  • SPARK-56118 Anpassung der Booleschen Verarbeitung in Pandas 3.0 an GroupBy.quantile
  • SPARK-53823 Implementieren der Zulassungsliste für den Echtzeitmodus
  • SPARK-55977 Fix isin() zur Verwendung strenger Typenvergleiche wie bei pandas
  • SPARK-54027 Unterstützung für Kafka Source RTM
  • SPARK-50284 Dokumente für die ParseJson-Funktion ändern
  • SPARK-56035 [SQL] Verwendung von AggregationValidator zur Validierung von Aggregate mit einem Single-Pass-Resolver
  • SPARK-55557 Rückgängig machen "[SC-223720][SQL] Hyperbolische Funktionen sollten bei großen Eingaben nicht überlaufen"
  • SPARK-56075 Entfernen einer Gruppe veralteter Python-Fehlerklassen
  • SPARK-55967 Vereinheitlichen der Spaltenkonvertierung für Connect DataFrame
  • SPARK-53915 Hinzufügen von RealTimeScanExec und der Möglichkeit, lange ausgeführte Batches auszuführen
  • SPARK-55557 Hyperbolische Funktionen sollten bei großen Eingabewerten nicht zur Überlauf führen
  • SPARK-55147 Zeitstempelbereich für die Zeitintervall-Join-Abfrage im V4-Zustandsformat festlegen
  • SPARK-56056 Unterstützung einfacherer Mitarbeiterprofilerstellung mit viztracer
  • SPARK-55948 Hinzufügen von DSv2 CDC-Connector-API, Analyseauflösung und SQL CHANGES-Klausel
  • SPARK-54599 Reapply "[SC-219008][PYTHON] Refactor PythonExcept...
  • SPARK-55390 Konsolidieren SQL_SCALAR_ARROW_UDF Wrapper-, Mapper- und Serialisierungslogik
  • SPARK-56023 Besseres Lastenausgleich in LowLatencyMemoryStream
  • SPARK-55986 Aktualisieren von Schwarz auf 26.3.1
  • SPARK-55667 Check_dependencies in init verschieben
  • SPARK-55145 Avro-Unterstützung für timestampbasierte RocksDB-State-Key-Encoder
  • SPARK-53970 Falsches Tag "optional" für messageName entfernen...
  • SPARK-55059 Zurücksetzen von "[SC-224058][PYTHON] Entfernen der Problemumgehung für leere Tabellen in toPandas"
  • SPARK-50111 Hinzufügen von Unterplots-Unterstützung für Kreisdiagramme im Plotly-Back-End
  • SPARK-56081 Anpassung der NA-Behandlung von idxmax und idxmin an Pandas 3
  • SPARK-56080 Angleichung von Series.argmax/argmin an die Behandlung von NA in pandas 3.0
  • SPARK-56060 Umgang mit der Konvertierung von null-Zeichenfolgen in describe() bei leeren Zeitstempel-Datenrahmen in Pandas 3
  • SPARK-55059 Problemumgehung für leere Tabellen in ToPandas entfernen
  • SPARK-55995 Unterstützung für TIMESTAMP WITH LOCAL TIME ZONE in der SQL-Syntax
  • SPARK-55976 Verwenden von "Set" anstelle von "Seq" für Schreibberechtigungen
  • SPARK-56073 Vereinfachen des Builds von PythonRunnerConfMap
  • SPARK-55887 Spezielle Behandlung für CollectLimitExec/CollectTailExec, um vollständige Tabellenscans zu vermeiden
  • SPARK-55980 Immer _cast_back_float in numerischer Arithmetik anwenden
  • SPARK-55357 Korrigieren der Docstring-Datei für timestamp_add
  • SPARK-55667 Rückgängigmachen von "[SC-223289][PYTHON][CONNECT] Verschieben von check_dependencies nach init"
  • SPARK-54285 Rückgängigmachen von "[PYTHON] Cache-Zeitzoneninformationen, um teure Zeitstempelkonvertierung zu vermeiden"
  • SPARK-56021 Erhöhen Des Schwellenwerts für "AutoSnapshotRepair" von "maxChangeFileReplay" von 50 auf 500
  • SPARK-55870 Dokumentation für Geo-Typen hinzufügen
  • SPARK-55962 Verwenden Sie getShort anstelle von getInt Umwandlungen putShortsFromIntsLittleEndian auf Little Endian-Plattformen
  • SPARK-55903 Vereinfachen der MERGE-Schemaentwicklung und Überprüfen von Schreibberechtigungen
  • SPARK-55326 Freigeben einer Remotesitzung, wenn SPARK_CONNECT_RELEASE_SESSION_ON_EXIT festgelegt ist
  • SPARK-55667 Verschiebe check_dependencies nach init
  • SPARK-55884 Hinzufügen von v1StatsToV2Stats zu DataSourceV2Relation
  • SPARK-55929 Fehlende toString()-Methode zu TableChange.UpdateColumnDefaultValue hinzufügen
  • SPARK-55851 Klarstellen von Typen von Datenquellenpartition und Lesezugriff
  • SPARK-55828 Hinzufügen von DSV2 TableChange toString und fehlende Fehlerklasse für MERGE INTO Schema-Evolution beheben
  • SPARK-55790 Erstellen einer vollständigen SRS-Registrierung mit PROJ 9.7.1-Daten
  • SPARK-55645 Hinzufügen von serdeName zu CatalogStorageFormat
  • SPARK-54796 Beheben von NPE aufgrund der Racebedingung zwischen der Executor-Initialisierung und der Shuffle-Migration
  • SPARK-55983 Neue Single Pass Analyzer-Funktionen und Bugfixes
  • SPARK-55964 Cachekohärenz: Eindeutige Funktionsregistrierung bei DROP DATABASE
  • SPARK-55868 Behebung des Prädikat-Pushdowns für InMemoryTable bei V2Filters
  • SPARK-55973 LeftSemi-Optimierung für die Stream-Stream-Verknüpfung
  • SPARK-54665 Beheben des Vergleichs von Booleans und Zeichenfolgen, um das Verhalten von Pandas zu entsprechen.
  • SPARK-55539 Erlaubt die Umwandlung von GeographyType in GeometryType
  • SPARK-55695 Vermeidung doppelter Planung bei Vorgängen auf Zeilenebene
  • SPARK-55904 Verwenden von _check_same_session zum Einschränken von Typen
  • SPARK-55965 Warnung hinzufügen, wenn Pandas >= 3.0.0 mit PySpark verwendet werden
  • SPARK-55493 [SS] Erstelle keine Verzeichnisse (mkdirs) im Offset/Commit-Protokollverzeichnis des Streaming-Checkpoints in der StateDataSource.
  • SPARK-55851 Rückgängig machen von "[SC-223270][PYTHON] Klarstellung der Typen der Datenquellenpartition und des -lesens"
  • SPARK-55645 Rückgängig machen von "[SC-221839][SQL] Hinzufügen von serdeName zu CatalogStorageFormat"
  • SPARK-55640 Weitergabe von WKB-Parsingfehlern für Geometrie und Geografie
  • SPARK-55693 Vermeiden Sie Deadlocks, indem Sie SparkSession.observationManager in ein nicht-lazy val ändern.
  • SPARK-55528 Hinzufügen der Standardmäßigen Sortierunterstützung für SQL UDFs
  • SPARK-55860 Anstelle UNABLE_TO_INFER_SCHEMA von UNABLE_TO_INFER_SCHEMA_FOR_DATA_SOURCE
  • SPARK-55275 Hinzufügen von InvalidPlanInput SQL-Zuständen für SQL/Connect
  • SPARK-55645 Hinzufügen von serdeName zu CatalogStorageFormat
  • SPARK-55716 Unterstützung der Erzwingung der NOT NULL-Einschränkung bei Einfügungen in V1-Dateiquellen-Tabellen
  • SPARK-53226 ClosureCleaner mit Java22+ kompatibel machen
  • SPARK-55997 Festlegen der oberen Grenze auf prefixScan im RocksDB-Statusspeicheranbieter
  • SPARK-55851 Klarstellen von Typen von Datenquellenpartition und Lesezugriff
  • SPARK-55954 Entfernen des falschen Hinweis auf den Überladungstyp bei fillna
  • SPARK-56016 Beibehalten benannter Series-Spalten bei der Verkettung mit der ignore_index-Option in Pandas 3
  • SPARK-55502 Vereinheitlichung der UDF- und UDTF-Arrow-Fehlerbehandlung bei der Konvertierung
  • SPARK-55989 Erhalt von nicht-int64-Index-Datentypen in restore_index
  • SPARK-55955 Überladungstyp-Hinweis für drop entfernen
  • SPARK-55945 [SDP] Unterstützung für strukturierte Kennungen von Datenströmen in SDP Eager-Analyse-Protos
  • SPARK-55714 JDK löst ArithmeticException möglicherweise ohne Nachricht aus
  • SPARK-55991 Beheben von Unicode-bezogenen SQL-Textbeschädigungen mit Parametern
  • SPARK-55696 Expliziten Fehler zu Encoders.bean für die Schnittstellenklasse hinzufügen
  • SPARK-55533 Unterstützung für IGNORE NULLS / RESPECT NULLS bei collect_set
  • SPARK-55987 Behebung der Extraktion von Zeitstempeln bei fensterbasierten Joins in V4 mithilfe von findJoinKeyOrdinalForWatermark
  • SPARK-55946 Richten Sie pandas_priority so ein, dass gemischte binäre Operationen ordnungsgemäß an Pandas-on-Spark verteilt werden
  • SPARK-55264 ExecuteOutput-Befehl zu Spark Connect-Pipelines proto hinzufügen
  • SPARK-47672 Vermeiden der doppelten Auswertung von Filter-Pushdown mit Projektions-Pushdown
  • SPARK-55780 Ersetzen eines PNG-Logos durch SVG in der Spark Web-Benutzeroberfläche
  • SPARK-55821 Durchsetzen von nur Schlüsselwortargumenten in init-Methoden des Serialisierers
  • SPARK-55621 Beheben von mehrdeutigen und unnötigen Unicode-Verwendungen
  • SPARK-55662 Implementierung des Arguments "idxmin Axis"
  • SPARK-55631ALTER TABLE muss den Cache für DSv2-Tabellen ungültig machen.
  • SPARK-55692 Behebung von SupportsRuntimeFiltering und SupportsRuntimeV2Filtering Dokumentation
  • SPARK-55928 Neuer Linter zur Effektivitätsprüfung der Konfiguration in Ansichten und UDFs
  • SPARK-55440 Types Framework – Phase 1a – Core Type System Foundation
  • SPARK-55631 Revert "[SC-221596][SQL] muss den Cache für DSv2-Tabellen ungültig machen".
  • SPARK-55631ALTER TABLE muss den Cache für DSv2-Tabellen ungültig machen.
  • SPARK-55683 Optimieren VectorizedPlainValuesReader.readUnsignedLongs
  • SPARK-55892 Fehler beim Laden des Zustandsspeichers, da die wiederverwendete SST-Datei durch Wartung gelöscht wurde
  • SPARK-55946 Rückgängig machen: "[SC-223027][PS] Einrichtung von pandas_priority, damit gemischte binäre Operationen korrekt an pandas-on-Spark übergeben werden."
  • SPARK-55891 Beibehalten des SQL-Skriptingkontexts innerhalb EXECUTE IMMEDIATE
  • SPARK-55907 Korrigieren falscher Fehlerpositionen für ungültige Datentypen in CREATE FUNCTION
  • SPARK-55946 Richten Sie pandas_priority so ein, dass gemischte binäre Operationen ordnungsgemäß an Pandas-on-Spark weitergeleitet werden
  • SPARK-55694 Blockeinschränkungen in CTAS/RTAS auf Parserebene
  • SPARK-55682 Der vom ServiceLoader zurückgegebene Iterator kann NoClassDefFoundError bei hasNext() auslösen.
  • SPARK-55155 Fix SETCATALOG für die Verwendung spezieller Zeichen und Backticks im Bezeichnernamen
  • SPARK-55932 Behebung des Problems, dass der XML-zu-Variant-Parser bei negativer Skalierung hängt
  • SPARK-55673 Hinzufügen weiterer Tests für geschachtelten Typ-Encoder
  • SPARK-55679 Behebung von Erkennungsproblemen auf Java 25
  • SPARK-55957 Fügen Sie 'DATA_SOURCE_NOT_FOUND' in Catalog.ERROR_HANDLING_RULES hinzu
  • SPARK-55052 Hinzufügen von AQEShuffleRead-Eigenschaften zum Physikalischen Planbaum
  • SPARK-55652 Optimieren VectorizedPlainValuesReader.readShorts() mit direktem Arrayzugriff für Heappuffer
  • SPARK-55659 Verbesserung EventLogFileWriter des Protokollvorgangs stop
  • SPARK-54666 Lassen Sie numerische Typen unverändert bei to_numeric
  • SPARK-55654 Aktivieren des TreePattern-Prunings für "EliminateSubqueryAliases" und "ResolveInlineTables"
  • SPARK-55533 Rückgängig machen von "[SC-220538][SQL] Unterstützen von IGNORE NULLS / RESPECT NULLS für collect_set"
  • SPARK-55901 Auslösen eines Fehlers aus Series.replace() ohne Argumente
  • SPARK-55896 Verwenden von numpy-Funktionen anstelle von integrierten Funktionen
  • SPARK-55655 Machen Sie das Vokabular deterministisch, wenn die Anzahl gleich istCountVectorizer
  • SPARK-55811 [SQL] Catch NonFatal statt UnresolvedException beim Aufrufen von nodeWithOutputColumnsString
  • SPARK-55533 Unterstützung von IGNORE NULLS / RESPECT NULLS für collect_set
  • SPARK-55435 Anstelle StringBuilder von StringBuffer
  • SPARK-54807 Qualifizierte Namen für integrierte und Sitzungsfunktionen zulassen (#198171)
  • SPARK-55854 Tag-Durchleitung von doppelten Attributen im Ausgabeergebnis der Erweiterung, um AMBIGUOUS_REFERENCE zu vermeiden
  • SPARK-55261 Implementierung von Parquet-Leseunterstützung für Geo-Typen
  • SPARK-55416 Speicherleck bei der Streaming-Python-Datenquelle, wenn der Endoffset nicht aktualisiert wird
  • SPARK-55465 Unterstützung von GeometryType in convert_numpy
  • SPARK-55801 Korrektur des Typhinweises von "_SimpleStreamReaderWrapper.getCache"
  • SPARK-55800 Entfernen der nicht verwendeten Typüberprüfung des Typs "datetime.date"
  • SPARK-55663 Vereinheitlichen des Moduls für Datenquellenfunktionen
  • SPARK-55665 Vereinheitlichen, wie Mitarbeiter eine Verbindung mit dem Ausführenden herstellen
  • SPARK-53446 Optimieren von BlockManager-Entfernungsvorgängen mit zwischengespeicherten Blockzuordnungen
  • SPARK-55867 Korrektur von StringMethods mit pandas 3
  • SPARK-55501 Behebung des listagg distinct + within group order by Fehlers
  • SPARK-55558 Unterstützung für Tuple/Theta-Set-Vorgänge hinzufügen
  • SPARK-55636 Hinzufügen detaillierter Fehler bei deduplizierung ungültiger Spalten
  • SPARK-55788 Unterstützung von ExtensionDType für ganzzahlige Werte in Pandas UDF
  • SPARK-55464 Unterstützung für GeographyType in convert_numpy
  • SPARK-55530 Unterstützung von Geo-Ergebnis-Sets in Hive- und Thrift-Server
  • SPARK-55525 Beheben von UDTF_ARROW_TYPE_CONVERSION_ERROR mit nicht definierten Fehlermeldungsparametern
  • SPARK-55626 Laden Sie Metadatenspalten nicht in Tabelle, es sei denn, sie sind in V2TableUtil erforderlich.
  • SPARK-55533 Rückgängig machen von "[SC-220538][SQL] Unterstützen von IGNORE NULLS / RESPECT NULLS für collect_set"
  • SPARK-55435 Rückgängig machen von "[SC-219656][CORE][SQL] Verwende StringBuilder anstelle von StringBuffer"
  • SPARK-55533 Unterstützung für IGNORE NULLS / RESPECT NULLS bei collect_set
  • SPARK-54452 Behebung einer leeren Antwort vom SparkConnect-Server für spark.sql(...) in FlowFunction
  • SPARK-55638 Umgestalten der WKT-Serialisierung in GeometryModel
  • SPARK-55551 Verbessern der BroadcastHashJoinExec Ausgabepartitionierung
  • SPARK-54314 Verbessern der Server-Side Debuggierbarkeit in Spark Connect durch Erfassen von Dateinamen und Zeilennummern der Clientanwendung
  • SPARK-55517 Optimieren VectorizedPlainValuesReader.readBytes() mit direktem Arrayzugriff für Heappuffer
  • SPARK-55495 Problem beheben EventLogFileWriters.closeWritercheckError
  • SPARK-55279 Hinzufügen sketch_funcs einer Gruppe für DataSketches SQL-Funktionen
  • SPARK-55435 Anstelle StringBuilder von StringBuffer
  • SPARK-55064 Unterstützung von unbestimmten Shuffle-Retries auf Abfrage-Ebene
  • SPARK-55411 SPJ kann ArrayIndexOutOfBoundsException auslösen, wenn Verknüpfungsschlüssel kleiner als Clusterschlüssel sind
  • SPARK-55451 Cursor müssen bei OPEN mit dem Sammeln von Ergebnissen beginnen, nicht beim ersten FETCH
  • SPARK-54687 Mehr Randfälle mit Generatoren hinzufügen
  • SPARK-55691 GetStatus-Client
  • SPARK-55277 Hinzufügen protobuf_funcs einer Gruppe für Protobuf SQL-Funktionen
  • SPARK-55822 Umbenennen _LEGACY_ERROR_TEMP_0052 in CREATE_VIEW_WITH_IF_NOT_EXISTS_AND_REPLACE
  • SPARK-55236 Behebung unerwarteter Ausnahmen in einigen CoarseGrainedExecutorBackendSuite-Testfällen
  • SPARK-55275 SQL-Zustandsabdeckung: IllegalStateException
  • SPARK-55462 Erneutes Anwenden von "[SC-221123][PYTHON] Support VariantType in convert_numpy"
  • SPARK-55062 Unterstützung von Proto2-Erweiterungen in Protobuf-Funktionen
  • SPARK-55248 Bereinigen der veralteten API-Nutzung von Jackson in streaming.checkpointing.Checksum
  • SPARK-55250 Reduzieren von Hive-Clientaufrufen für CREATE NAMESPACE
  • SPARK-55247 Bereinigen veralteter API-Verwendung im Zusammenhang mit o.a.c.io.input.BoundedInputStream
  • SPARK-55198 spark-sql sollte kommentarzeile mit führenden Leerzeichen überspringen
  • SPARK-55826 Umbenennen _LEGACY_ERROR_TEMP_0006 in MERGE_INSERT_VALUE_COUNT_MISMATCH
  • SPARK-55127 Hinzufügen avro_funcs Gruppe für Avro SQL-Funktionen
  • SPARK-54914 [SQL] Korrigieren des DROP-Operators in der Pipesyntax zur Unterstützung qualifizierter Spaltennamen
  • SPARK-55113EnsureRequirements sollte Tags kopieren
  • SPARK-55074 Test für „Merge Into ANSI type coercion“ hinzufügen
  • SPARK-54217 Synchronisieren der MonitorThread-Kill-Entscheidung von PythonRunner
  • SPARK-54374 Vergrößern des SVG viewBox-Attributs der SQL-Planvisualisierungsinitialisierung
  • SPARK-54971 Hinzufügen von WITH SCHEMA EVOLUTION-Syntax für SQL INSERT
  • SPARK-55065 Vermeiden Sie zwei JDBC-API-Aufrufe.
  • SPARK-55033 Korrigieren der stringArgs von DSv2-Schreibbefehlen
  • SPARK-55041 Bereinigen einiger nicht verwendeter privater Elemente funcion/val aus dem Kernmodul
  • SPARK-55338 Zentralisierung der Logik zur Dekomprimierung von Spark-Connect-Anfragen im gRPC-Interceptor
  • SPARK-55825 Umbenennen _LEGACY_ERROR_TEMP_1309 in PARTITION_BY_NOT_ALLOWED_WITH_INSERT_INTO
  • SPARK-55492 Überprüfen, ob "eventTime" in withWatermark eine Spalte auf oberster Ebene ist
  • SPARK-55802 Behebung von Ganzzahlüberläufen beim Berechnen von Arrow-Batch-Bytes
  • SPARK-55694 Blockeinschränkungen in CTAS/RTAS auf Parserebene
  • SPARK-55843 Behandeln der Einheit von datetime64 und timedelta64 dtypes
  • SPARK-55824 Umbenennen _LEGACY_ERROR_TEMP_1034 in WINDOW_FUNCTION_NOT_ALLOWED_IN_CLAUSE
  • SPARK-55819 Umgestalten von ExpandExec, um prägnant zu sein
  • SPARK-55341 Hinzufügen des Kennzeichens auf Speicherebene für zwischengespeicherte lokale Beziehungen
  • SPARK-54599 Revert "[SC-219008][PYTHON] Refactor PythonException so it can take errorClass with sqlstate"
  • SPARK-46167 Hinzufügen der Achsenimplementierung zu DataFrame.rank
  • SPARK-54599 Neugestaltung von PythonException, sodass errorClass mit sqlstate verwendet werden kann
  • SPARK-55529 Erneute Anwendung [ES-1721989][SC-220716][PYTHON] Batchzusammenführung auf Pfeilebene für nicht iterator applyInPandas
  • SPARK-55794 Immer Aliase OuterReferences
  • SPARK-55583 Überprüfen von Pfeilschematypen in Python Datenquelle
  • SPARK-37711 Reduzieren von Pandas beschreiben die Auftragsanzahl von O(N) auf O(1)
  • SPARK-46168 Hinzufügen eines Achsenarguments für idxmax
  • SPARK-46162 Implementieren von Nunique mit axis=1
  • SPARK-55552 Hinzufügen der VariantType-Unterstützung zu ColumnarBatchRow.copy() und MutableColumnarRow
  • SPARK-55647 Behebung des fehlerhaften Ersetzens von Attributen mit nicht binär stabilen Sortierungen
  • SPARK-55747 Beheben von NPE beim Zugriff auf Elemente aus einem Array, das null ist
  • SPARK-55757 Verbessern der spark.task.cpus Validierung
  • SPARK-55699 Inkonsistentes Lesen von LowLatencyClock bei Verwendung mit ManualClock
  • SPARK-55702 Unterstützen des Filter-Prädikats in Fensteraggregatfunktionen
  • SPARK-55510 Behebung des deleteRange im Rocksdb-Statusspeicher zum Aufrufen von changelogWriter.
  • SPARK-55739 Optimieren OnHeapColumnVector.putIntsLittleEndian/putLongsLittleEndian unter Verwendung auf Platform.copyMemory Little-Endian-Plattformen
  • SPARK-55730 Weniger Groß-/Kleinschreibung in der Zeitzone
  • SPARK-55701 ES-1694761[SS] Fix race condition in CompactibleFileStreamLog.allFiles
  • SPARK-55462 Zurücksetzen von "[SC-221123][PYTHON] Support VariantType in convert_numpy"
  • SPARK-55144 Einführung einer neuen Zustandsformatversion für die performante Stream-Stream-Verknüpfung
  • SPARK-55606 Serverseitige Implementierung der GetStatus-API
  • SPARK-55462 Unterstützung für VariantType in convert_numpy
  • SPARK-55600 Fix pandas to arrow lose row count when schema has 0 columns on classic
  • SPARK-55700 Beheben der Behandlung ganzzahliger Schlüssel in Reihe mit nicht ganzzahligem Index
  • SPARK-55349 Konsolidierung der Pandas-zu-Arrow-Konvertierungswerkzeuge in Serialisierern
  • SPARK-55681 Korrigieren der Singleton DataType-Gleichheit nach der Deserialisierung (neu zu aktualisieren)
  • SPARK-55681 Rückgängig machen "[SC-221427][SC-214079][SQL] Einzelkonfigurations-Datentypgleichheit nach der Deserialisierung beheben"
  • SPARK-55681 Behebung der Singleton-Datentyp-Gleichheit nach der Deserialisierung
  • SPARK-55674 Optimierung der Konvertierung von Tabellen mit 0 Spalten in Spark Connect
  • SPARK-55323 Erneutes Anwenden von "[SC-218885][PYTHON] Verschieben von UDF-Metadaten in EvalConf zur Vereinfachung des Arbeitsprotokolls"
  • SPARK-55322 Erneutes Anwenden [SC-221062][SQL] MaxBy- und MinBy-Überladung mit K-Elementen
  • SPARK-55323 Rückgängig machen von "[SC-218885][PYTHON] Verschieben der UDF-Metadaten zu EvalConf zur Vereinfachung des Worker-Protokolls"
  • SPARK-55615 Verschieben des SparkContext-Imports in Klassenzweig
  • SPARK-55323 Verschieben von UDF-Metadaten in EvalConf zur Vereinfachung des Arbeitsprotokolls
  • SPARK-55648 Behandeln eines unerwarteten Schlüsselwortargumentfehlers groupby(axis) mit Pandas 3
  • SPARK-55647 Zurücksetzen "[SC-221274][SQL] Falsches Ersetzen von Attributen durch nicht binär-stabile Kollationen"
  • SPARK-55646 SQLExecution.withThreadLocalCaptured wurde umgestaltet, um die Aufnahme von Thread-Lokalen von der Ausführung zu trennen.
  • SPARK-54854 Hinzufügen einer UUIDv7 queryId zu SQLExecution-Ereignissen
  • SPARK-55619 Korrigieren von benutzerdefinierten Metriken im Fall von zusammengeführten Partitionen
  • SPARK-55647 Behebung des fehlerhaften Ersetzens von Attributen mit nicht binär stabilen Sortierungen
  • SPARK-55322 Wiederherstellen von "[SC-221062][SQL] MaxBy und MinBy Überladung mit K-Elementen"
  • SPARK-54740 Starten des Fehlerhandlers früh im Daemonmodus
  • SPARK-55493 [SS] Nicht mkdirs im Verzeichnis des Streamingprüfpunktstatus in StateDataSource
  • SPARK-55322MaxBy und MinBy Überladung mit K-Elementen
  • SPARK-55625 StringOps korrigieren, damit str dtype korrekt funktioniert
  • SPARK-55161 Erneut anwenden von "[SC-218867][PYTHON] Profilerunterstützung für die Python-Datenquelle"
  • SPARK-55505 Beheben von NPE beim Lesen von EXECUTION_ROOT_ID_KEY in gleichzeitigen Szenarien
  • SPARK-55111 Erneute Überprüfung der Erkennung nicht abgeschlossener Neupartitionierungen beim Neustart der Abfrage
  • SPARK-55593 Vereinheitlichen des Aggregationszustands für vector_avg/vector_sum
  • SPARK-55500 Korrigieren des Analysezyklus zwischen ApplyDefaultCollation, ExtractWindowExpressions und CollationTypeCasts
  • SPARK-55494 Einführung von iterator/prefixScan mit mehreren Werten in der StateStore-API
  • SPARK-55561 Hinzufügen von Wiederholungsversuchen für alle Kafka-Administratorclientmethoden
  • SPARK-55296 Unterstützen des CoW-Modus mit Pandas 3
  • SPARK-55479 Beheben von Formatproblemen in SparkShreddingUtils
  • SPARK-55372 Fix SHOW CREATE TABLE für Tabellen/Ansichten mit Standardsortierung
  • SPARK-55333 Aktivieren DateType und TimeType in convert_numpy
  • SPARK-55129 Einführung neuer Schlüssel-Codierer für Zeitstempel als erstklassige (UnsafeRow)
  • SPARK-46163 DataFrame.update-Parameter filter_func und Fehler
  • SPARK-55372 Wiederherstellen von "[SC-220571][SQL] Fix SHOW CREATE TABLE für Tabellen/ Ansichten mit Standardsortierung"
  • SPARK-55480 Alle nicht verwendeten 'noqa' für 'ruff' entfernen
  • SPARK-55471 Hinzufügen der Optimiererunterstützung für SequentialStreamingUnion
  • SPARK-55584 Verbessere die Fehlermeldung bei der Ausführung einer skalaren Unterabfrage mit EXEC IMMEDIATE
  • SPARK-55161 Änderungen rückgängig machen "[SC-218867][PYTHON] Profiler für Python-Datenquelle unterstützen"
  • SPARK-55506 Übergib das explizite Eingabeschema an to_pandas in CogroupPandasUDFSerializer
  • SPARK-55586 Beispiel hinzufügen jdbc.py
  • SPARK-55161 Unterstützung von Profilern für Python-Datenquelle
  • SPARK-55529 "[SC-220716][PYTHON] Wiederherstellen der Batchzusammenführung auf Arrow-Ebene für nicht-Iterator applyInPandas"
  • SPARK-55385 Minderung der Neuberechnung in zipWithIndex
  • SPARK-55529 Arrow-Ebene-Batch-Merge für nicht-Iterator applyInPandas wiederherstellen
  • SPARK-55389 Konsolidieren von SQL_MAP_ARROW_ITER_UDF Wrapper-, Mapper- und Serialisierungslogik
  • SPARK-55406 Reimplementieren des Threadpools für ExecutePlanResponseReattachableIterator
  • SPARK-55372 Fix SHOW CREATE TABLE für Tabellen/Ansichten mit Standardsortierung
  • SPARK-55367 venv für das Ausführen von pip-Tests verwenden
  • SPARK-55355 Aktualisieren der mypy-Version auf die neueste Version
  • SPARK-55460 Entfernen von E203 aus der Ignorierliste von ruff
  • SPARK-55541 Unterstützung von Geometrie und Geographie in Katalysatortypkonvertern
  • SPARK-55449 Aktivieren von WKB-Parsing und -Schreiben für Geografie
  • SPARK-55339 Implementieren der WKT Writer-Unterstützung für Geo-Objekte
  • SPARK-54122 Implementieren von TwsTester in Scala
  • SPARK-54805 Implementieren von TwsTester in PySpark
  • SPARK-55256 Erneutes Anwenden von "[SC-218596][SQL] Unterstützung IGNORE NULLS / RESPECT NULLS für array_agg und collect_list"
  • SPARK-55156 Umgang mit include_groups für groupby.apply
  • SPARK-55401 Hinzufügen von Wiederholungslogik und Timeoutbehandlung zum Pyspark-Installationsdownload
  • SPARK-55229 Implementieren von DataFrame.zipWithIndex in PySpark
  • SPARK-55462 Unterstützung für UserDefinedType in convert_numpy
  • SPARK-55483 NPE in PivotFirst beheben, wenn die Pivotspalte ein nicht-atomarer Typ mit NULL-Werten ist
  • SPARK-55490 Ermöglichen groupby(as_index=False), eine Gruppierung einzuschließen, die nicht im DataFrame mit pandas 3 enthalten ist
  • SPARK-55473 Ersetzen Sie itertools.tee durch Chain in applyInPandasWithState
  • SPARK-55404 Tastaturinterrupt immer vom SIGINT-Handler auslösen
  • SPARK-55407 Logger.warn durch logger.warning ersetzen

Databricks ODBC/JDBC-Treiberunterstützung

Databricks unterstützt ODBC-/JDBC-Treiber, die in den letzten 2 Jahren veröffentlicht wurden. Laden Sie die kürzlich veröffentlichten Treiber herunter, und führen Sie ein Upgrade durch (ODBC herunterladen, JDBC herunterladen).

Systemumgebung

  • Betriebssystem: Ubuntu 24.04.4 LTS
  • Java: Zulu21.48+15-CA
  • Skala: 2.13.16
  • Python: 3.12.3
  • R: 4.5.1
  • Delta Lake: 4.1.0

Installierte Python-Bibliotheken

Bibliothek Version Bibliothek Version Bibliothek Version
aiohappyeyeballs 2.4.4 aiohttp 3.11.10 aiosignal 1.2.0
annotierte-Dokumentation 0.0.4 annotated-types 0.7.0 anyio 4.7.0
argon2-cffi 21.3.0 argon2-cffi-bindings 21.2.0 arro3-core 0.6.5
Pfeil 1.3.0 asttokens 3.0.0 astunparse 1.6.3
async-lru 2.0.4 Attrs 24.3.0 autocommand 2.2.2
azure-common 1.1.28 Azure Core 1.37.0 Azure-Identity 1.20.0
azure-mgmt-core 1.6.0 azure-mgmt-web 8.0.0 Azure Storage Blob 12.28.0
Azure-Speicher-Datei-Datensee 12.22.0 Babel 2.16.0 backports.tarfile 1.2.0
beautifulsoup4 4.12.3 schwarz 24.10.0 Bleichmittel 6.2.0
Blinker 1.7.0 boto3 1.40.45 Botocore 1.40.45
CacheWerkzeuge 5.5.1 Zertifikat 2025.4.26 cffi 1.17.1
Chardet 4.0.0 Charset-Normalizer 3.3.2 klicken 8.1.8
cloudpickle 3.0.0 Kommunikation 0.2.1 Contourpy 1.3.1
Kryptografie 44.0.1 Fahrradfahrer 0.11.0 Cython 3.1.5
databricks-agents 1.9.1 Databricks-SDK 0.67.0 dataclasses-json 0.6.7
dbus-python 1.3.2 debugpy 1.8.11 Dekorateur 5.1.1
defusedxml 0.7.1 Deltalake 1.1.4 Deprecated 1.2.18
Distlib 0.3.9 Docstring zu Markdown 0.11 ausführen 1.2.0
Übersicht der Facetten 1.1.1 fastapi 0.128.0 fastjsonschema 2.21.1
Dateisperrung 3.17.0 fonttools 4.55.3 fqdn 1.5.1
frozenlist 1.5.0 fsspec 2023.5.0 gitdb 4.0.11
GitPython 3.1.43 google-api-core 2.28.1 Google-Authentifizierung 2.47.0
Google Cloud Core 2.5.0 Google Cloud-Speicher 3.7.0 google-crc32c 1.8.0
google-resumable-media 2.8.0 googleapis-common-protos 1.65.0 GRPCIO 1.67.0
grpcio-status 1.67.0 h11 0.16.0 hf-xet 1.2.0
httpcore 1.0.9 httplib2 0.20.4 httpx 0.28.1
huggingface_hub 1.2.4 IDNA 3,7 importlib_metadata 8.5.0
inflect 7.3.1 iniconfig 1.1.1 ipyflow-core 0.0.209
ipykernel 6.29.5 ipython 8.30.0 ipython-genutils 0.2.0
ipywidgets 7.8.1 isodate 0.7.2 isoduration 20.11.0
jaraco.collections 5.1.0 jaraco.context 5.3.0 jaraco.functools 4.0.1
jaraco.text 3.12.1 Jedi 0.19.2 Jinja2 3.1.6
Jiter 0.12.0 jmespath 1.0.1 joblib 1.4.2
json5 0.9.25 jsonpatch 1,33 jsonpointer 3.0.0
jsonschema 4.23.0 jsonschema-Spezifikationen 2023.7.1 Jupyter-Ereignisse 0.12.0
jupyter-lsp 2.2.5 jupyter_client 8.6.3 jupyter_core 5.7.2
jupyter_server 2.15.0 jupyter_server_terminals 0.5.3 jupyterlab 4.3.4
jupyterlab_pygments 0.3.0 jupyterlab_server 2.27.3 jupyterlab_widgets 1.1.11
kiwisolver 1.4.8 langchain-core 1.2.6 langchain-openai 1.1.6
langsmith 0.6.1 launchpadlib 1.11.0 lazr.restfulclient 0.14.6
lazr.uri 1.0.6 litellm 1.75.9 markdown-it-py 2.2.0
MarkupSafe 3.0.2 Marshmallow 3.26.2 matplotlib 3.10.0
matplotlib-inline 0.1.7 mccabe 0.7.0 mdurl 0.1.0
mistune 3.1.2 mlflow-skinny 3.8.1 mmh3 5.2.0
more-itertools 10.3.0 msal 1.34.0 msal-extensions 1.3.1
Multidict 6.1.0 mypy-Erweiterungen 1.0.0 nbclient 0.10.2
nbconvert 7.16.6 nbformat 5.10.4 nest-asyncio 1.6.0
nodeenv 1.10.0 Notebook 7.3.2 Notebook-Shim 0.2.4
numpy 2.1.3 oauthlib 3.2.2 openai 2.14.0
opentelemetry-api 1.39.1 opentelemetry-proto 1.39.1 opentelemetry-sdk 1.39.1
opentelemetry-semantic-conventions (opentelemetrie-semantische-Konventionen) 0,60b1 Orjson 3.11.5 Überschreibt 7.4.0
Verpackung 24,2 Pandas 2.2.3 Pandocfilter 1.5.0
Parso 0.8.4 pathspec 0.10.3 patsy 1.0.1
pexpect 4.8.0 Kissen 11.1.0 pip 25.0.1
platformdirs 4.3.7 plotly 5.24.1 plugin-fähig 1.5.0
prometheus_client 0.21.1 Prompt-Toolkit 3.0.43 propcache 0.3.1
proto-plus 1.27.0 protobuf 5.29.4 psutil 5.9.0
psycopg2 2.9.11 ptyprocess 0.7.0 pure-eval 0.2.2
Pyarrow 21.0.0 Pyasn1 0.4.8 Pyasn1-Module 0.2.8
pyccolo 0.0.71 Pycparser 2.21 Pydantisch 2.10.6
pydantic_core 2.27.2 Pyflakes 3.2.0 Pygments 2.19.1
PyGObject 3.48.2 Pyiceberg 0.10.0 PyJWT 2.10.1
Pyodbc 5.2.0 Pyparsing 3.2.0 pyright 1.1.394
Pyroaring 1.0.3 pytest 8.3.5 Python-dateutil 2.9.0.post0
python-dotenv 1.2.1 python-json-logger 3.2.1 python-lsp-jsonrpc 1.1.2
Python-LSP-Server 1.12.2 pytoolconfig 1.2.6 Pytz 2024.1
PyYAML 6.0.2 pyzmq 26.2.0 Referenzierung 0.30.2
Regex 2024.11.6 requests 2.32.3 anforderungs-toolbelt 1.0.0
rfc3339-Prüfer 0.1.4 rfc3986-validator 0.1.1 reich 13.9.4
Seil 1.13.0 rpds-py 0.22.3 rsa 4.9.1
s3transfer 0.14.0 scikit-learn 1.6.1 SciPy 1.15.3
Seegeboren 0.13.2 Send2Trash 1.8.2 setuptools 78.1.1
Shellingham 1.5.4 Sechs 1.17.0 smmap 5.0.0
sniffio 1.3.0 sortierte Container 2.4.0 Sieb für Suppe 2,5
sqlparse 0.5.5 ssh-import-id 5.11 Stapeldaten 0.6.3
Starlet 0.50.0 strictyaml 1.7.3 Hartnäckigkeit 9.0.0
terminado 0.17.1 Threadpoolctl 3.5.0 tiktoken 0.12.0
tinycss2 1.4.0 tokenize_rt 6.1.0 tokenizers 0.22.2
tomli 2.0.1 tornado 6.5.1 tqdm 4.67.1
traitlets 5.14.3 Typwächter 4.3.0 typer-slim 0.21.1
types-python-dateutil 2.9.0.20251115 Eingabeprüfung 0.9.0 typing_extensions 4.12.2
tzdata 2024.1 ujson 5.10.0 unbeaufsichtigte Aktualisierungen 0,1
URI-Vorlage 1.3.0 urllib3 2.3.0 uuid_utils 0.12.0
uvicorn 0.40.0 virtualenv 20.29.3 wadllib 1.3.6
wcwidth (Breite eines Zeichens) 0.2.5 webcolors 25.10.0 Webkodierungen 0.5.1
WebSocket-Client 1.8.0 Was ist neu im Patch 1.0.2 Rad 0.45.1
Wann auch immer 0.7.3 widgetsnbextension 3.6.6 Eingehüllt 1.17.0
yapf 0.40.2 yarl 1.18.0 zipp 3.21.0
zstandard 0.23.0

Installierte R-Bibliotheken

R-Bibliotheken werden aus dem Posit Paket-Manager CRAN-Snapshot am 2025-11-20 installiert.

Bibliothek Version Bibliothek Version Bibliothek Version
Pfeil 22.0.0 Askpass 1.2.1 prüfen, dass 0.2.1
backports 1.5.0 Basis 4.5.1 base64enc 0.1-3
bigD 0.3.1 bit 4.6.0 Bit64 4.6.0-1
bitops 1.0-9 Klumpen 1.2.4 boot 1.3-30
brew 1.0-10 brio 1.1.5 Besen 1.0.10
bslib 0.9.0 cachem 1.1.0 callr 3.7.6
Caret 7.0-1 CellRanger 1.1.0 Chron 2.3-62
class 7.3-22 Kommandozeilenschnittstelle (CLI) 3.6.5 Clipr 0.8.0
Uhr 0.7.3 Gruppe 2.1.6 Codetools 0.2-20
commonmark 2.0.0 Kompilierer 4.5.1 Konfiguration 0.3.2
konfliktbehaftet 1.2.0 cpp11 0.5.2 Buntstift 1.5.3
Zugangsdaten 2.0.3 cURL 7.0.0 data.table 1.17.8
Datensätze 4.5.1 DBI 1.2.3 dbplyr 2.5.1
Beschreibung 1.4.3 devtools 2.4.6 Diagramm 1.6.5
diffobj 0.3.6 verdauen 0.6.39 downlit 0.4.5
dplyr 1.1.4 dtplyr 1.3.2 e1071 1.7-16
Ellipse 0.3.2 auswerten 1.0.5 Fans 1.0.7
farver 2.1.2 fastmap 1.2.0 fontawesome 0.5.3
forcats 1.0.1 foreach 1.5.2 Fremd 0.8-86
fs 1.6.6 Zukunft 1.68.0 future.apply 1.20.0
gurgeln 1.6.0 Generika 0.1.4 gert 2.2.0
ggplot2 4.0.1 gh 1.5.0 git2r 0.36.2
gitcreds 0.1.2 glmnet 4.1-10 globals 0.18.0
Klebstoff 1.8.0 googledrive 2.1.2 googlesheets4 1.1.2
gower 1.0.2 Graphik 4.5.1 grGeräte 4.5.1
grid 4.5.1 gridExtra 2.3 gsubfn 0.7
GT 1.1.0 g-Tabelle 0.3.6 Schutzhelm 1.4.2
Hafen 2.5.5 highr 0.11 hms 1.1.4
HTML-Werkzeuge 0.5.8.1 htmlwidgets 1.6.4 httpuv 1.6.16
httr 1.4.7 httr2 1.2.1 Ausweise 1.0.1
ini 0.3.1 IPRED 0.9-15 Isobande 0.2.7
iterators 1.0.14 jquerylib 0.1.4 jsonlite 2.0.0
juicyjuice 0.1.0 KernSmooth 2.23-22 Knitr 1.50
Etikettierung 0.4.3 later 1.4.4 lattice 0.22-5
lava 1.8.2 Lebenszyklus 1.0.4 „listenv“ 0.10.0
litedown 0.8 Schmiermittel 1.9.4 magrittr 2.0.4
markdown 2.0 Masse 7.3-60.0.1 Matrix 1.6-5
memoise 2.0.1 Methodik 4.5.1 mgcv 1.9-1
Mime-Kunst 0,13 miniUI 0.1.2 mlflow 3.6.0
ModelMetrics 1.2.2.2 Modellierer 0.1.11 nlme 3.1-164
NNET 7.3-19 numDeriv 2016.8 bis 1.1 OpenSSL 2.3.4
otel 0.2.0 parallel 4.5.1 parallel dazu 1.45.1
Säule 1.11.1 pkgbuild 1.4.8 pkgconfig 2.0.3
pkgdown 2.2.0 pkgload 1.4.1 plogr 0.2.0
plyr 1.8.9 loben 1.0.0 prettyunits 1.2.0
pROC 1.19.0.1 Prozessx 3.8.6 prodlim 2025.04.28
profvis 0.4.0 Fortschritt 1.2.3 progressr 0.18.0
Versprechungen 1.5.0 proto 1.0.0 Stellvertreter 0.4-27
P.S. 1.9.1 purrr 1.2.0 R6 2.6.1
ragg 1.5.0 randomForest 4.7-1.2 rappdirs 0.3.3
rcmdcheck 1.4.0 RColorBrewer 1.1-3 Rcpp 1.1.0
RcppEigen 0.3.4.0.2 reaktivierbar 0.4.4 reactR 0.6.1
READR 2.1.6 readxl (Softwarepaket zum Lesen von Excel-Dateien) 1.4.5 Rezepte 1.3.1
Rückspiel 2.0.0 Rückspiel2 2.1.2 Fernzugriffe 2.5.0
reprex 2.1.1 Umform2 1.4.5 rlang 1.1.6
RMarkdown 2,30 RODBC 1.3-26 roxygen2 7.3.3
rpart 4.1.23 rprojroot 2.1.1 Rserve 1.8-15
RSQLite 2.4.4 rstudioapi 0.17.1 rversions 3.0.0
RVEST 1.0.5 S7 0.2.1 Sass 0.4.10
Waagen 1.4.0 Selektor 0.4-2 Sitzungsinformationen 1.2.3
Gestalt 1.4.6.1 glänzend 1.11.1 sourcetools 0.1.7-1
Sparklyr 1.9.3 SparkR 4.1.0 sparsevctrs 0.3.4
räumlich 7.3-17 splines 4.5.1 sqldf 0.4-11
SQUAREM 2021.1 Statistiken 4.5.1 Statistiken4 4.5.1
Stringi 1.8.7 stringr 1.6.0 Überleben 3.5-8
swagger 5.17.14.1 sys 3.4.3 systemfonts 1.3.1
tcltk 4.5.1 testthat 3.3.0 Textgestaltung 1.0.4
Tibble 3.3.0 tidyr 1.3.1 tidyselect 1.2.1
tidyverse 2.0.0 Zeitumstellung 0.3.0 timeDate 4051.111
tinytex 0.58 Werkzeuge 4.5.1 Zeitzonendatenbank (tzdb) 0.5.0
URL-Prüfer 1.0.1 Nutze dies 3.2.1 utf8 1.2.6
utils 4.5.1 Universelle eindeutige Kennung (UUID) 1.2-1 V8 8.0.1
VCTRS 0.6.5 viridisLite 0.4.2 Vroom 1.6.6
Waldo 0.6.2 whisker 0.4.1 Withr 3.0.2
xfun 0.54 xml2 1.5.0 xopen 1.0.1
xtable 1.8-4 YAML-Dateiformat 2.3.10 zeallot 0.2.0
Zip-Datei 2.3.3

Installierte Java- und Scala-Bibliotheken (Scala 2.13-Clusterversion)

Gruppen-ID Artefakt-ID Version
antlr antlr 2.7.7
com.clearspring.analytics Datenstrom 2.9.8
com.databricks Rserve 1.8-3
com.databricks databricks-sdk-java 0.53.0
com.databricks jets3t 0.7.1-0
com.databricks.scalapb scalapb-runtime_2.13 0.4.15-11
com.esotericsoftware kryo-shaded 4.0.3
com.esotericsoftware Minlog 1.3.0
com.fasterxml Klassenkamerad 1.5.1
com.fasterxml.jackson.core Jackson-Anmerkungen 2.18.2
com.fasterxml.jackson.core jackson-core 2.18.2
com.fasterxml.jackson.core Jackson-Datenbindung 2.18.2
com.fasterxml.jackson.dataformat jackson-dataformat-yaml 2.15.2
com.fasterxml.jackson.datatype jackson-datatype-joda 2.18.2
com.fasterxml.jackson.datatype jackson-datatype-jsr310 2.18.3
com.fasterxml.jackson.module jackson-module-paranamer 2.18.2
com.fasterxml.jackson.module jackson-module-scala_2.13 2.18.2
com.github.ben-manes.caffeine Koffein 2.9.3
com.github.blemale scaffeine_2.13 4.1.0
com.github.fommil Jniloader 1.1
com.github.fommil.netlib native_ref-java 1.1
com.github.fommil.netlib native_ref-java 1.1-Einheimische
com.github.fommil.netlib native_system-java 1.1
com.github.fommil.netlib native_system-java 1.1-Einheimische
com.github.fommil.netlib netlib-native_ref-linux-x86_64 1.1-Einheimische
com.github.fommil.netlib netlib-native_system-linux-x86_64 1.1-Einheimische
com.github.luben zstd-jni 1.5.7-6
com.github.virtuald curvesapi 1.08
com.github.wendykierp JTransforms 3.1
com.google.api.grpc proto-google-common-protos 2.5.1
com.google.auth Google-Auth-Library-Credentials 1.20.0
com.google.auth google-auth-library-oauth2-http 1.20.0
com.google.auto.value AutoValue-Anmerkungen 1.10.4
com.google.code.findbugs jsr305 3.0.0
com.google.code.gson gson 2.11.0
com.google.crypto.tink tink 1.16.0
com.google.errorprone fehleranfällige Annotationen 2.36.0
com.google.flatbuffers flatbuffers-java 25.2.10
com.google.guava failureaccess 1.0.3
com.google.guava Guava 33.4.8-jre
com.google.http-client google-http-client 1.43.3
com.google.http-client google-http-client-gson 1.43.3
com.google.j2objc j2objc-annotations 3.0.0
com.google.protobuf protobuf-java 3.25.5
com.google.protobuf protobuf-java-util 3.25.5
com.helger Profiler 1.1.1
com.ibm.icu icu4j 75.1
com.jcraft jsch 0.1.55
com.lihaoyi sourcecode_2.13 0.1.9
com.microsoft.azure Azure Data Lake Store SDK (Software Development Kit für Azure Data Lake Store) 2.3.10
com.microsoft.sqlserver mssql-jdbc 12.8.0.jre11
com.microsoft.sqlserver mssql-jdbc 12.8.0.jre8
com.ning compress-lzf (Datenkompression mit LZF-Algorithmus) 1.1.2
com.sun.mail javax.mail 1.5.2
com.sun.xml.bind jaxb-core 2.2.11
com.sun.xml.bind jaxb-impl 2.2.11
com.tdunning json 1.8
com.thoughtworks.paranamer Paranamer 2.8
com.trueaccord.lenses lenses_2.13 0.4.13
com.twitter chill-java 0.10.0
com.twitter chill_2.13 0.10.0
com.twitter util-app_2.13 19.8.1
com.twitter util-core_2.13 19.8.1
com.twitter util-function_2.13 19.8.1
com.twitter util-jvm_2.13 19.8.1
com.twitter util-lint_2.13 19.8.1
com.twitter util-registry_2.13 19.8.1
com.twitter util-stats_2.13 19.8.1
com.typesafe Konfiguration 1.4.3
com.typesafe.scala-logging scala-logging_2.13 3.9.2
com.uber h3 3.7.3
com.univocity univocity-parsers 2.9.1
com.zaxxer HikariCP 4.0.3
com.zaxxer SparseBitSet 1.3
commons-cli commons-cli 1.10.0
commons-codec commons-codec 1.19.0
commons-collections commons-collections 3.2.2
commons-dbcp commons-dbcp 1.4
Commons-Dateihochladen Commons-Dateihochladen 1.6.0
commons-httpclient commons-httpclient 3.1
commons-io commons-io 2.21.0
commons-lang commons-lang 2.6
commons-logging commons-logging 1.1.3
commons-pool commons-pool 1.5.4
dev.ludovic.netlib arpack 3.0.4
dev.ludovic.netlib blas 3.0.4
dev.ludovic.netlib lapack 3.0.4
info.ganglia.gmetric4j gmetric4j 1.0.10
io.airlift Luftkompressor 2.0.2
io.delta delta-sharing-client_2.13 1.3.10
io.dropwizard.metrics Metrikanmerkung 4.2.37
io.dropwizard.metrics metrics-core 4.2.37
io.dropwizard.metrics Metrics-Graphit 4.2.37
io.dropwizard.metrics Metriken-Gesundheitsprüfungen 4.2.37
io.dropwizard.metrics Metrik-Jetty10 4.2.37
io.dropwizard.metrics Metrics-JMX 4.2.37
io.dropwizard.metrics metrics-json 4.2.37
io.dropwizard.metrics metrics-jvm 4.2.37
io.dropwizard.metrics Metrik-Servlets 4.2.37
io.github.java-diff-utils java-diff-utils 4.15
io.netty netty-all 4.2.7.Final
io.netty netty-buffer 4.2.7.Final
io.netty Netty Codec 4.2.7.Final
io.netty netty-codec-base 4.2.7.Final
io.netty netty-codec-classes-quic 4.2.7.Final
io.netty Netty-Codec-Komprimierung 4.2.7.Final
io.netty netty-codec-http 4.2.7.Final
io.netty netty-codec-http2 4.2.7.Final
io.netty netty-codec-http3 4.2.7.Final
io.netty netty-codec-marshalling 4.2.7.Final
io.netty netty-codec-native-quic 4.2.7.Final-linux-aarch_64
io.netty netty-codec-native-quic 4.2.7.Final-linux-x86_64
io.netty netty-codec-native-quic 4.2.7.Final-osx-aarch_64
io.netty netty-codec-native-quic 4.2.7.Final-osx-x86_64
io.netty netty-codec-native-quic 4.2.7.Final-windows-x86_64
io.netty netty-codec-protobuf 4.2.7.Final
io.netty netty-codec-socks 4.2.7.Final
io.netty netty-common 4.2.7.Final
io.netty Netty-Handler 4.2.7.Final
io.netty netty-handler-proxy 4.2.7.Final
io.netty Netty-Resolver 4.2.7.Final
io.netty netty-tcnative-boringssl-static 2.0.74.Final-db-r0-linux-aarch_64
io.netty netty-tcnative-boringssl-static 2.0.74.Final-db-r0-linux-x86_64
io.netty netty-tcnative-boringssl-static 2.0.74.Final-db-r0-osx-aarch_64
io.netty netty-tcnative-boringssl-static 2.0.74.Final-db-r0-osx-x86_64
io.netty netty-tcnative-boringssl-static 2.0.74.Final-db-r0-windows-x86_64
io.netty netty-tcnative-Klassen 2.0.74.Final
io.netty netty-transport 4.2.7.Final
io.netty netty-transport-classes-epoll 4.2.7.Final
io.netty netty-transport-classes-io_uring 4.2.7.Final
io.netty netty-transport-classes-kqueue 4.2.7.Final
io.netty netty-transport-native-epoll 4.2.7.Final
io.netty netty-transport-native-epoll 4.2.7.Final-linux-aarch_64
io.netty netty-transport-native-epoll 4.2.7.Final-linux-riscv64
io.netty netty-transport-native-epoll 4.2.7.Final-linux-x86_64
io.netty netty-transport-native-io_uring 4.2.7.Final-linux-aarch_64
io.netty netty-transport-native-io_uring 4.2.7.Final-linux-riscv64
io.netty netty-transport-native-io_uring 4.2.7.Final-linux-x86_64
io.netty netty-transport-native-kqueue 4.2.7.Final-osx-aarch_64
io.netty netty-transport-native-kqueue 4.2.7.Final-osx-x86_64
io.netty netty-transport-native-unix-common 4.2.7.Final
io.opencensus opencensus-api 0.31.1
io.opencensus opencensus-contrib-http-util 0.31.1
io.prometheus simpleclient 0.16.1-databricks
io.prometheus simpleclient_common 0.16.1-databricks
io.prometheus simpleclient_dropwizard 0.16.1-databricks
io.prometheus simpleclient_pushgateway 0.16.1-databricks
io.prometheus simpleclient_servlet 0.16.1-databricks
io.prometheus simpleclient_servlet_common 0.16.1-databricks
io.prometheus simpleclient_tracer_common 0.16.1-databricks
io.prometheus simpleclient_tracer_otel 0.16.1-databricks
io.prometheus simpleclient_tracer_otel_agent 0.16.1-databricks
io.prometheus.jmx Sammler 0.18.0
jakarta.annotation jakarta.annotation-api 1.3.5
jakarta.servlet jakarta.servlet-api 4.0.3
jakarta.validation jakarta.validation-api 2.0.2
jakarta.ws.rs jakarta.ws.rs-api 2.1.6
javax.activation Aktivierung 1.1.1
javax.annotation javax.annotation-api 1.3.2
javax.el javax.el-api 2.2.4
javax.jdo jdo-api 3.0.1
javax.media jai_core jai_core_dummy
javax.transaction Java Transaction API (JTA) 1.1
javax.transaction Transaktions-API 1.1
javax.xml.bind jaxb-api 2.2.11
javolution javolution 5.5.1
jline jline 2.14.6
joda-time joda-time 2.14.0
net.java.dev.jna jna 5.8.0
net.razorvine Gurke 1.5
net.sf.jpam jpam 1.1
net.sf.opencsv opencsv 2.3
net.sf.supercsv super-csv 2.2.0
net.Schneeflocke snowflake-ingest-sdk 0.9.6
net.sourceforge.f2j arpack_combined_all 0,1
org.acplt.remotetea remotetea-oncrpc 1.1.2
org.antlr ST4 4.0.4
org.antlr antlr-runtime 3.5.2
org.antlr antlr4-runtime 4.13.1
org.antlr StringTemplate 3.2.1
org.apache.ant Ameise 1.10.11
org.apache.ant ant-jsch 1.10.11
org.apache.ant ant-launcher 1.10.11
org.apache.arrow Pfeilkomprimierung 18.3.0
org.apache.arrow Pfeilformat 18.3.0
org.apache.arrow arrow-memory-core 18.3.0
org.apache.arrow Arrow-Memory-Netty 18.3.0
org.apache.arrow arrow-memory-netty-buffer-patch 18.3.0
org.apache.arrow Pfeil-Vektor 18.3.0
org.apache.avro avro 1.12.1
org.apache.avro avro-ipc 1.12.1
org.apache.avro avro-mapred 1.12.1
org.apache.commons commons-collections4 4.5.0
org.apache.commons commons-compress 1.28.0
org.apache.commons commons-configuration2 2.11.0
org.apache.commons commons-crypto 1.1.0
org.apache.commons commons-lang3 3.19.0
org.apache.commons commons-math3 3.6.1
org.apache.commons Commons-Text 1.14.0
org.apache.curator Kurator-Klient 5.9.0
org.apache.curator curator-framework 5.9.0
org.apache.curator Rezepte des Kurators 5.9.0
org.apache.datasketches datasketches-java 6.2.0
org.apache.datasketches datasketches-memory 3.0.2
org.apache.derby derby 10.14.2.0
org.apache.hadoop Hadoop-Client-Laufzeit 3.4.2
org.apache.hive hive-beeline 2.3.10
org.apache.hive hive-cli 2.3.10
org.apache.hive hive-jdbc 2.3.10
org.apache.hive hive-llap-Client 2.3.10
org.apache.hive hive-llap-common 2.3.10
org.apache.hive hive-serde 2.3.10
org.apache.hive hive-shims 2.3.10
org.apache.hive hive-storage-api 2.8.1
org.apache.hive.shims hive-shims-0.23 2.3.10
org.apache.hive.shims hive-shims-common 2.3.10
org.apache.hive.shims Hive-Shims-Scheduler 2.3.10
org.apache.httpcomponents httpclient 4.5.14
org.apache.httpcomponents httpcore 4.4.16
org.apache.ivy ivy 2.5.3
org.apache.logging.log4j log4j-1.2-api 2.24.3
org.apache.logging.log4j log4j-api 2.24.3
org.apache.logging.log4j log4j-core 2.24.3
org.apache.logging.log4j log4j-layout-template-json 2.24.3
org.apache.logging.log4j log4j-slf4j2-impl 2.24.3
org.apache.orc orc-core 2.2.0-shaded-protobuf
org.apache.orc ORC-Format 1.1.1-schattiert-protobuf
org.apache.orc orc-mapreduce 2.2.0-shaded-protobuf
org.apache.orc Orc-Shims 2.2.0
org.apache.poi poi 5.4.1
org.apache.poi poi-ooxml 5.4.1
org.apache.poi poi-ooxml-full 5.4.1
org.apache.poi poi-ooxml-lite 5.4.1
org.apache.thrift libfb303 0.9.3
org.apache.thrift libthrift 0.16.0
org.apache.ws.xmlschema xmlschema-core 2.3.1
org.apache.xbean xbean-asm9-shaded 4.28
org.apache.xmlbeans xmlbeans 5.3.0
org.apache.yetus Zuschauer-Anmerkungen 0.13.0
org.apache.zookeeper Tierpfleger 3.9.4
org.apache.zookeeper zookeeper-jute 3.9.4
org.checkerframework checker-qual 3.43.0
org.codehaus.janino Commons-Compiler 3.0.16
org.codehaus.janino janino 3.0.16
org.datanucleus datanucleus-api-jdo 4.2.4
org.datanucleus datanucleus-core 4.1.17
org.datanucleus datanucleus-rdbms 4.1.19
org.datanucleus javax.jdo 3.2.0-m3
org.eclipse.jetty jetty-alpn-client 10.0.26
org.eclipse.jetty Jetty-Client 10.0.26
org.eclipse.jetty Jetty-HTTP 10.0.26
org.eclipse.jetty Jetty-IO 10.0.26
org.eclipse.jetty jetty-jndi 10.0.26
org.eclipse.jetty Jetty-Plus 10.0.26
org.eclipse.jetty Jetty-Proxy 10.0.26
org.eclipse.jetty Jetty-Sicherheit 10.0.26
org.eclipse.jetty Jetty Server 10.0.26
org.eclipse.jetty jetty-servlet 10.0.26
org.eclipse.jetty jetty-servlets 10.0.26
org.eclipse.jetty Jetty-Util 10.0.26
org.eclipse.jetty Jetty-Webanwendung 10.0.26
org.eclipse.jetty jetty-xml 10.0.26
org.fusesource.leveldbjni leveldbjni-all 1.8
org.glassfish.hk2 hk2-api 2.6.1
org.glassfish.hk2 hk2-Ortungssystem 2.6.1
org.glassfish.hk2 hk2-utils 2.6.1
org.glassfish.hk2 osgi-resource-locator 1.0.3
org.glassfish.hk2.external aopalliance-neu verpackt 2.6.1
org.glassfish.hk2.external jakarta.inject 2.6.1
org.glassfish.jersey.containers jersey-container-servlet 2.41
org.glassfish.jersey.containers jersey-container-servlet-core 2.41
org.glassfish.jersey.core jersey-client 2.41
org.glassfish.jersey.core jersey-common 2.41
org.glassfish.jersey.core jersey-server 2.41
org.glassfish.jersey.inject jersey-hk2 2.41
org.hibernate.validator hibernate-validator 6.2.5.Final
org.ini4j ini4j 0.5.4
org.javassist Javassist 3.29.2-GA
org.jboss.logging jboss-logging 3.4.1.Final
org.jdbi jdbi 2.63.1
org.jline jline 3.27.1-jdk8
org.joda joda-convert 1.7
org.json4s json4s-ast_2.13 4.0.7
org.json4s json4s-core_2.13 4.0.7
org.json4s json4s-jackson-core_2.13 4.0.7
org.json4s json4s-jackson_2.13 4.0.7
org.json4s json4s-scalap_2.13 4.0.7
org.locationtech.jts jts-core 1.20.0
org.lz4 lz4-java 1.8.0-databricks-1
org.mlflow mlflow-spark_2.13 2.22.1
org.objenesis objenesis 3.4
org.postgresql postgresql 42.6.1
org.roaringbitmap RoaringBitmap 1.2.1
org.rosuda.REngine REngine 2.1.0
org.scala-lang scala-compiler_2.13 2.13.16
org.scala-lang scala-library_2.13 2.13.16
org.scala-lang scala-reflect_2.13 2.13.16
org.scala-lang.modules scala-collection-compat_2.13 2.11.0
org.scala-lang.modules scala-java8-compat_2.13 0.9.1
org.scala-lang.modules scala-parallel-collections_2.13 1.2.0
org.scala-lang.modules scala-parser-combinators_2.13 2.4.0
org.scala-lang.modules scala-xml_2.13 2.4.0
org.scala-sbt Testoberfläche 1.0
org.scalacheck scalacheck_2.13 1.18.0
org.scalactic scalactic_2.13 3.2.19
org.scalanlp breeze-macros_2.13 2.1.0
org.scalanlp breeze_2.13 2.1.0
org.scalatest ScalaTest-kompatibel 3.2.19
org.scalatest scalatest-core_2.13 3.2.19
org.scalatest scalatest-diagrams_2.13 3.2.19
org.scalatest scalatest-featurespec_2.13 3.2.19
org.scalatest scalatest-flatspec_2.13 3.2.19
org.scalatest scalatest-freespec_2.13 3.2.19
org.scalatest scalatest-funspec_2.13 3.2.19
org.scalatest scalatest-funsuite_2.13 3.2.19
org.scalatest scalatest-matchers-core_2.13 3.2.19
org.scalatest scalatest-mustmatchers_2.13 3.2.19
org.scalatest scalatest-propspec_2.13 3.2.19
org.scalatest scalatest-refspec_2.13 3.2.19
org.scalatest scalatest-shouldmatchers_2.13 3.2.19
org.scalatest scalatest-wordspec_2.13 3.2.19
org.scalatest scalatest_2.13 3.2.19
org.slf4j jcl-over-slf4j 2.0.16
org.slf4j jul-to-slf4j 2.0.16
org.slf4j slf4j-api 2.0.16
org.slf4j slf4j-simple 1.7.25
org.threeten threeten-extra 1.8.0
org.tukaani xz 1.10
org.typelevel algebra_2.13 2.8.0
org.typelevel cats-kernel_2.13 2.8.0
org.typelevel spire-macros_2.13 0.18.0
org.typelevel spire-platform_2.13 0.18.0
org.typelevel spire-util_2.13 0.18.0
org.typelevel spire_2.13 0.18.0
org.wildfly.openssl wildfly-openssl 1.1.3.Final
org.xerial sqlite-jdbc 3.42.0.0
org.xerial.snappy snappy-java 1.1.10.3
org.yaml snakeyaml 2.0
oro oro 2.0.8
pl.edu.icm JLargeArrays 1.5
software.amazon.cryptools AmazonCorrettoCryptoProvider 2.5.0-linux-x86_64
Stax stax-api 1.0.1