Condividi tramite


Databricks Runtime 15.2 (EoS)

Annotazioni

Il supporto per questa versione di Databricks Runtime è terminato. Per la data di fine del supporto, vedere Fine del supporto e cronologia di fine vita. Per tutte le versioni supportate di Databricks Runtime, vedere note di rilascio di Databricks Runtime: versioni e compatibilità.

Le note sulla versione seguenti forniscono informazioni su Databricks Runtime 15.2, basate su Apache Spark 3.5.0.

Databricks ha rilasciato questa versione nel maggio 2024.

Modifiche comportamentali

Il comando Vacuum ripulisce i file di metadati COPY INTO

L'esecuzione di VACUUM in una tabella scritta con COPY INTO ora pulisce i metadati non referenziati associati al monitoraggio dei file inseriti. Non c'è alcun impatto sulla semantica operativa di COPY INTO.

Lakehouse Federation è disponibile a livello generale

In Databricks Runtime 15.2 e versioni successive, i connettori Lakehouse Federation nei tipi di database seguenti sono disponibili a livello generale :

  • MySQL
  • PostgreSQL
  • Amazon Redshift
  • Snowflake
  • Microsoft SQL Server
  • Azure Synapse (Data Warehouse SQL)
  • Databricks

Questa versione introduce anche i miglioramenti seguenti:

  • Supporto per i pushdown aggiuntivi (string, math e funzioni varie).
  • Miglioramento della frequenza di successo del pushdown tra forme di query diverse.
  • Funzionalità di debug pushdown aggiuntive:
    • L'output EXPLAIN FORMATTED visualizza il testo della query di cui è stato eseguito il push.
    • L'interfaccia utente del profilo di query visualizza il testo della query inviato, gli identificatori dei nodi federati e i tempi di esecuzione delle query JDBC (in modalità verbosa). Vedere Visualizzare le query federate generate dal sistema.

BY POSITION per il mapping delle colonne mediante COPY INTO con file CSV senza intestazione

In Databricks Runtime 15.2 e versioni successive, è possibile usare le parole chiave BY POSITION (o la sintassi alternativa ( col_name [ , <col_name> ... ] )) con COPY INTO per i file CSV senza intestazione per semplificare il mapping delle colonne dalla tabella di origine a quella di destinazione. Vedere Parametri.

Ridurre il consumo di memoria quando le attività Spark hanno esito negativo con un Resubmitted errore

In Databricks Runtime 15.2 e versioni successive il valore restituito del metodo Spark TaskInfo.accumulables() è vuoto quando le attività hanno esito negativo con un Resubmitted errore. In precedenza, il metodo restituiva i valori di un tentativo precedente di attività riuscito. Questa modifica del comportamento influisce sui consumer seguenti:

  • Attività Spark che usano la EventLoggingListener classe .
  • Listener Spark personalizzati.

Per ripristinare il comportamento precedente, impostare spark.scheduler.dropTaskInfoAccumulablesOnTaskCompletion.enabled su false.

La visualizzazione delle versioni del piano di esecuzione delle query adattive è disabilitata

Per ridurre il consumo di memoria, le versioni del piano AQE (Adaptive Query Execution) sono ora disabilitate per impostazione predefinita nell'interfaccia utente di Spark. Per abilitare la visualizzazione delle versioni del piano AQE nell'interfaccia utente di Spark, impostare spark.databricks.sql.aqe.showPlanChangesInUI.enabled su true.

Il limite per le query conservate viene ridotto per ridurre l'utilizzo della memoria dell'interfaccia utente Spark

In Databricks Runtime 15.2 e versioni successive, per ridurre la memoria usata dall'interfaccia utente di Spark nel calcolo Azure Databricks, il limite per il numero di query visibili nell'interfaccia utente è inferiore da 1000 a 100. Per modificare il limite, impostare un nuovo valore usando la spark.sql.ui.retainedExecutions configurazione di Spark.

DESCRIBE HISTORY mostra ora le colonne di clustering per le tabelle che utilizzano il liquid clustering

Quando si esegue una query DESCRIBE HISTORY, la colonna operationParameters mostra un campo clusterBy per impostazione predefinita per le operazioni CREATE OR REPLACE e OPTIMIZE. Per una tabella Delta che usa clustering liquido, il clusterBy campo viene popolato con le colonne di clustering della tabella. Se la tabella non usa il clustering liquido, il campo è vuoto.

La sintassi del widget del notebook è obsoleta

A partire da Databricks Runtime 15.2, la ${param} sintassi per accedere ai valori dei widget del notebook nelle celle SQL è deprecata. Usare invece la sintassi dell'indicatore di parametro (:param). La sintassi dell'indicatore di parametro offre una migliore protezione SQL injection e prestazioni migliori delle query.

Per indicazioni ed esempi sulla migrazione, vedere Widget di notebook di versione precedente. Per informazioni sull'approccio consigliato corrente, vedere Widget di Databricks.

Miglioramenti e nuove funzionalità

Il supporto per le chiavi primarie ed esterne è disponibile a livello generale

Il supporto per le chiavi primarie ed esterne in Databricks Runtime è disponibile a livello generale. La versione a disponibilità generale include le modifiche seguenti ai privilegi necessari per usare chiavi primarie ed esterne:

  • Per definire una chiave esterna, è necessario avere il privilegio SELECT per la tabella con la chiave primaria a cui fa riferimento la chiave esterna. Non è necessario possedere la tabella con la chiave primaria, richiesta in precedenza.
  • L'eliminazione di una chiave primaria tramite la clausola CASCADE non richiede privilegi per le tabelle che definiscono chiavi esterne che fanno riferimento alla chiave primaria. In precedenza, era necessario possedere le tabelle di riferimento.
  • L'eliminazione di una tabella che include vincoli richiede ora gli stessi privilegi di eliminazione delle tabelle che non includono vincoli.

Per informazioni su come usare chiavi primarie ed esterne con tabelle o viste, vedere clausola CONSTRAINT, clausola ADD CONSTRAINTe clausola DROP CONSTRAINT.

Clustering liquido disponibile a livello generale

Il supporto per il clustering liquido è ora disponibile a livello generale con Databricks Runtime 15.2 e versioni successive. Vedere Usare clustering liquido per le tabelle.

L'estensione dei tipi è disponibile in anteprima pubblica

È ora possibile abilitare l'estensione dei tipi nelle tabelle supportate da Delta Lake. Le tabelle con tipo esteso abilitato consentono di modificare il tipo di colonne in un tipo di dati più ampio senza riscrivere i file di dati sottostanti. Vedere Estensione del tipo.

Clausola di evoluzione dello schema aggiunta alla sintassi di merge SQL

È ora possibile aggiungere la clausola WITH SCHEMA EVOLUTION a un'istruzione di merge SQL per abilitare l'evoluzione dello schema per l'operazione. Vedere Sintassi dell'evoluzione dello schema per unire.

Le origini dati personalizzate pySpark sono disponibili in anteprima pubblica

È possibile creare un'origine dati PySpark usando l'API DataSource di Python (PySpark), che consente la lettura da origini dati personalizzate e la scrittura in sink di dati personalizzati in Apache Spark usando Python. Vedere Origini dati personalizzate pySpark

applyInPandas e mapInPandas ora disponibili nell'ambiente di calcolo del catalogo Unity con modalità di accesso condiviso

Nell'ambito di un rilascio di manutenzione di Databricks Runtime 14.3 LTS, sono ora supportati i tipi UDF applyInPandas e mapInPandas sul calcolo in modalità di accesso condiviso che esegue Databricks Runtime 14.3 e versioni successive.

Usare dbutils.widgets.getAll() per ottenere tutti i widget in un notebook

Usare dbutils.widgets.getAll() per ottenere tutti i valori dei widget in un notebook. Ciò è particolarmente utile quando si passano più valori di widget a una query Spark SQL.

Supporto dell'inventario vuoto

È ora possibile specificare un inventario dei file da considerare quando si esegue il comando VACUUM in una tabella Delta. Vedere la documentazione di OSS Delta.

Supporto per le funzioni di compressione Zstandard

È ora possibile usare le funzioni zst_compress, zstd_decompress e try_zstd_decompress per comprimere e decomprimere i dati BINARY.

Correzioni di bug

I piani di query nell'interfaccia utente SQL adesso mostrano correttamente PhotonWriteStage

Quando vengono visualizzati nell'interfaccia utente SQL, i comandi write nei piani di query mostravano PhotonWriteStage erroneamente come operatore. Con questa versione, l'interfaccia utente viene aggiornata per mostrare PhotonWriteStage come fase. Si tratta solo di una modifica dell'interfaccia utente e non influisce sulla modalità di esecuzione delle query.

Ray viene aggiornato per risolvere i problemi relativi all'avvio dei cluster Ray

Questa versione include una versione corretta di Ray che corregge una modifica critica che impedisce ai cluster Ray di avviarsi con Databricks Runtime per Machine Learning. Questa modifica garantisce che la funzionalità Ray sia identica alle versioni di Databricks Runtime precedenti alla versione 15.2.

Correzione della classe di errore per DataFrame.sort() le funzioni e DataFrame.sortWithinPartitions()

Questa versione include un aggiornamento delle funzioni PySpark DataFrame.sort() e DataFrame.sortWithinPartitions() per garantire che la classe di errore ZERO_INDEX venga lanciata quando 0 viene passato come argomento di indice. In precedenza, la classe INDEX_NOT_POSITIVE di errore è stata generata.

ipywidgets è stato effettuato il downgrade da 8.0.4 a 7.7.2

Per correggere gli errori introdotti da un aggiornamento di ipywidgets a 8.0.4 in Databricks Runtime 15.0, ipywidgets viene effettuato il downgrade alla versione 7.7.2 in Databricks Runtime 15.2. Questa è la stessa versione inclusa nelle versioni precedenti di Databricks Runtime.

Aggiornamenti della libreria

  • Librerie di Python aggiornate:
    • GitPython dalla versione 3.1.42 alla versione 3.1.43
    • google-api-core da 2.17.1 a 2.18.0
    • Google-auth dalla versione 2.28.1 alla versione 2.29.0
    • google-cloud-storage dalla versione 2.15.0 alla versione 2.16.0
    • googleapis-common-protos da 1.62.0 a 1.63.0
    • ipywidgets da 8.0.4 a 7.7.2
    • mlflow-skinny da 2.11.1 a 2.11.3
    • s3transfer da 0.10.0 a 0.10.1
    • sqlparse da 0.4.4 a 0.5.0
    • typing_extensions dalla versione 4.7.1 alla versione 4.10.0
  • Librerie R aggiornate:
  • Librerie Java aggiornate:
    • com.amazonaws.aws-java-sdk-autoscaling da 1.12.390 a 1.12.610
    • com.amazonaws.aws-java-sdk-cloudformation da 1.12.390 a 1.12.610
    • com.amazonaws.aws-java-sdk-cloudfront da 1.12.390 a 1.12.610
    • com.amazonaws.aws-java-sdk-cloudhsm da 1.12.390 a 1.12.610
    • com.amazonaws.aws-java-sdk-cloudsearch da 1.12.390 a 1.12.610
    • com.amazonaws.aws-java-sdk-cloudtrail da 1.12.390 a 1.12.610
    • com.amazonaws.aws-java-sdk-cloudwatch da 1.12.390 a 1.12.610
    • com.amazonaws.aws-java-sdk-cloudwatchmetrics da 1.12.390 a 1.12.610
    • com.amazonaws.aws-java-sdk-codedeploy da 1.12.390 a 1.12.610
    • com.amazonaws.aws-java-sdk-cognitoidentity da 1.12.390 a 1.12.610
    • com.amazonaws.aws-java-sdk-cognitosync da 1.12.390 a 1.12.610
    • com.amazonaws.aws-java-sdk-config da 1.12.390 a 1.12.610
    • com.amazonaws.aws-java-sdk-core da 1.12.390 a 1.12.610
    • com.amazonaws.aws-java-sdk-datapipeline da 1.12.390 a 1.12.610
    • com.amazonaws.aws-java-sdk-directconnect da 1.12.390 a 1.12.610
    • com.amazonaws.aws-java-sdk-directory da 1.12.390 a 1.12.610
    • com.amazonaws.aws-java-sdk-dynamodb da 1.12.390 a 1.12.610
    • com.amazonaws.aws-java-sdk-ec2 da 1.12.390 a 1.12.610
    • com.amazonaws.aws-java-sdk-ecs da 1.12.390 a 1.12.610
    • com.amazonaws.aws-java-sdk-efs da 1.12.390 a 1.12.610
    • com.amazonaws.aws-java-sdk-elasticache da 1.12.390 a 1.12.610
    • com.amazonaws.aws-java-sdk-elasticbeanstalk da 1.12.390 a 1.12.610
    • com.amazonaws.aws-java-sdk-elasticloadbalancing da 1.12.390 a 1.12.610
    • com.amazonaws.aws-java-sdk-elastictranscoder da 1.12.390 a 1.12.610
    • com.amazonaws.aws-java-sdk-emr da 1.12.390 a 1.12.610
    • com.amazonaws.aws-java-sdk-glacier da 1.12.390 a 1.12.610
    • com.amazonaws.aws-java-sdk-glue da 1.12.390 a 1.12.610
    • com.amazonaws.aws-java-sdk-iam da 1.12.390 a 1.12.610
    • com.amazonaws.aws-java-sdk-importexport da 1.12.390 a 1.12.610
    • com.amazonaws.aws-java-sdk-kinesis da 1.12.390 a 1.12.610
    • com.amazonaws.aws-java-sdk-kms da 1.12.390 a 1.12.610
    • com.amazonaws.aws-java-sdk-lambda da 1.12.390 a 1.12.610
    • com.amazonaws.aws-java-sdk-logs da 1.12.390 a 1.12.610
    • com.amazonaws.aws-java-sdk-machinelearning da 1.12.390 a 1.12.610
    • com.amazonaws.aws-java-sdk-opsworks da 1.12.390 a 1.12.610
    • com.amazonaws.aws-java-sdk-rds da 1.12.390 a 1.12.610
    • com.amazonaws.aws-java-sdk-redshift da 1.12.390 a 1.12.610
    • com.amazonaws.aws-java-sdk-route53 da 1.12.390 a 1.12.610
    • com.amazonaws.aws-java-sdk-s3 da 1.12.390 a 1.12.610
    • com.amazonaws.aws-java-sdk-ses da 1.12.390 a 1.12.610
    • com.amazonaws.aws-java-sdk-simpledb da 1.12.390 a 1.12.610
    • com.amazonaws.aws-java-sdk-simpleworkflow da 1.12.390 a 1.12.610
    • com.amazonaws.aws-java-sdk-sns da 1.12.390 a 1.12.610
    • com.amazonaws.aws-java-sdk-sqs da 1.12.390 a 1.12.610
    • com.amazonaws.aws-java-sdk-ssm da 1.12.390 a 1.12.610
    • com.amazonaws.aws-java-sdk-storagegateway da 1.12.390 a 1.12.610
    • com.amazonaws.aws-java-sdk-sts da 1.12.390 a 1.12.610
    • com.amazonaws.aws-java-sdk-support da 1.12.390 a 1.12.610
    • com.amazonaws.aws-java-sdk-workspaces da 1.12.390 a 1.12.610
    • com.amazonaws.jmespath-java da 1.12.390 a 1.12.610

Apache Spark

Databricks Runtime 15.2 include Apache Spark 3.5.0. Questa versione include tutte le correzioni e i miglioramenti di Spark inclusi in Databricks Runtime 15.1 (EoS), nonché le correzioni di bug e i miglioramenti aggiuntivi seguenti apportati a Spark:

  • [SPARK-47941] [SC-163568] [SS] [Connect] Propagare gli errori di inizializzazione del worker ForeachBatch agli utenti in PySpark
  • [SPARK-47412] [SC-163455][sql] Aggiungere il supporto della collation per LPad/RPad.
  • [SPARK-47907] [SC-163408][sql] Inserire bang in una configurazione
  • [SPARK-46820] [SC-157093][python] Correzione della regressione dei messaggi di errore ripristinando new_msg
  • [SPARK-47602] [SPARK-47577][spark-47598][SPARK-47577]Core/MLLib/Resource manager: migrazione della registrazione strutturata
  • [SPARK-47890] [SC-163324][connect][PYTHON] Aggiungere funzioni varianti a Scala e Python.
  • [SPARK-47894] [SC-163086][core][WEBUI] Aggiungi Environment pagina all'interfaccia utente master
  • [SPARK-47805] [SC-163459][ss] Implementazione di TTL per MapState
  • [SPARK-47900] [SC-163326] Correzione delle regole di confronto implicite (UTF8_BINARY)
  • [SPARK-47902] [SC-163316][sql]Rendere le espressioni "Compute Current Time*" pieghevoli
  • [SPARK-47845] [SC-163315][sql][PYTHON][connect] Supporto per il tipo di colonna nella funzione split per Scala e Python
  • [SPARK-47754] [SC-162144][sql] Postgres: Supporto per la lettura di matrici multidimensionali
  • [SPARK-47416] [SC-163001][sql] Aggiungere nuove funzioni a CollationBenchmark #90339
  • [SPARK-47839] [SC-163075][sql] Correzione del bug di aggregazione in RewriteWithExpression
  • [SPARK-47821] [SC-162967][sql] Implementa l'espressione is_variant_null
  • [SPARK-47883] [SC-163184][sql] Rendere CollectTailExec.doExecute pigro con RowQueue
  • [SPARK-47390] [SC-163306][sql] PostgresDialect distingue TIMESTAMP da TIMESTAMP_TZ
  • [SPARK-47924] [SC-163282][core] Aggiungere un log DEBUG a DiskStore.moveFileToBlock
  • [SPARK-47897] [SC-163183][sql][3.5] Correzione della regressione delle prestazioni di ExpressionSet in scala 2.12
  • [SPARK-47565] [SC-161786][python] Resilienza ai crash del pool di lavoratori PySpark
  • [SPARK-47885] [SC-162989][python][CONNECT] Rendere pyspark.resource compatibile con pyspark-connect
  • [SPARK-47887] [SC-163122][connect] Rimuovere l'importazione spark/connect/common.proto inutilizzata da spark/connect/relations.proto
  • [SPARK-47751] [SC-161991][python][CONNECT] Rendere pyspark.worker_utils compatibile con pyspark-connect
  • [SPARK-47691] [SC-161760][sql] Postgres: Supporta matrice multidimensionale sul lato scrittura
  • [SPARK-47617] [SC-162513][sql] Aggiungere l'infrastruttura di testing per le regole di confronto TPC-DS
  • [SPARK-47356] [SC-162858][sql] Aggiunta del supporto per ConcatWs & Elt (tutte le regole di confronto)
  • [SPARK-47543] [SC-161234][connect][PYTHON] Inferendo dict come MapType dal Pandas DataFrame per consentire la creazione di DataFrame
  • [SPARK-47863] [SC-162974][sql] Corregge l'implementazione di startsWith & endsWith compatibile con le regole di confronto per ICU
  • [SPARK-47867] [SC-162966][sql] Supporta la variante nell'analisi JSON.
  • [SPARK-47366] [SC-162475][sql][PYTHON] Aggiungere VariantVal per PySpark
  • [SPARK-47803] [SC-162726][sql] Sostiene il cast a variant.
  • [SPARK-47769] [SC-162841][sql] Aggiungere schema_of_variant_agg espressione.
  • [SPARK-47420] [SC-162842][sql] Correzione dell'output dei test
  • [SPARK-47430] [SC-161178][sql] Supporto GROUP BY per MapType
  • [SPARK-47357] [SC-162751][sql] Aggiungere il supporto a Upper, Lower, InitCap (tutte le collazioni)
  • [SPARK-47788] [SC-162729][ss] Verificare lo stesso partizionamento hash per le operazioni con stato di streaming
  • [SPARK-47776] [SC-162291][ss] Vietare l'uso della collazione di disuguaglianza binaria nello schema chiave dell'operatore con stato.
  • [SPARK-47673] [SC-162824][ss] Implementazione della durata (TTL) per ListState
  • [SPARK-47818] [SC-162845][connect] Introdurre la cache dei piani in SparkConnectPlanner per migliorare le prestazioni delle richieste di analisi
  • [SPARK-47694] [SC-162783][connect] Rendere configurabili le dimensioni massime dei messaggi sul lato client
  • [SPARK-47274] Riprendi "[SC-162479][python][SQL] Fornire un uso più utile...
  • [SPARK-47616] [SC-161193][sql] Aggiungere un documento utente per il mapping dei tipi di dati SPARK SQL da MySQL
  • [SPARK-47862] [SC-162837][python][CONNECT] Correggi la generazione dei file proto
  • [SPARK-47849] [SC-162724][python][CONNECT] Modificare lo script di rilascio per rilasciare pyspark-connect
  • [SPARK-47410] [SC-162518][sql] Rifattorizzazione di UTF8String e CollationFactory
  • [SPARK-47807] [SC-162505][python][ML] Rendere pyspark.ml compatibile con pyspark-connect
  • [SPARK-47707] [SC-161768][sql] Gestione speciale del tipo JSON per il connettore MySQL/J 5.x
  • [SPARK-47765] Ripristinare "[SC-162636][sql] Aggiungere SET COLLATION per l'analisi..."
  • [SPARK-47081] [SC-162151][connect][FOLLOW] Miglioramento dell'usabilità del gestore di avanzamento
  • [SPARK-47289] [SC-161877][sql] Consenti alle estensioni di registrare le informazioni estese nel piano di spiegazione
  • [SPARK-47274] [SC-162479][python][SQL] Fornire un contesto più utile per gli errori dell'API PySpark DataFrame
  • [SPARK-47765] [SC-162636][sql] Aggiungere SET COLLATION alle regole del parser
  • [SPARK-47828] [SC-162722][connect][PYTHON] DataFrameWriterV2.overwrite si verifica un errore a causa di un piano non valido
  • [SPARK-47812] [SC-162696][connect] Supportare la serializzazione di SparkSession per il worker ForEachBatch
  • [SPARK-47253] [SC-162698][core] Consenti a LiveEventBus di arrestarsi senza svuotare completamente la coda di eventi
  • [SPARK-47827] [SC-162625][python] Avvisi mancanti per le funzionalità deprecate
  • [SPARK-47733] [SC-162628][ss] Aggiungere metriche personalizzate per l'operatore transformWithState come parte del progresso della query
  • [SPARK-47784] [SC-162623][ss] Merge TTLMode e TimeoutMode in un singolo TimeMode.
  • [SPARK-47775] [SC-162319][sql] Supporta i tipi scalari rimanenti nella specifica di variante.
  • [SPARK-47736] [SC-162503][sql] Aggiunta del supporto per AbstractArrayType
  • [SPARK-47081] [SC-161758][connect] Supporto dell'avanzamento dell'esecuzione delle query
  • [SPARK-47682] [SC-162138][sql] Supporto per la conversione da variant.
  • [SPARK-47802] [SC-162478][sql] Ripristinare () dal significato dello struct() al significato *
  • [SPARK-47680] [SC-162318][sql] Aggiungere variant_explode espressione.
  • [SPARK-47809] [SC-162511][sql] checkExceptionInExpression deve controllare l'errore per ciascuna modalità di generazione del codice
  • [SPARK-41811] [SC-162470][python][CONNECT] Implementare SQLStringFormatter con WithRelations
  • [SPARK-47693] [SC-162326][sql] Aggiungere l'ottimizzazione per il confronto in minuscolo di UTF8String utilizzato nella collazione UTF8_BINARY_LCASE
  • [SPARK-47541] [SC-162006][sql] Stringhe collate in tipi complessi che supportano le operazioni reverse, array_join, concat, map
  • [SPARK-46812] [SC-161535][connect][PYTHON] Make mapInPandas /mapInArrow support ResourceProfile
  • [SPARK-47727] [SC-161982][python] Impostare SparkConf sul livello radice per SparkSession e SparkContext
  • [SPARK-47406] [SC-159376][sql] Gestire TIMESTAMP e DATETIME in MYSQLDialect
  • [SPARK-47081] Ripristinare "[SC-161758][connect] Support Query Executi...
  • [SPARK-47681] [SC-162043][sql] Aggiungere schema_of_variant expression.
  • [SPARK-47783] [SC-162222] Aggiungere alcuni SQLSTATEs mancanti per pulire l'YY000 da usare...
  • [SPARK-47634] [SC-161558][sql] Aggiungere il supporto legacy per disabilitare la normalizzazione delle chiavi della mappa
  • [SPARK-47746] [SC-162022] Implementare la codifica dell'intervallo basato su ordinale in RocksDBStateEncoder
  • [SPARK-47285] [SC-158340][sql] AdaptiveSparkPlanExec deve usare sempre context.session
  • [SPARK-47643] [SC-161534][ss][PYTHON] Aggiungere il test pyspark per l'origine di streaming Python
  • [SPARK-47582] [SC-161943][sql] Eseguire la migrazione di Catalyst logInfo con variabili al framework di registrazione strutturata
  • [SPARK-47558] [SC-162007][ss] Supporto TTL per lo stato di ValueState
  • [SPARK-47358] [SC-160912][sql][COLLATION] Migliorare il supporto delle espressioni di ripetizione per restituire il tipo di dati corretto
  • [SPARK-47504] [SC-162044][sql] Risoluzione di AbstractDataType simpleStrings per StringTypeCollated
  • [SPARK-47719] Revertire "[SC-161909][sql] Modificare spark.sql.legacy.t...
  • [SPARK-47657] [SC-162010][sql] Implementare il supporto del pushdown del filtro di confronto per ogni origine file
  • [SPARK-47081] [SC-161758][connect] Supporto dell'avanzamento dell'esecuzione delle query
  • [SPARK-47744] [SC-161999] Aggiunta del supporto per byte con valori negativi nel codificatore di intervalli
  • [SPARK-47713] [SC-162009][sql][CONNECT] Correzione di un errore di self-join
  • [SPARK-47310] [SC-161930][ss] Aggiungere microbenchmark per le operazioni di merge per più valori nella sezione dei valori dell'archivio di stato
  • [SPARK-47700] [SC-161774][sql] Correzione della formattazione dei messaggi di errore con treeNode
  • [SPARK-47752] [SC-161993][ps][CONNECT] Rendere pyspark.pandas compatibile con pyspark-connect
  • [SPARK-47575] [SC-161402][spark-47576][SPARK-47654] Implementare l'API logWarning/logInfo nel framework di registrazione strutturata
  • [SPARK-47107] [SC-161201][ss][PYTHON] Implementare il lettore di partizione per dati di streaming in Python
  • [SPARK-47553] [SC-161772][ss] Aggiungere Java supporto per le API dell'operatore transformWithState
  • [SPARK-47719] [SC-161909][sql] Modificare il valore predefinito di spark.sql.legacy.timeParserPolicy su CORRETTO
  • [SPARK-47655] [SC-161761][ss] Integrare timer con la gestione dello stato iniziale per state-v2
  • [SPARK-47665] [SC-161550][sql] Usare SMALLINT per scrivere ShortType in MYSQL
  • [SPARK-47210] [SC-161777][sql] Aggiunta del cast implicito senza il supporto per valori indeterminati
  • [SPARK-47653] [SC-161767][ss] Aggiungere il supporto per tipi numerici negativi e codificatore della chiave di scansione dell'intervallo
  • [SPARK-46743] [SC-160777][sql] Bug del conteggio dopo l'ottimizzazione tramite riduzione delle costanti
  • [SPARK-47525] [SC-154568][sql] Supportare l'unione di correlazioni di sottoquery sugli attributi della mappa
  • [SPARK-46366] [SC-151277][sql] Usare l'espressione WITH in BETWEEN per evitare espressioni duplicate
  • [SPARK-47563] [SC-161183][sql] Aggiungere la normalizzazione della mappa alla creazione
  • [SPARK-42040] [SC-161171][sql] SPJ: Introduzione di una nuova API per la partizione di input V2 per segnalare le statistiche delle partizioni
  • [SPARK-47679] [SC-161549][sql] Usare HiveConf.getConfVars o nomi conf Hive direttamente
  • [SPARK-47685] [SC-161566][sql] Ripristinare il supporto per Stream il tipo in Dataset#groupBy
  • [SPARK-47646] [SC-161352][sql] Make try_to_number restituire NULL per l'input in formato non valido
  • [SPARK-47366] [SC-161324][python] Aggiungere alias pyspark e dataframe parse_json
  • [SPARK-47491] [SC-161176][core] Aggiungere slf4j-api jar nel percorso della classe prima delle altre della directory jars
  • [SPARK-47270] [SC-158741][sql] Dataset.isEmpty projects CommandResults localmente
  • [SPARK-47364] [SC-158927][core] Avvisa PluginEndpoint quando i plug-in rispondono per un messaggio unidirezionale
  • [SPARK-47280] [SC-158350][sql] Rimuovere la limitazione del fuso orario per ORACLE TIMESTAMP WITH TIMEZONE
  • [SPARK-47551] [SC-161542][sql] Aggiungere variant_get expression.
  • [SPARK-47559] [SC-161255][sql] Supporto codegen per variante parse_json
  • [SPARK-47572] [SC-161351][sql] Enforce Window partitionSpec è ordinabile.
  • [SPARK-47546] [SC-161241][sql] Migliorare la convalida durante la lettura di Variant da Parquet
  • [SPARK-47543] [SC-161234][connect][PYTHON] Inferendo dict come MapType dal Pandas DataFrame per consentire la creazione di DataFrame
  • [SPARK-47485] [SC-161194][sql][PYTHON][connect] Creare una colonna con regole di confronto nell'API del dataframe
  • [SPARK-47641] [SC-161376][sql] Migliorare le prestazioni per UnaryMinus e Abs
  • [SPARK-47631] [SC-161325][sql] Rimuovere il metodo inutilizzato SQLConf.parquetOutputCommitterClass
  • [SPARK-47674] [SC-161504][core] Abilita spark.metrics.appStatusSource.enabled per impostazione predefinita
  • [SPARK-47273] [SC-161162][ss][PYTHON] implementare l'interfaccia scrittore di flusso di dati Python.
  • [SPARK-47637] [SC-161408][sql] Utilizzare errorCapturingIdentifier in altre situazioni
  • [SPARK-47497] Ripristina "Revert [SC-160724][sql] Fai supportare a to_csv l'output di array/struct/map/binary come stringhe leggibili"
  • [SPARK-47492] [SC-161316][sql] Estendere le regole di spazio vuoto in lexer
  • [SPARK-47664] [SC-161475][python][CONNECT] Convalidare il nome della colonna con lo schema memorizzato nella cache
  • [SPARK-47638] [SC-161339][ps][CONNECT] Saltare la convalida dei nomi di colonna in PS
  • [SPARK-47363] [SC-161247][ss] Stato iniziale senza implementazione del lettore di stato per l'API stato v2.
  • [SPARK-47447] [SC-160448][sql] Consenti la lettura di Parquet TimestampLTZ come TimestampNTZ
  • [SPARK-47497] Ripristinare "[SC-160724][sql] Make to_csv support the output of array/struct/map/binary as pretty strings"
  • [SPARK-47434] [SC-160122][webui] Correzione statistics del collegamento in StreamingQueryPage
  • [SPARK-46761] [SC-159045][sql] Stringhe delimitate in un percorso JSON devono supportare ? caratteri
  • [SPARK-46915] [SC-155729][sql] Semplificare UnaryMinusAbs e allineare la classe di errore
  • [SPARK-47431] [SC-160919][sql] Aggiungere la collation predefinita a livello di sessione
  • [SPARK-47620] [SC-161242][python][CONNECT] Aggiungere una funzione helper per ordinare le colonne
  • [SPARK-47570] [SC-161165][ss] Integrare le modifiche del codificatore di analisi dell'intervallo con l'implementazione del timer
  • [SPARK-47497] [SC-160724][sql] Rendere to_csv in grado di supportare l'output di array/struct/map/binary come stringhe leggibili
  • [SPARK-47562] [SC-161166][connect] Estrarre la gestione dei letterali da plan.py
  • [SPARK-47509] [SC-160902][sql] Blocca le espressioni di sottoquery nelle funzioni lambda e di ordine superiore
  • [SPARK-47539] [SC-160750][sql] Fare in modo che il valore di ritorno del metodo castToString sia Any => UTF8String
  • [SPARK-47372] [SC-160905][ss] Aggiungere il supporto per il codificatore dello stato chiave basato su scansione per intervallo da usare con il provider dell'archivio di stato
  • [SPARK-47517] [SC-160642][core][SQL] Prefer Utils.bytesToString per la visualizzazione delle dimensioni
  • [SPARK-47243] [SC-158059][ss] Correggere il nome del pacchetto StateMetadataSource.scala
  • [SPARK-47367] [SC-160913][python][CONNECT] Supporto delle sorgenti dati Python con Spark Connect
  • [SPARK-47521] [SC-160666][core] Usare Utils.tryWithResource durante la lettura dei dati di rimescolamento da memoria esterna
  • [SPARK-47474] [SC-160522][core] Ripristinare SPARK-47461 e aggiungere alcuni commenti
  • [SPARK-47560] [SC-160914][python][CONNECT] Evitare RPC per convalidare il nome della colonna con lo schema memorizzato nella cache
  • [SPARK-47451] [SC-160749][sql] Support to_json(variant).
  • [SPARK-47528] [SC-160727][sql] Aggiungere il supporto userDefinedType a DataTypeUtils.canWrite
  • [SPARK-44708] Ripristinare "[SC-160734][python] Eseguire la migrazione test_reset_index assert_eq per usare assertDataFrameEqual"
  • [SPARK-47506] [SC-160740][sql] Aggiungere il supporto a tutti i formati di origine file per i tipi di dati collazionati
  • [SPARK-47256] [SC-160784][sql] Assegnare nomi alle classi di errore _LEGACY_ERROR_TEMP_102[4-7]
  • [SPARK-47495] [SC-160720][core] Risolto il problema del file JAR della risorsa primaria aggiunto due volte a spark.jars nella modalità cluster k8s
  • [SPARK-47398] [SC-160572][sql] Estrarre un tratto per InMemoryTableScanExec per consentire l'estensione delle funzionalità
  • [SPARK-47479] [SC-160623][sql] Ottimizzazione: impossibile scrivere dati nelle relazioni con più percorsi - registro degli errori
  • [SPARK-47483] [SC-160629][sql] Aggiungere il supporto per le operazioni di aggregazione e join su array di stringhe collazionate
  • [SPARK-47458] [SC-160237][core] Risolvere il problema con il calcolo delle attività simultanee massime per la fase della barriera
  • [SPARK-47534] [SC-160737][sql] Passare o.a.s.variant a o.a.s.types.variant
  • [SPARK-47396] [SC-159312][sql] Aggiungere un mapping generale per TIME WITHOUT TIME ZONE a TimestampNTZType
  • [SPARK-44708] [SC-160734][python] Eseguire la migrazione test_reset_index assert_eq per usare assertDataFrameEqual
  • [SPARK-47309] [SC-157733][sc-160398][SQL] XML: Aggiungere test di inferenza dello schema per i tag di valore
  • [SPARK-47007] [SC-160630][sql] Aggiungere l'espressione MapSort
  • [SPARK-47523] [SC-160645][sql] Sostituire la funzione obsoleta JsonParser#getCurrentName con JsonParser#currentName
  • [SPARK-47440] [SC-160635][sql] Correzione della trasmissione della sintassi non supportata in MsSqlServer
  • [SPARK-47512] [SC-160617][ss] Tipo di operazione del tag utilizzato con l'acquisizione/rilascio del blocco dell'istanza del deposito di stato RocksDB
  • [SPARK-47346] [SC-159425][python] Rendere configurabile la modalità daemon durante la creazione dei processi di pianificazione Python
  • [SPARK-47446] [SC-160163][core] Avvisa BlockManager prima removeBlockInternal
  • [SPARK-46526] [SC-156099][sql] Supporto LIMIT su sottoquery correlate in cui i predicati fanno riferimento solo alla tabella esterna
  • [SPARK-47461] [SC-160297][core] Rimuovere la funzione totalRunningTasksPerResourceProfile privata da ExecutorAllocationManager
  • [SPARK-47422] [SC-160219][sql] Supportare stringhe collate nelle operazioni di matrice
  • [SPARK-47500] [SC-160627][python][CONNECT] Separare la gestione dei nomi delle colonne da plan.py
  • [SPARK-47383] [SC-160144][core] Configurazione del supporto spark.shutdown.timeout
  • [SPARK-47342] [SC-159049]Ripristinare "[SQL] Supporto timestampNTZ per DB2 TIMESTAMP WITH TIME ZONE"
  • [SPARK-47486] [SC-160491][connect] Rimuovere il metodo privato ArrowDeserializers.getString inutilizzato
  • [SPARK-47233] [SC-154486][connect][SS][2/2] Logica client e server per il listener di query di streaming lato client
  • [SPARK-47487] [SC-160534][sql] Semplificare il codice in AnsiTypeCoercion
  • [SPARK-47443] [SC-160459][sql] Supporto dell'aggregazione su finestra per le regole di confronto
  • [SPARK-47296] [SC-160457][sql][COLLATION] Non sono supportate funzioni per regole di confronto non binarie
  • [SPARK-47380] [SC-160164][connect] Verificare sul lato server che SparkSession sia lo stesso
  • [SPARK-47327] [SC-160069][sql] Spostare il test di concorrenza delle chiavi di ordinamento in CollationFactorySuite
  • [SPARK-47494] [SC-160495][doc] Aggiungere la documentazione sulla migrazione per la modifica del comportamento dell'inferenza del timestamp Parquet a partire da Spark 3.3
  • [SPARK-47449] [SC-160372][ss] Refattorizzazione e divisione dei test unitari su lista/timer
  • [SPARK-46473] [SC-155663][sql] Metodo di riutilizzo getPartitionedFile
  • [SPARK-47423] [SC-160068][sql] Regole di confronto - Impostare il supporto delle operazioni per le stringhe con regole di confronto
  • [SPARK-47439] [SC-160115][python] Documentare l'API Origine Dati di Python nella pagina di riferimento dell'API
  • [SPARK-47457] [SC-160234][sql] Correzione IsolatedClientLoader.supportsHadoopShadedClient per gestire Hadoop 3.4+
  • [SPARK-47366] [SC-159348][sql] Implementare parse_json.
  • [SPARK-46331] [SC-152982][sql] Rimozione di CodegenFallback dal subset di espressioni DateTime e version()
  • [SPARK-47395] [SC-159404] Aggiungere "collatione" e "ordinamento" ad altre API
  • [SPARK-47437] [SC-160117][python][CONNECT] Correggere la classe di errore per DataFrame.sort*
  • [SPARK-47174] [SC-154483][connect][SS][1/2] SparkConnectListenerBusListener lato server per il listener delle query di streaming lato client
  • [SPARK-47324] [SC-158720][sql] Aggiungere la conversione mancante del timestamp per i tipi annidati JDBC
  • [SPARK-46962] [SC-158834][ss][PYTHON] Aggiungere un'interfaccia per l'API dell'origine dati di streaming Python e implementare un worker Python per eseguire l'origine dati di streaming Python
  • [SPARK-45827] [SC-158498][sql] Spostare i controlli sui tipi di dati in CreatableRelationProvider
  • [SPARK-47342] [SC-158874][sql] Supporto TimestampNTZ per DB2 TIMESTAMP CON FUSO ORARIO
  • [SPARK-47399] [SC-159378][sql] Disabilitare le colonne generate nelle espressioni con collazioni
  • [SPARK-47146] [SC-158247][core] Possibile perdita di thread durante il join sort-merge
  • [SPARK-46913] [SC-159149][ss] Aggiunta del supporto per timer basati sull'elaborazione/ora evento con l'operatore transformWithState
  • [SPARK-47375] [SC-159063][sql] Aggiungere linee guida per il mapping di timestamp in JdbcDialect#getCatalystType
  • [SPARK-47394] [SC-159282][sql] Supporto di TIMESTAMP CON FUSO ORARIO per H2Dialect
  • [SPARK-45827] Ripristina “[SC-158498][sql] Spostare i controlli del tipo di dati in...”
  • [SPARK-47208] [SC-159279][core] Consenti l'override della memoria sovraccarico di base
  • [SPARK-42627] [SC-158021][spark-26494][SQL] Supporta Oracle TIMESTAMP CON FUSO ORARIO LOCALE
  • [SPARK-47055] [SC-156916][python] Upgrade MyPy 1.8.0
  • [SPARK-46906] [SC-157205][ss] Aggiungere un controllo per la modifica dell'operatore con stato per lo streaming
  • [SPARK-47391] [SC-159283][sql] Rimuovere la soluzione alternativa del test case per JDK 8
  • [SPARK-47272] [SC-158960][ss] Aggiungere l'implementazione mapState per l'API state v2.
  • [SPARK-47375] [SC-159278][doc][FollowUp] Correzione di un errore nella documentazione relativa all'opzione preferTimestampNTZ di JDBC
  • [SPARK-42328] [SC-157363][sql] Rimuovere _LEGACY_ERROR_TEMP_1175 dalle classi di errore
  • [SPARK-47375] [SC-159261][doc][FollowUp] Correggere la descrizione dell'opzione preferTimestampNTZ nel documento JDBC
  • [SPARK-47344] [SC-159146] Estendere INVALID_IDENTIFIER errore oltre a intercettare '-' in un identificatore senza virgolette e correggere "IS ! NULL" et al.
  • [SPARK-47340] [SC-159039][sql] Modificare "collate" nel tipo StringType in minuscolo
  • [SPARK-47087] [SC-157077][sql] Sollevare l'eccezione di Spark con una classe di errore durante il controllo del valore di configurazione
  • [SPARK-47327] [SC-158824][sql] Correggere il problema di sicurezza dei thread nel Collator ICU
  • [SPARK-47082] [SC-157058][sql] Correzione dell'errore di fuori limite
  • [SPARK-47331] [SC-158719][ss] Serializzazione usando classi case/primitive/POJO basate sul codificatore SQL per l'API dello Stato Arbitrario v2.
  • [SPARK-47250] [SC-158840][ss] Aggiungere altre convalide e modifiche NERF per il provider di stato RocksDB e l'uso delle famiglie di colonne
  • [SPARK-47328] [SC-158745][sql] Rinominare la collazione UCS_BASIC in UTF8_BINARY
  • [SPARK-47207] [SC-157845][core] Supporto spark.driver.timeout e DriverTimeoutPlugin
  • [SPARK-47370] [SC-158956][doc] Aggiunta documentazione sulla migrazione: Rilevamento del tipo TimestampNTZ nei file Parquet
  • [SPARK-47309] [SC-158827][sql][XML] Aggiungere unit test di inferenza dello schema
  • [SPARK-47295] [SC-158850][sql] Aggiunta di StringSearch ICU per le funzioni startsWith e endsWith
  • [SPARK-47343] [SC-158851][sql] Correggere la NullPointerException quando sqlString il valore della variabile è una stringa nulla in esecuzione immediata
  • [SPARK-46293] [SC-150117][connect][PYTHON] Usare una protobuf dipendenza transitiva
  • [SPARK-46795] [SC-154143][sql] Sostituire UnsupportedOperationException con SparkUnsupportedOperationException in sql/core
  • [SPARK-46087] [SC-149023][python] Sincronizzare le dipendenze pySpark nei requisiti di documentazione e sviluppo
  • [SPARK-47169] [SC-158848][sql] Disabilitare il bucket sulle colonne collate
  • [SPARK-42332] [SC-153996][sql] Cambiamento della richiesta in una SparkException in ComplexTypeMergingExpression
  • [SPARK-45827] [SC-158498][sql] Spostare i controlli sui tipi di dati in CreatableRelationProvider
  • [SPARK-47341] [SC-158825][connect] Sostituire i comandi con le relazioni in alcuni test in SparkConnectClientSuite
  • [SPARK-43255] [SC-158026][sql] Sostituire la classe di errore _LEGACY_ERROR_TEMP_2020 da un errore interno
  • [SPARK-47248] [SC-158494][sql][COLLATION] Supporto migliorato per le funzioni stringa: contiene
  • [SPARK-47334] [SC-158716][sql] Consentire a withColumnRenamed di riutilizzare l'implementazione di withColumnsRenamed
  • [SPARK-46442] [SC-153168][sql] DS V2 supporta il push di PERCENTILE_CONT e PERCENTILE_DISC
  • [SPARK-47313] [SC-158747][sql] Aggiunta la gestione delle scala.MatchError all'interno di QueryExecution.toInternalError
  • [SPARK-45827] [SC-158732][sql] Aggiungere un tipo singleton variante per Java
  • [SPARK-47337] [SC-158743][sql][DOCKER] Aggiornare la versione dell'immagine Docker DB2 a 11.5.8.0
  • [SPARK-47302] [SC-158609][sql] Collate come identificatore di parola chiave
  • [SPARK-46817] [SC-154196][core] Correzione spark-daemon.sh dell'utilizzo aggiungendo il decommission comando
  • [SPARK-46739] [SC-153553][sql] Aggiungere la classe di errore UNSUPPORTED_CALL
  • [SPARK-47102] [SC-158253][sql] Aggiungere il COLLATION_ENABLED flag di configurazione
  • [SPARK-46774] [SC-153925][sql][AVRO] Usare mapreduce.output.fileoutputformat.compress anziché mapred.output.compress nei processi di scrittura Avro
  • [SPARK-45245] [SC-146961][python][CONNECT] PythonWorkerFactory: Timeout se il lavoratore non si riconnette.
  • [SPARK-46835] [SC-158355][sql][Collations] Supporto per l'operazione di join su regole di confronto non binarie
  • [SPARK-47131] [SC-158154][sql][COLLATION] Supporto delle funzioni stringa: contiene, inizia con, termina con
  • [SPARK-46077] [SC-157839][sql] Prendere in considerazione il tipo generato da TimestampNTZConverter in JdbcDialect.compileValue.
  • [SPARK-47311] [SC-158465][sql][PYTHON] Eliminare le eccezioni Python in cui PySpark non si trova nel percorso Python
  • [SPARK-47319] [SC-158599][sql] Migliorare il calcolo di missingInput
  • [SPARK-47316] [SC-158606][sql] Fix TimestampNTZ in Postgres Array
  • [SPARK-47268] [SC-158158][sql][Collations] Supporto per la ripartizione con regole di confronto
  • [SPARK-47191] [SC-157831][sql] Evitare la ricerca di relazioni non necessarie durante l'annullamento della cache della tabella/vista
  • [SPARK-47168] [SC-158257][sql] Disabilitare il pushdown del filtro Parquet quando si utilizzano stringhe non predefinite con regole di confronto
  • [SPARK-47236] [SC-158015][core] Correzione deleteRecursivelyUsingJavaIO per ignorare l'input di file inesistente
  • [SPARK-47238] [SC-158466][sql] Ridurre l'utilizzo della memoria dell'executor trasformando il codice generato in WSCG in una variabile broadcast
  • [SPARK-47249] [SC-158133][connect] Correzione del bug in cui tutte le esecuzioni di connessione vengono considerate abbandonate indipendentemente dal relativo stato effettivo
  • [SPARK-47202] [SC-157828][python] Correzione di un errore di battitura che compromette i datetime con tzinfo
  • [SPARK-46834] [SC-158139][sql][Collations] Supporto per le aggregazioni
  • [SPARK-47277] [SC-158351][3.5] La funzione PySpark util assertDataFrameEqual non deve supportare la funzione di streaming DF
  • [SPARK-47155] [SC-158473][python] Correzione del problema della classe di errore
  • [SPARK-47245] [SC-158163][sql] Migliorare il codice di errore per INVALID_PARTITION_COLUMN_DATA_TYPE
  • [SPARK-39771] [SC-158425][core] Aggiungere un messaggio di avviso in Dependency quando è necessario creare un numero eccessivamente alto di blocchi di mescolamento.
  • [SPARK-47277] [SC-158329] La funzione pySpark util assertDataFrameEqual non deve supportare la funzione di streaming DF
  • [SPARK-47293] [SC-158356][core] Compilare batchSchema con sparkSchema invece di accodarne uno per uno
  • [SPARK-46732] [SC-153517][connect]Rendere il thread Subquery/Broadcast compatibile con la gestione degli artefatti di Connect
  • [SPARK-44746] [SC-158332][python] Aggiungere altre Python documentazione UDTF per le funzioni che accettano tabelle di input
  • [SPARK-47120] [SC-157517][sql] L'abbassamento del filtro dati di confronto Null dalla sottoquery provoca un NPE nel filtro Parquet
  • [SPARK-47251] [SC-158291][python] Blocca tipi non validi dall'argomento args per il comando sql.
  • [SPARK-47251] Ripristina “[SC-158121][python] Blocca tipi non validi dall'argomento args per il comando sql
  • [SPARK-47015] [SC-157900][sql] Disabilitare il partizionamento nelle colonne collate
  • [SPARK-46846] [SC-154308][core] Far sì che WorkerResourceInfo estenda Serializable in modo esplicito
  • [SPARK-46641] [SC-156314][ss] Aggiungi soglia maxBytesPerTrigger
  • [SPARK-47244] [SC-158122][connect] SparkConnectPlanner rendere private le funzioni interne
  • [SPARK-47266] [SC-158146][connect] Rendere ProtoUtils.abbreviate restituire lo stesso tipo dell'input
  • [SPARK-46961] [SC-158183][ss] Uso di ProcessorContext per archiviare e recuperare handle
  • [SPARK-46862] [SC-154548][sql] Disabilitare l'eliminazione delle colonne CSV nella modalità a più righe
  • [SPARK-46950] [SC-155803][core][SQL] Allinea not available codec classe di errore
  • [SPARK-46368] [SC-153236][core] Supporto readyz nell'API di invio REST
  • [SPARK-46806] [SC-154108][python] Miglioramento del messaggio di errore per spark.table quando il tipo di argomento non è corretto
  • [SPARK-47211] [SC-158008][connect][PYTHON] Correzione delle regole ignorate di confronto delle stringhe in PySpark Connect
  • [SPARK-46552] [SC-151366][sql] Sostituisci UnsupportedOperationException con SparkUnsupportedOperationException in catalyst
  • [SPARK-47147] [SC-157842][python][SQL] Correzione dell'errore di conversione di stringhe ordinate in PySpark.
  • [SPARK-47144] [SC-157826][connect][SQL][python] Correggere l'errore di confronto di Spark Connect aggiungendo il campo collateId nel protobuf
  • [SPARK-46575] [SC-153200][sql][HIVE] Rendere HiveThriftServer2.startWithContext della DevelopApi ripetibile e correggere l'instabilità di ThriftServerWithSparkContextInHttpSuite
  • [SPARK-46696] [SC-153832][core] In ResourceProfileManager, le chiamate di funzione devono verificarsi dopo le dichiarazioni di variabili
  • [SPARK-47214] [SC-157862][python] Creare un'API UDTF per il metodo 'analyze' per differenziare gli argomenti costantemente NULL da altri tipi di argomenti.
  • [SPARK-46766] [SC-153909][sql][AVRO] Supporto del pool di buffer ZSTD per l'origine dati AVRO
  • [SPARK-47192] [SC-157819] Convertire alcuni errori di _LEGACY_ERROR_TEMP_0035
  • [SPARK-46928] [SC-157341][ss] Aggiungere il supporto per ListState nell'API Stato arbitrario v2.
  • [SPARK-46881] [SC-154612][core] Supporto spark.deploy.workerSelectionPolicy
  • [SPARK-46800] [SC-154107][core] Supporto spark.deploy.spreadOutDrivers
  • [SPARK-45484] [SC-146014][sql] Correzione del bug che usa codec di compressione Parquet non corretto lz4raw
  • [SPARK-46791] [SC-154018][sql] Compatibilità con Java Set in JavaTypeInference
  • [SPARK-46332] [SC-150224][sql] Eseguire la migrazione CatalogNotFoundException alla classe di errore CATALOG_NOT_FOUND
  • [SPARK-47164] [SC-157616][sql] Far sì che il valore predefinito da Wider Type Narrow Literal di v2 si comporti come v1
  • [SPARK-46664] [SC-153181][core] Migliorare Master per un rapido recupero in caso di zero lavoratori e app
  • [SPARK-46759] [SC-153839][sql][AVRO] Codec xz e zstandard supportano il livello di compressione per i file avro

Supporto del driver ODBC/JDBC di Databricks

Databricks supporta i driver ODBC/JDBC rilasciati negli ultimi 2 anni. Scaricare i driver rilasciati di recente e aggiornare (scaricare ODBC, scaricare JDBC).

Vedere Aggiornamenti della manutenzione di Databricks Runtime 15.2.

Ambiente di sistema

  • Sistema operativo: Ubuntu 22.04.4 LTS
  • Java: Zulu 8.74.0.17-CA-linux64
  • Scala: 2.12.15
  • Python: 3.11.0
  • R: 4.3.2
  • Delta Lake: 3.2.0

Librerie di Python installate

Libreria Versione Libreria Versione Libreria Versione
asttoken 2.0.5 astunparse 1.6.3 azure-core 1.30.1
azure-storage-blob 12.19.1 azure-storage-file-datalake 12.14.0 richiamo 0.2.0
nero 23.3.0 freccia 1.4 boto3 1.34.39
botocore 1.34.39 cachetools 5.3.3 certifi 2023.7.22
cffi 1.15.1 chardet 4.0.0 charset-normalizer 2.0.4
clic 8.0.4 cloudpickle 2.2.1 comm 0.1.2
contourpy 1.0.5 cryptography 41.0.3 cicliatore 0.11.0
Cython 0.29.32 databricks-sdk 0.20.0 dbus-python 1.2.18
debugpy 1.6.7 decoratore 5.1.1 distlib 0.3.8
punti di ingresso 0.4 eseguendo 0.8.3 facets-panoramica 1.1.1
filelock 3.13.1 fonttools 4.25.0 gitdb 4.0.11
GitPython 3.1.43 google-api-core 2.18.0 google-auth 2.29.0
google-cloud-core 2.4.1 google-cloud-storage (archiviazione su cloud di Google) 2.16.0 google-crc32c 1.5.0
google-resumable-media 2.7.0 googleapis-common-protos 1.63.0 grpcio 1.60.0
grpcio-status 1.60.0 httplib2 0.20.2 idna 3.4
importlib-metadata 6.0.0 ipyflow-core 0.0.198 ipykernel 6.25.1
ipython 8.15.0 ipython-genutils 0.2.0 ipywidgets 7.7.2
isodate 0.6.1 jedi 0.18.1 Jeepney, veicolo di trasporto pubblico delle Filippine 0.7.1
jmespath 0.10.0 joblib 1.2.0 jupyter_client 7.4.9
jupyter_core 5.3.0 keyring 23.5.0 kiwisolver 1.4.4
launchpadlib 1.10.16 lazr.restfulclient 0.14.4 lazr.uri 1.0.6
matplotlib 3.7.2 matplotlib-inline 0.1.6 mlflow-skinny 2.11.3
more-itertools 8.10.0 mypy-extensions 0.4.3 nest-asyncio 1.5.6
numpy 1.23.5 oauthlib 3.2.0 imballaggio 23.2
pandas 1.5.3 parso 0.8.3 pathspec 0.10.3
sciocco 0.5.3 pexpect 4.8.0 pickleshare 0.7.5
Pillow 9.4.0 pip 23.2.1 platformdirs 3.10.0
plotly 5.9.0 prompt-toolkit 3.0.36 proto-plus 1.23.0
protobuf 4.24.1 psutil 5.9.0 psycopg2 2.9.3
ptyprocess 0.7.0 pure-eval 0.2.2 pyarrow 14.0.1
pyasn1 0.4.8 pyasn1-modules 0.2.8 pyccolo 0.0.52
pycparser 2.21 pydantic 1.10.6 Pygments 2.15.1
PyGObject 3.42.1 PyJWT 2.3.0 pyodbc 4.0.38
pyparsing 3.0.9 python-dateutil 2.8.2 python-lsp-jsonrpc 1.1.1
pytz 2022.7 PyYAML 6.0 pyzmq 23.2.0
richieste 2.31.0 rsa 4.9 s3transfer 0.10.1
scikit-learn 1.3.0 scipy 1.11.1 seaborn 0.12.2
SecretStorage 3.3.1 setuptools 68.0.0 sei 1.16.0
smmap 5.0.1 sqlparse 0.5.0 ssh-import-id 5.11
stack-data 0.2.0 statsmodels 0.14.0 tenacity 8.2.2
threadpoolctl 2.2.0 tokenize-rt 4.2.1 tornado 6.3.2
traitlets 5.7.1 typing_extensions 4.10.0 tzdata 2022.1
ujson 5.4.0 unattended-upgrades (aggiornamenti automatici) 0.1 urllib3 1.26.16
virtualenv 20.24.2 wadllib 1.3.6 wcwidth 0.2.5
ruota 0.38.4 zipp 3.11.0

Librerie R installate

Le librerie R vengono installate dal Posit Gestione pacchetti snapshot CRAN.

Libreria Versione Libreria Versione Libreria Versione
freccia 14.0.0.2 askpass 1.2.0 assertthat 0.2.1
backports 1.4.1 base 4.3.2 base64enc 0.1-3
bigD 0.2.0 bit 4.0.5 bit64 4.0.5
bitops 1.0-7 blob 1.2.4 boot 1.3-28
preparare 1.0-10 brio 1.1.4 Scopa 1.0.5
bslib 0.6.1 cachem 1.0.8 callr 3.7.3
caret 6.0-94 cellranger 1.1.0 cron 2.3-61
classe 7.3-22 interfaccia a riga di comando (CLI) 3.6.2 clipr 0.8.0
orologio 0.7.0 cluster 2.1.4 codetools 0.2-19
spazio colore 2.1-0 commonmark 1.9.1 compilatore 4.3.2
configurazione 0.3.2 in conflitto 1.2.0 cpp11 0.4.7
crayon 1.5.2 credenziali 2.0.1 curl 5.2.0
tabella dati 1.15.0 insiemi di dati 4.3.2 DBI 1.2.1
dbplyr 2.4.0 descrizione 1.4.3 devtools 2.4.5
diagramma 1.6.5 diffobj 0.3.5 riepilogo 0.6.34
illuminazione verso il basso 0.4.3 dplyr 1.1.4 dtplyr 1.3.1
e1071 1.7-14 puntini di sospensione 0.3.2 valutare 0,23
fansi 1.0.6 colori 2.1.1 fastmap 1.1.1
fontawesome 0.5.2 forcats 1.0.0 foreach 1.5.2
straniero 0.8-85 forge 0.2.0 fs 1.6.3
futuro 1.33.1 future.apply 1.11.1 gargle 1.5.2
tipi generici 0.1.3 gert 2.0.1 ggplot2 3.4.4
gh 1.4.0 git2r 0.33.0 gitcreds 0.1.2
glmnet 4.1-8 globals 0.16.2 glue 1.7.0
googledrive 2.1.1 googlesheets4 1.1.1 Gower 1.0.1
grafiche 4.3.2 grDevices 4.3.2 grid 4.3.2
gridExtra 2.3 gsubfn 0,7 gt 0.10.1
gtable 0.3.4 casco di sicurezza 1.3.1 rifugio 2.5.4
highr 0,10 hms 1.1.3 htmltools 0.5.7
htmlwidgets 1.6.4 httpuv 1.6.14 httr 1.4.7
httr2 1.0.0 identificatori 1.0.1 ini 0.3.1
ipred 0.9-14 isoband 0.2.7 Iteratori 1.0.14
jquerylib 0.1.4 jsonlite 1.8.8 juicyjuice 0.1.0
KernSmooth 2.23-21 knitr 1.45 Etichettatura 0.4.3
più tardi 1.3.2 reticolo 0.21-8 lava 1.7.3
ciclo di vita 1.0.4 listenv 0.9.1 lubridate 1.9.3
magrittr 2.0.3 markdown 1.12 MASS 7.3-60
Matrice 1.5-4.1 memorizzare 2.0.1 methods 4.3.2
mgcv 1.8-42 mime 0.12 miniUI 0.1.1.1
mlflow 2.10.0 ModelMetrics 1.2.2.2 modelr 0.1.11
munsell 0.5.0 nlme 3.1-163 nnet 7.3-19
numDeriv 2016.8-1.1 openssl 2.1.1 parallelo 4.3.2
parallelamente 1.36.0 Pilastro 1.9.0 pkgbuild 1.4.3
pkgconfig 2.0.3 pkgdown 2.0.7 pkgload 1.3.4
plogr 0.2.0 plyr 1.8.9 elogio 1.0.0
prettyunits 1.2.0 Proc 1.18.5 processx 3.8.3
prodlim 2023.08.28 profvis 0.3.8 Avanzamento 1.2.3
progressr 0.14.0 promesse 1.2.1 proto 1.0.0
proxy 0.4-27 ps 1.7.6 purrr 1.0.2
R6 2.5.1 ragg 1.2.7 randomForest 4.7-1.1
rappdirs 0.3.3 rcmdcheck 1.4.0 RColorBrewer 1.1-3
Rcpp 1.0.12 RcppEigen 0.3.3.9.4 reagibile 0.4.4
reactR 0.5.0 readr 2.1.5 readxl 1.4.3
ricette 1.0.9 rivincita 2.0.0 rematch2 2.1.2
remotes 2.4.2.1 esempio riproducibile 2.1.0 reshape2 1.4.4
rlang 1.1.3 rmarkdown 2.25 RODBC 1.3-23
roxygen2 7.3.1 rpart 4.1.21 rprojroot 2.0.4
Rserve 1.8-13 RSQLite 2.3.5 rstudioapi 0.15.0
rversions 2.1.2 rvest 1.0.3 sass 0.4.8
Scalabilità 1.3.0 selectr 0.4-2 sessioninfo 1.2.2
Forma 1.4.6 brillante 1.8.0 sourcetools 0.1.7-1
sparklyr 1.8.4 spaziale 7.3-15 Spline 4.3.2
sqldf 0.4-11 SQUAREM 2021.1 statistiche 4.3.2
stats4 4.3.2 stringi 1.8.3 stringr 1.5.1
Sopravvivenza 3.5-5 Swagger 3.33.1 sys 3.4.2
systemfonts 1.0.5 tcltk 4.3.2 testthat 3.2.1
formattazione del testo 0.3.7 tibble 3.2.1 tidyr 1.3.1
tidyselect 1.2.0 tidyverse 2.0.0 cambio orario 0.3.0
timeDate 4032.109 tinytex 0.49 strumenti 4.3.2
tzdb 0.4.0 urlchecker 1.0.1 utilizza questo 2.2.2
UTF8 1.2.4 utils 4.3.2 UUID (Identificatore Univoco Universale) 1.2-0
V8 4.4.1 vctrs 0.6.5 viridisLite 0.4.2
vrum 1.6.5 waldo 0.5.2 whisker 0.4.1
withr 3.0.0 xfun 0,41 xml2 1.3.6
xopen 1.0.0 xtable 1.8-4 yaml 2.3.8
zeallot 0.1.0 zip 2.3.1

Librerie Java e Scala installate (versione cluster Scala 2.12)

ID gruppo ID dell'artefatto Versione
antlr antlr 2.7.7
com.amazonaws amazon-distribuisci-client 1.12.0
com.amazonaws aws-java-sdk-autoscaling 1.12.610
com.amazonaws aws-java-sdk-cloudformation 1.12.610
com.amazonaws aws-java-sdk-cloudfront 1.12.610
com.amazonaws aws-java-sdk-cloudhsm 1.12.610
com.amazonaws aws-java-sdk-cloudsearch 1.12.610
com.amazonaws aws-java-sdk-cloudtrail 1.12.610
com.amazonaws aws-java-sdk-cloudwatch 1.12.610
com.amazonaws aws-java-sdk-cloudwatchmetrics 1.12.610
com.amazonaws aws-java-sdk-codedeploy 1.12.610
com.amazonaws aws-java-sdk-cognitoidentity 1.12.610
com.amazonaws aws-java-sdk-cognitosync 1.12.610
com.amazonaws aws-java-sdk-config 1.12.610
com.amazonaws aws-java-sdk-core 1.12.610
com.amazonaws aws-java-sdk-datapipeline 1.12.610
com.amazonaws aws-java-sdk-directconnect 1.12.610
com.amazonaws aws-java-sdk-directory 1.12.610
com.amazonaws aws-java-sdk-dynamodb 1.12.610
com.amazonaws aws-java-sdk-ec2 1.12.610
com.amazonaws aws-java-sdk-ecs 1.12.610
com.amazonaws aws-java-sdk-efs 1.12.610
com.amazonaws aws-java-sdk-elasticache 1.12.610
com.amazonaws aws-java-sdk-elasticbeanstalk 1.12.610
com.amazonaws aws-java-sdk-elasticloadbalancing 1.12.610
com.amazonaws aws-java-sdk-elastictranscoder 1.12.610
com.amazonaws aws-java-sdk-emr 1.12.610
com.amazonaws aws-java-sdk-glacier 1.12.610
com.amazonaws aws-java-sdk-glue 1.12.610
com.amazonaws aws-java-sdk-iam 1.12.610
com.amazonaws aws-java-sdk-importexport 1.12.610
com.amazonaws aws-java-sdk-kinesis 1.12.610
com.amazonaws aws-java-sdk-kms 1.12.610
com.amazonaws aws-java-sdk-lambda 1.12.610
com.amazonaws aws-java-sdk-logs 1.12.610
com.amazonaws aws-java-sdk-machinelearning 1.12.610
com.amazonaws aws-java-sdk-opsworks 1.12.610
com.amazonaws aws-java-sdk-rds 1.12.610
com.amazonaws aws-java-sdk-redshift 1.12.610
com.amazonaws aws-java-sdk-route53 1.12.610
com.amazonaws aws-java-sdk-s3 1.12.610
com.amazonaws aws-java-sdk-ses 1.12.610
com.amazonaws aws-java-sdk-simpledb 1.12.610
com.amazonaws aws-java-sdk-simpleworkflow 1.12.610
com.amazonaws aws-java-sdk-sns 1.12.610
com.amazonaws aws-java-sdk-sqs 1.12.610
com.amazonaws aws-java-sdk-ssm 1.12.610
com.amazonaws aws-java-sdk-storagegateway 1.12.610
com.amazonaws aws-java-sdk-sts 1.12.610
com.amazonaws aws-java-sdk-support 1.12.610
com.amazonaws aws-java-sdk-swf-libraries 1.11.22
com.amazonaws aws-java-sdk-workspaces 1.12.610
com.amazonaws jmespath-java 1.12.610
com.clearspring.analytics flusso 2.9.6
com.databricks Rserve 1.8-3
com.databricks databricks-sdk-java 0.17.1
com.databricks jets3t 0.7.1-0
com.databricks.scalapb compilerplugin_2.12 0.4.15-10
com.databricks.scalapb scalapb-runtime_2.12 0.4.15-10
com.esotericsoftware kryo-shaded 4.0.2
com.esotericsoftware minlog 1.3.0
com.fasterxml compagno di classe 1.3.4
com.fasterxml.jackson.core annotazioni jackson 2.15.2
com.fasterxml.jackson.core jackson-core 2.15.2
com.fasterxml.jackson.core jackson-databind 2.15.2
com.fasterxml.jackson.dataformat jackson-dataformat-cbor 2.15.2
com.fasterxml.jackson.dataformat jackson-dataformat-yaml 2.15.2
com.fasterxml.jackson.datatype jackson-datatype-joda 2.15.2
com.fasterxml.jackson.datatype jackson-datatype-jsr310 2.16.0
com.fasterxml.jackson.module jackson-module-paranamer 2.15.2
com.fasterxml.jackson.module jackson-module-scala_2.12 2.15.2
com.github.ben-manes.caffeine caffeina 2.9.3
com.github.fommil jniloader 1.1
com.github.fommil.netlib native_ref-java 1.1
com.github.fommil.netlib native_ref-java 1.1-indigeni
com.github.fommil.netlib native_system-java 1.1
com.github.fommil.netlib native_system-java 1.1-natives
com.github.fommil.netlib netlib-native_ref-linux-x86_64 1.1-nativi
com.github.fommil.netlib netlib-native_system-linux-x86_64 1.1-nativi
com.github.luben zstd-jni 1.5.5-4
com.github.wendykierp JTransforms 3.1
com.google.code.findbugs jsr305 3.0.0
com.google.code.gson gson 2.10.1
com.google.crypto.tink tink 1.9.0
com.google.errorprone annotazioni_soggette_a_errori 2.10.0
com.google.flatbuffers flatbuffers-java 23.5.26
com.google.guava guaiava 15.0
com.google.protobuf protobuf-java 2.6.1
com.helger profilatore 1.1.1
com.ibm.icu icu4j 72.1
com.jcraft jsch 0.1.55
com.jolbox bonecp 0.8.0.RELEASE
com.lihaoyi sourcecode_2.12 0.1.9
com.microsoft.azure azure-data-lake-store-sdk 2.3.9
com.microsoft.sqlserver mssql-jdbc 11.2.2.jre8
com.ning compress-lzf 1.1.2
com.sun.mail javax.mail 1.5.2
com.sun.xml.bind jaxb-core 2.2.11
com.sun.xml.bind jaxb-impl 2.2.11
com.tdunning JSON 1.8
com.thoughtworks.paranamer paranamer 2.8
com.trueaccord.lenses lenses_2.12 0.4.12
com.twitter chill-java 0.10.0
com.twitter chill_2.12 0.10.0
com.twitter util-app_2.12 7.1.0
com.twitter util-core_2.12 7.1.0
com.twitter util-function_2.12 7.1.0
com.twitter util-jvm_2.12 7.1.0
com.twitter util-lint_2.12 7.1.0
com.twitter util-registry_2.12 7.1.0
com.twitter util-stats_2.12 7.1.0
com.typesafe configurazione 1.4.3
com.typesafe.scala-logging scala-logging_2.12 3.7.2
com.uber h3 3.7.3
com.univocity univocità-parser 2.9.1
com.zaxxer HikariCP 4.0.3
commons-cli commons-cli 1.5.0
commons-codec commons-codec 1.16.0
commons-collections commons-collections 3.2.2
commons-dbcp commons-dbcp 1.4
commons-fileupload commons-fileupload 1,5
commons-httpclient commons-httpclient 3.1
commons-io commons-io 2.13.0
commons-lang commons-lang 2.6
commons-logging commons-logging 1.1.3
commons-pool commons-pool 1.5.4
dev.ludovic.netlib arpack 3.0.3
dev.ludovic.netlib blas 3.0.3
dev.ludovic.netlib lapack 3.0.3
info.ganglia.gmetric4j gmetric4j 1.0.10
io.airlift compressore d'aria 0,25
io.delta delta-sharing-client_2.12 1.0.5
io.dropwizard.metrics annotazione delle metriche 4.2.19
io.dropwizard.metrics metrics-core 4.2.19
io.dropwizard.metrics metrics-graphite 4.2.19
io.dropwizard.metrics verifiche di integrità delle metriche 4.2.19
io.dropwizard.metrics metrics-jetty9 4.2.19
io.dropwizard.metrics metrics-jmx 4.2.19
io.dropwizard.metrics metrics-json 4.2.19
io.dropwizard.metrics metrics-jvm 4.2.19
io.dropwizard.metrics metrics-servlets 4.2.19
io.netty netty-all 4.1.96.Final
io.netty netty-buffer 4.1.96.Final
io.netty netty-codec 4.1.96.Final
io.netty netty-codec-http 4.1.96.Final
io.netty netty-codec-http2 4.1.96.Final
io.netty netty-codec-socks 4.1.96.Final
io.netty netty-common 4.1.96.Final
io.netty netty-handler 4.1.96.Final
io.netty netty-handler-proxy 4.1.96.Final
io.netty netty-resolver 4.1.96.Final
io.netty netty-tcnative-boringssl-static 2.0.61.Final-linux-aarch_64
io.netty netty-tcnative-boringssl-static 2.0.61.Final-linux-x86_64
io.netty netty-tcnative-boringssl-static 2.0.61.Final-osx-aarch_64
io.netty netty-tcnative-boringssl-static 2.0.61.Final-osx-x86_64
io.netty netty-tcnative-boringssl-static 2.0.61.Final-windows-x86_64
io.netty netty-tcnative-classes 2.0.61.Final
io.netty netty-transport 4.1.96.Final
io.netty netty-transport-classes-epoll 4.1.96.Final
io.netty netty-transport-classes-kqueue 4.1.96.Final
io.netty netty-transport-native-epoll 4.1.96.Final
io.netty netty-transport-native-epoll 4.1.96.Final-linux-aarch_64
io.netty netty-transport-native-epoll 4.1.96.Final-linux-x86_64
io.netty netty-transport-native-kqueue 4.1.96.Final-osx-aarch_64
io.netty netty-transport-native-kqueue 4.1.96.Final-osx-x86_64
io.netty netty-transport-native-unix-common 4.1.96.Final
io.prometheus simpleclient 0.7.0
io.prometheus simpleclient_common 0.7.0
io.prometheus simpleclient_dropwizard 0.7.0
io.prometheus simpleclient_pushgateway 0.7.0
io.prometheus simpleclient_servlet 0.7.0
io.prometheus.jmx agente di raccolta 0.12.0
jakarta.annotation jakarta.annotation-api 1.3.5
jakarta.servlet jakarta.servlet-api 4.0.3
jakarta.validation jakarta.validation-api 2.0.2
jakarta.ws.rs jakarta.ws.rs-api 2.1.6
javax.activation attivazione 1.1.1
javax.el javax.el-api 2.2.4
javax.jdo jdo-api 3.0.1
javax.transaction jta 1.1
javax.transaction API di transazione 1.1
javax.xml.bind jaxb-api 2.2.11
javolution javolution 5.5.1
jline jline 2.14.6
joda-time joda-time 2.12.1
net.java.dev.jna jna 5.8.0
net.razorvine sottaceto 1.3
net.sf.jpam jpam 1.1
net.sf.opencsv opencsv 2.3
net.sf.supercsv super-csv 2.2.0
net.snowflake snowflake-ingest-sdk 0.9.6
net.sourceforge.f2j arpack_combined_all 0.1
org.acplt.remotetea remotetea-oncrpc 1.1.2
org.antlr ST4 4.0.4
org.antlr antlr-runtime 3.5.2
org.antlr antlr4-runtime 4.9.3
org.antlr stringtemplate 3.2.1
org.apache.ant ant 1.10.11
org.apache.ant ant-jsch 1.10.11
org.apache.ant ant-launcher 1.10.11
org.apache.arrow formato a freccia 15.0.0
org.apache.arrow arrow-memory-core 15.0.0
org.apache.arrow arrow-memory-netty 15.0.0
org.apache.arrow freccia-vettore 15.0.0
org.apache.avro avro 1.11.3
org.apache.avro avro-ipc 1.11.3
org.apache.avro avro-mapred 1.11.3
org.apache.commons commons-collections4 4.4
org.apache.commons commons-compress 1.23.0
org.apache.commons commons-crypto 1.1.0
org.apache.commons commons-lang3 3.12.0
org.apache.commons commons-math3 3.6.1
org.apache.commons commons-text 1.10.0
org.apache.curator curatore-cliente 2.13.0
org.apache.curator curator-framework 2.13.0
org.apache.curator ricette curatori 2.13.0
org.apache.datasketches datasketches-java 3.1.0
org.apache.datasketches datasketches-memory 2.0.0
org.apache.derby derby 10.14.2.0
org.apache.hadoop hadoop-client-runtime 3.3.6
org.apache.hive hive-beeline 2.3.9
org.apache.hive hive-cli 2.3.9
org.apache.hive hive-jdbc 2.3.9
org.apache.hive hive-llap-client 2.3.9
org.apache.hive hive-llap-common 2.3.9
org.apache.hive hive-serde 2.3.9
org.apache.hive hive-shims 2.3.9
org.apache.hive hive-storage-api 2.8.1
org.apache.hive.shims hive-shims-0.23 2.3.9
org.apache.hive.shims hive-shims-common 2.3.9
org.apache.hive.shims hive-shims-scheduler 2.3.9
org.apache.httpcomponents httpclient 4.5.14
org.apache.httpcomponents httpcore 4.4.16
org.apache.ivy ivy 2.5.1
org.apache.logging.log4j log4j-1.2-api 2.22.1
org.apache.logging.log4j log4j-api 2.22.1
org.apache.logging.log4j log4j-core 2.22.1
org.apache.logging.log4j log4j-layout-template-json 2.22.1
org.apache.logging.log4j log4j-slf4j2-impl 2.22.1
org.apache.orc orc-core 1.9.2-shaded-protobuf
org.apache.orc orc-mapreduce 1.9.2-shaded-protobuf
org.apache.orc orc-shims 1.9.2
org.apache.thrift libfb303 0.9.3
org.apache.thrift libthrift 0.12.0
org.apache.ws.xmlschema xmlschema-core 2.3.0
org.apache.xbean xbean-asm9-shaded 4.23
org.apache.yetus annotazioni del pubblico 0.13.0
org.apache.zookeeper zookeeper 3.6.3
org.apache.zookeeper zookeeper-jute 3.6.3
org.checkerframework checker-qual 3.31.0
org.codehaus.jackson jackson-core-asl 1.9.13
org.codehaus.jackson jackson-mapper-asl 1.9.13
org.codehaus.janino commons-compiler 3.0.16
org.codehaus.janino janino 3.0.16
org.datanucleus datanucleus-api-jdo 4.2.4
org.datanucleus datanucleus-core 4.1.17
org.datanucleus datanucleus-rdbms 4.1.19
org.datanucleus javax.jdo 3.2.0-m3
org.eclipse.collections eclipse-collections 11.1.0
org.eclipse.collections eclipse-collections-api 11.1.0
org.eclipse.jetty jetty-client 9.4.52.v20230823
org.eclipse.jetty jetty-continuation 9.4.52.v20230823
org.eclipse.jetty jetty-http 9.4.52.v20230823
org.eclipse.jetty jetty-io 9.4.52.v20230823
org.eclipse.jetty jetty-jndi 9.4.52.v20230823
org.eclipse.jetty jetty-plus 9.4.52.v20230823
org.eclipse.jetty jetty-proxy 9.4.52.v20230823
org.eclipse.jetty jetty-security 9.4.52.v20230823
org.eclipse.jetty jetty-server 9.4.52.v20230823
org.eclipse.jetty jetty-servlet 9.4.52.v20230823
org.eclipse.jetty jetty-servlets 9.4.52.v20230823
org.eclipse.jetty jetty-util 9.4.52.v20230823
org.eclipse.jetty jetty-util-ajax 9.4.52.v20230823
org.eclipse.jetty jetty-webapp 9.4.52.v20230823
org.eclipse.jetty jetty-xml 9.4.52.v20230823
org.eclipse.jetty.websocket websocket-api 9.4.52.v20230823
org.eclipse.jetty.websocket websocket-client 9.4.52.v20230823
org.eclipse.jetty.websocket websocket-comune 9.4.52.v20230823
org.eclipse.jetty.websocket websocket-server 9.4.52.v20230823
org.eclipse.jetty.websocket websocket-servlet 9.4.52.v20230823
org.fusesource.leveldbjni leveldbjni-all 1.8
org.glassfish.hk2 hk2-api 2.6.1
org.glassfish.hk2 hk2-locator 2.6.1
org.glassfish.hk2 hk2-utils 2.6.1
org.glassfish.hk2 osgi-resource-locator 1.0.3
org.glassfish.hk2.external aopalliance-repackaged 2.6.1
org.glassfish.hk2.external jakarta.inject 2.6.1
org.glassfish.jersey.containers jersey-container-servlet 2.40
org.glassfish.jersey.containers jersey-container-servlet-core 2.40
org.glassfish.jersey.core jersey-client 2.40
org.glassfish.jersey.core jersey-common 2.40
org.glassfish.jersey.core jersey-server 2.40
org.glassfish.jersey.inject jersey-hk2 2.40
org.hibernate.validator hibernate-validator 6.1.7.Final
org.ini4j ini4j 0.5.4
org.javassist javassist 3.29.2-GA
org.jboss.logging jboss-logging 3.3.2.Final
org.jdbi jdbi 2.63.1
org.jetbrains annotations 17.0.0
org.joda joda-convert 1.7
org.jodd jodd-core 3.5.2
org.json4s json4s-ast_2.12 3.7.0-M11
org.json4s json4s-core_2.12 3.7.0-M11
org.json4s json4s-jackson_2.12 3.7.0-M11
org.json4s json4s-scalap_2.12 3.7.0-M11
org.lz4 lz4-java 1.8.0
org.mlflow mlflow-spark_2.12 2.9.1
org.objenesis objenesis 2.5.1
org.postgresql postgresql 42.6.1
org.roaringbitmap RoaringBitmap 0.9.45-databricks
org.roaringbitmap Spessori 0.9.45-databricks
org.rocksdb rocksdbjni 8.3.2
org.rosuda.REngine REngine 2.1.0
org.scala-lang scala-compiler_2.12 2.12.15
org.scala-lang scala-library_2.12 2.12.15
org.scala-lang scala-reflect_2.12 2.12.15
org.scala-lang.modules scala-collection-compat_2.12 2.11.0
org.scala-lang.modules scala-parser-combinators_2.12 1.1.2
org.scala-lang.modules scala-xml_2.12 1.2.0
org.scala-sbt interfaccia di test 1.0
org.scalacheck scalacheck_2.12 1.14.2
org.scalactic scalactic_2.12 3.2.15
org.scalanlp breeze-macros_2.12 2.1.0
org.scalanlp breeze_2.12 2.1.0
org.scalatest compatibile con scalatest 3.2.15
org.scalatest scalatest-core_2.12 3.2.15
org.scalatest scalatest-diagrams_2.12 3.2.15
org.scalatest scalatest-featurespec_2.12 3.2.15
org.scalatest scalatest-flatspec_2.12 3.2.15
org.scalatest scalatest-freespec_2.12 3.2.15
org.scalatest scalatest-funspec_2.12 3.2.15
org.scalatest scalatest-funsuite_2.12 3.2.15
org.scalatest scalatest-matchers-core_2.12 3.2.15
org.scalatest scalatest-mustmatchers_2.12 3.2.15
org.scalatest scalatest-propspec_2.12 3.2.15
org.scalatest scalatest-refspec_2.12 3.2.15
org.scalatest scalatest-shouldmatchers_2.12 3.2.15
org.scalatest scalatest-wordspec_2.12 3.2.15
org.scalatest scalatest_2.12 3.2.15
org.slf4j jcl-over-slf4j 2.0.7
org.slf4j jul-to-slf4j 2.0.7
org.slf4j slf4j-api 2.0.7
org.slf4j slf4j-simple 1.7.25
org.threeten threeten-extra 1.7.1
org.tukaani xz 1.9
org.typelevel algebra_2.12 2.0.1
org.typelevel cats-kernel_2.12 2.1.1
org.typelevel spire-macros_2.12 0.17.0
org.typelevel spire-platform_2.12 0.17.0
org.typelevel spire-util_2.12 0.17.0
org.typelevel spire_2.12 0.17.0
org.wildfly.openssl wildfly-openssl 1.1.3.Final
org.xerial sqlite-jdbc 3.42.0.0
org.xerial.snappy snappy-java 1.1.10.3
org.yaml snakeyaml 2.0
oro oro 2.0.8
pl.edu.icm JLargeArrays 1,5
software.amazon.cryptools AmazonCorrettoCryptoProvider 1.6.1-linux-x86_64
software.amazon.ion ion-java 1.0.2
stax stax-api 1.0.1