Condividi tramite


Databricks Runtime 11.3 LTS (EoS)

Nota

Il supporto per questa versione di Databricks Runtime è terminato. Per la data di fine del supporto, vedere Fine del supporto e cronologia di fine vita. Per tutte le versioni supportate di Databricks Runtime, vedere note di rilascio di Databricks Runtime: versioni e compatibilità.

Le note sulla versione seguenti forniscono informazioni su Databricks Runtime 11.3 LTS, con tecnologia Apache Spark 3.3.0. Databricks ha rilasciato questa versione nell'ottobre 2022.

Nota

LTS indica che questa versione è supportata a lungo termine. Vedere Ciclo di vita della versione LTS di Databricks Runtime.

Modifiche comportamentali

[Modifica di rilievo] La nuova versione Python richiede l'aggiornamento dei client di Python Databricks Connect V1

Nota

Un aggiornamento successivo sposta la versione Python in Databricks Runtime 11.3 LTS a 3.9.21. La versione 3.9.21 non introduce modifiche comportamentali.

Per applicare le patch di sicurezza necessarie, la versione Python in Databricks Runtime 11.3 LTS viene aggiornata dalla versione 3.9.5 alla versione 3.9.19. Poiché queste modifiche potrebbero causare errori nei client che usano funzioni PySpark specifiche, tutti i client che usano Databricks Connect V1 per Python con Databricks Runtime 11.3 LTS devono essere aggiornati a Python 3.9.7 o versione successiva.

Miglioramenti e nuove funzionalità

Python aggiornato dalla versione 3.9.19 alla versione 3.9.21

La versione Python in Databricks Runtime 11.3 LTS viene aggiornata dalla versione 3.9.19 alla versione 3.9.21.

Structured Streaming trigger once è obsoleto.

L'impostazione Trigger.Once è stata deprecata. Databricks consiglia di usare Trigger.AvailableNow. Vedere Configurare gli intervalli di trigger del flusso strutturato.

Modificare il percorso di origine per Il caricatore automatico

È ora possibile modificare il percorso di input della directory per Auto Loader configurato con la modalità di elenco delle directory senza scegliere una nuova directory di checkpoint. Vedere Modificare il percorso di origine per Il caricatore automatico.

Il connettore Databricks Oggigiorno supporta ora la lettura dai flussi di dati di Oggigiornos in modalità EFO

È ora possibile usare l'origine di streaming strutturata Databricks Jsons in Databricks Runtime 11.3 LTS per eseguire query che leggono dai flussi di dati di Oggigiornos in modalità fan-out avanzata. In questo modo è possibile una velocità effettiva dedicata per partizione, per consumer e recapito di record in modalità push.

Nuove funzioni geospaziali H3 e supporto Photon aggiunto per tutte le funzioni H3

Introduzione di 4 nuove funzioni H3, h3_maxchild, h3_minchild, h3_pointash3e h3_pointash3string. Queste funzioni sono disponibili in SQL, Scala e Python. Tutte le espressioni H3 sono ora supportate in Photon. Si veda Funzioni geospaziali H3.

Nuove funzionalità per l'I/O predittivo

Photon supporta la modalità di intervallo per l'esecuzione di fotogrammi, usando RANGE BETWEEN UNBOUNDED PRECEDING AND CURRENT ROW. Photon supporta anche la modalità di intervallo per i fotogrammi in crescita, usando RANGE BETWEEN UNBOUNDED PRECEDING AND offset_stop { PRECEDING | FOLLOWING }.

Aumento delle partizioni iniziali da analizzare per le query selettive

Il valore delle partizioni iniziali da analizzare è stato aumentato a 10 per le query selettive con take/tail/limit nei cluster abilitati per Photon e LIMIT in Databricks SQL. Con 10 partizioni, è possibile evitare il sovraccarico di avvio di più processi di piccole dimensioni e un aumento delle prestazioni lento. È anche possibile configurare questa operazione tramite spark.sql.limit.selectiveInitialNumPartitions.

Nuova visualizzazione delle versioni del piano AQE

Introduzione alle versioni del piano AQE che consentono di visualizzare gli aggiornamenti del piano di runtime dall'esecuzione di query adattive (AQE).

Nuove modalità asincrone di rilevamento dello stato di avanzamento e eliminazione dei log

Introduzione alle modalità Structured Streaming denominata rilevamento asincrono dello stato di avanzamento e eliminazione asincrona dei log. La modalità di eliminazione asincrona dei log riduce la latenza delle query di streaming rimuovendo i log usati per il rilevamento dello stato in background.

Il flusso di streaming strutturato su Unity Catalog ora supporta display()

È ora possibile usare display() quando si usa Structured Streaming per lavorare con le tabelle registrate in Unity Catalog.

Gli eventi della pipeline vengono ora registrati in formato JSON

Azure Databricks ora scrive gli eventi della pipeline nel log del driver in formato JSON. Anche se ogni evento sarà analizzabile da JSON, gli eventi di grandi dimensioni potrebbero non contenere tutti i campi o i campi potrebbero essere troncati. Ogni evento viene registrato in una singola riga con il prefisso Event received: . Di seguito è riportato un evento di esempio.

Event received: {"id":"some-event-id","origin":{"pipeline_id":"some-pipeline-id","cluster_id":"some-cluster id"},"message":"simple [truncated] message","level":"WARN"}

Elaborazione con stato arbitrario in Structured Streaming con Python

Introduzione alla funzione applyInPandasWithState che può essere utilizzata per eseguire un'elaborazione di stato arbitraria in PySpark. Equivale alla funzione flatMapGroupsWithState nell'API Java.

Inferenza delle date nei file CSV

Introduzione di un'inferenza migliorata delle colonne di tipo data nei file CSV. Quando il formato della data è coerente tra i record di una colonna, tali colonne possono essere interpretate come DateType. È anche possibile avere una combinazione di formati di data tra colonne diverse. Azure Databricks può dedurre automaticamente il formato della data per ogni colonna. Le colonne di data nei file CSV precedenti a Databricks Runtime 11.3 LTS vengono lasciate come StringType.

Supporto per clonare le tabelle Apache Parquet e Apache Iceberg (anteprima pubblica)

È ora possibile usare clone per creare e aggiornare in modo incrementale le tabelle Delta che esegono il mirroring delle tabelle Apache Parquet e Apache Iceberg. È possibile aggiornare la tabella Parquet di origine e applicare in modo incrementale le modifiche alla tabella Delta clonata con il comando clone. Vedere Clonare in modo incrementale tabelle Parquet e Apache Iceberg in Delta Lake.

Usare SQL per specificare percorsi di archiviazione a livello di schema e catalogo per le tabelle gestite del catalogo Unity

È ora possibile usare il comando SQL MANAGED LOCATION per specificare un percorso di archiviazione cloud per le tabelle gestite a livello di catalogo e schema. Vedere CREATE CATALOG e CREATE SCHEMA.

Modifiche del comportamento

Databricks Connect 11.3.2

L'aggiornamento client di Databricks Connect 11.3.2 è ora supportato. Vedere Databricks Connect e le note sulla versione di Databricks Connect.

Aggiornamento del connettore Snowflake per Azure Databricks

Il connettore Azure Databricks Snowflake è stato aggiornato alla versione più recente del codice dal repository open source, Snowflake Data Source for Apache Spark. È ora completamente compatibile con Databricks Runtime 11.3 LTS, incluso il pushdown del predicato e il pushdown del piano di query interno mantenendo tutte le funzionalità della versione open source.

La cache Hadoop per S3A è ora disabilitata

La cache Hadoop (API Principale 3.3.4 di Apache Hadoop FileSystem) per S3A è ora disabilitata. Questo serve ad allinearsi con altri connettori di archiviazione cloud. Per i carichi di lavoro che si basano sulla memorizzazione nella cache del file system, assicurarsi che i file system appena creati siano forniti con le configurazioni Hadoop corrette, inclusi i provider di credenziali.

Lo schema della raccolta di statistiche Delta Lake corrisponde ora all'ordine delle colonne nella definizione dello schema di tabella

Questa modifica risolve un bug nel protocollo Delta Lake in cui le statistiche non sono state raccolte per le colonne a causa di una mancata corrispondenza nell'ordinamento dei dataframe e delle colonne della tabella. In alcuni casi, è possibile che si verifichi una riduzione delle prestazioni di scrittura a causa della raccolta di statistiche sui campi non registrati in precedenza. Vedere Salto dati.

applyInPandasWithState genera un errore se la query ha una sequenza casuale dopo l'operatore

L'operatore applyInPandasWithState genera un errore se la query ha shuffle dopo l'operatore . Ciò si verifica quando l'utente aggiunge shuffle dopo l'operazione o l'utilità di ottimizzazione o il sink aggiunge shuffle in modo implicito.

Aggiornamenti della libreria

  • Librerie di Python aggiornate:
    • distlib da 0.3.5 a 0.3.6
  • Librerie R aggiornate:
    • scopa da 1.0.0 a 1.0.1
    • callr dalla versione 3.7.1 alla 3.7.2
    • dplyr da 1.0.9 a 1.0.10
    • dtplyr da 1.2.1 a 1.2.2
    • forcats da 0.5.1 a 0.5.2
    • futuro da 1.27.0 a 1.28.0
    • future.apply dalla versione 1.9.0 alla versione 1.9.1
    • gert da 1.7.0 a 1.8.0
    • globals da 0.16.0 a 0.16.1
    • gtable da 0.3.0 a 0.3.1
    • da 2.5.0 a 2.5.1
    • hms da 1.1.1 a 1.1.2
    • httr da 1.4.3 a 1.4.4
    • knitr da 1.39 a 1.40
    • modelr da 0.1.8 a 0.1.9
    • pilastro da 1.8.0 a 1.8.1
    • aggiornamento di progressr da 0.10.1 a 0.11.0
    • readxl da 1.4.0 a 1.4.1
    • repository da 2.0.1 a 2.0.2
    • rlang da 1.0.4 a 1.0.5
    • rmarkdown da 2.14 a 2.16
    • RSQLite da 2.2.15 a 2.2.16
    • rstudioapi da 0.13 a 0.14
    • versioni da 2.1.1 a 2.1.2
    • rvest versione da 1.0.2 a 1.0.3
    • scala da 1.2.0 a 1.2.1
    • sparklyr da 1.7.7 a 1.7.8
    • stringr da 1.4.0 a 1.4.1
    • sopravvivenza da 3,2-13 a 3,4-0
    • tinytex da 0,40 a 0,41
    • viridisLite da 0.4.0 a 0.4.1
  • Librerie Java aggiornate:
    • com.fasterxml.jackson.core.jackson-annotations da 2.13.3 a 2.13.4
    • com.fasterxml.jackson.core.jackson-core da 2.13.3 a 2.13.4
    • com.fasterxml.jackson.core.jackson-databind da 2.13.3 a 2.13.4
    • com.fasterxml.jackson.dataformat.jackson-dataformat-cbor da 2.13.3 a 2.13.4
    • com.fasterxml.jackson.datatype.jackson-datatype-joda da 2.13.3 a 2.13.4
    • com.fasterxml.jackson.datatype.jackson-datatype-jsr310 da 2.13.3 a 2.13.4
    • com.fasterxml.jackson.module.jackson-module-paranamer da 2.13.3 a 2.13.4
    • com.fasterxml.jackson.module.jackson-module-scala_2.12 da 2.13.3 a 2.13.4
    • org.apache.hadoop.hadoop-client-api da 3.3.2-databricks a 3.3.4-databricks
    • org.apache.hadoop.hadoop-client-runtime da 3.3.2 a 3.3.4
    • org.apache.orc.orc-core da 1.7.5 a 1.7.6
    • org.apache.orc.orc-mapreduce da 1.7.5 a 1.7.6
    • org.apache.orc.orc-shims da 1.7.5 a 1.7.6
    • org.apache.parquet.parquet-column da 1.12.0-databricks-0004 a 1.12.0-databricks-0007
    • org.apache.parquet.common da 1.12.0-databricks-0004 a 1.12.0-databricks-0007
    • org.apache.parquet.parquet-encoding da 1.12.0-databricks-0004 a 1.12.0-databricks-0007
    • org.apache.parquet-format-structures da 1.12.0-databricks-0004 a 1.12.0-databricks-0007
    • org.apache.parquet.parquet-hadoop da 1.12.0-databricks-0004 a 1.12.0-databricks-0007
    • org.apache.parquet-jackson da 1.12.0-databricks-0004 a 1.12.0-databricks-0007
    • org.glassfish.jersey.containers.jersey-container-servlet da 2.34 a 2.36
    • org.glassfish.jersey.containers.jersey-container-servlet-core dalla versione 2.34 alla versione 2.36
    • org.glassfish.jersey.core.jersey-client da 2.34 a 2.36
    • org.glassfish.jersey.core.jersey-common da 2.34 a 2.36
    • org.glassfish.jersey.core.jersey-server da 2.34 a 2.36
    • org.glassfish.jersey.inject.jersey-hk2 da 2.34 a 2.36

Apache Spark

Databricks Runtime 11.3 LTS include Apache Spark 3.3.0. Questa versione include tutte le correzioni e i miglioramenti di Spark inclusi in Databricks Runtime 11.2 (EoS), nonché le correzioni di bug e i miglioramenti aggiuntivi seguenti apportati a Spark:

  • [SPARK-39957] [WARMFIX][sc-111425][CORE] Ritarda onDisconnected per consentire al Driver di ricevere ExecutorExitCode
  • [SPARK-39955] [WARMFIX][sc-111424][CORE] Migliorare il processo LaunchTask per evitare errori di fase causati da messaggi LaunchTask non riusciti
  • [SPARK-40474] [SC-106248][cherry-pick] Correggere il comportamento di inferenza dello schema CSV per le colonne datetime e introdurre il rilevamento automatico per i campi Data
  • [SPARK-40535] [SC-111243][sql] Correzione del bug per cui il buffer di AggregatingAccumulator non verrà creato se le righe di input sono vuote
  • [SPARK-40434] [SC-111125][sc-111144][SC-111138][spark-40435][11.3][ss][PYTHON] ImplementInPandasWithState in PySpark
  • [SPARK-40460] [SC-110832][ss] Correzione delle metriche di streaming quando si seleziona _metadata
  • [SPARK-40324] [SC-109943][sql] Fornire un contesto di query di ParseException
  • [SPARK-40466] [SC-110899][ss] Migliorare il messaggio di errore quando DSv2 è disabilitato mentre DSv1 non è disponibile
  • [SPARK-40456] [SC-110848][sql] PartitionIterator.hasNext dovrebbe essere economico da chiamare ripetutamente
  • [SPARK-40169] [SC-110772][sql] Non applicare il pushdown dei filtri Parquet senza riferimenti allo schema dei dati
  • [SPARK-40467] [SC-110759][ss] Suddividere FlatMapGroupsWithState in più suite di test
  • [SPARK-40468] [SC-110813][sql] Correzione dell'eliminazione delle colonne in CSV quando si seleziona _corrupt_record
  • [SPARK-40291] [SC-110085][sql] Migliorare il messaggio per la colonna non nel gruppo per errore della clausola
  • [SPARK-40398] [SC-110762][core][SQL] Usare il ciclo anziché utilizzare l'API di Arrays.stream
  • [SPARK-40433] [SC-110684][ss][PYTHON] Aggiungere toJVMRow in PythonSQLUtils per convertire una riga PySpark serializzata in una riga JVM.
  • [SPARK-40414] [SC-110568][sql][PYTHON] Tipo più generico in PythonArrowInput e PythonArrowOutput
  • [SPARK-40352] [SC-109945][sql] Aggiungere alias di funzione: len, datepart, dateadd, date_diff e curdate
  • [SPARK-40470] [SC-110761][sql] Gestire GetArrayStructFields e GetMapValue nella funzione "arrays_zip"
  • [SPARK-40387] [SC-110685][sql] Migliorare l'implementazione di Spark Decimal
  • [SPARK-40429] [SC-110675][sql] Set KeyGroupedPartitioning solo quando la colonna a cui si fa riferimento si trova nell'output
  • [SPARK-40432] [SC-110716][ss][PYTHON] Introdurre GroupStateImpl e GroupStateTimeout in PySpark
  • [SPARK-39915] [SC-110496][sql] Assicurarsi che il partizionamento dell'output sia specificato dall'utente in AQE
  • [SPARK-29260] [SQL] Supporto ALTER DATABASE SET LOCATION se HMS lo supporta
  • [SPARK-40185] [SC-110056][sql] Rimuovere il suggerimento di colonna quando l'elenco dei candidati è vuoto
  • [SPARK-40362] [SC-110401][sql] Risoluzione della canonizzazione di BinaryComparison
  • [SPARK-40411] [SC-110381][ss] Rifattorizzazione di FlatMapGroupsWithStateExec per avere un'interfaccia padre
  • [SPARK-40293] [SC-110084][sql] Rendere il messaggio di errore della tabella V2 più significativo
  • [SPARK-38734] [SC-110383][sql] Rimuovere la classe di errore INDEX_OUT_OF_BOUNDS
  • [SPARK-40292] [SC-110300][sql] Correggere i nomi delle colonne nella funzione "arrays_zip" quando si fa riferimento agli array da struct annidati
  • [SPARK-40276] [SC-109674][core] Ridurre le dimensioni del risultato di RDD.takeOrdered (funzione per l'ordinamento)
  • [SPARK-40197] [SC-109176][sql] Sostituire il piano di query con il contesto per MULTI_VALUE_SUBQUERY_ERROR
  • [SPARK-40300] [SC-109942][sql] Eseguire la migrazione alla classe di errore DATATYPE_MISMATCH
  • [SPARK-40149] [SC-110055][sql] Propagare le colonne di metadati tramite Project
  • [SPARK-40280] [SC-110146][sql] Aggiungere il supporto per il push down parquet per int e long annotati
  • [SPARK-40220] [SC-110143][sc-109175][SQL] Non restituire la mappa vuota dei parametri del messaggio di errore
  • [SPARK-40295] [SC-110070][sql] Consenti funzioni v2 con argomenti testuali nella distribuzione e ordinamento di scrittura
  • [SPARK-40156] [SC-109264][sql] url_decode() deve restituire una classe di errore
  • [SPARK-39195] [SQL] Spark OutputCommitCoordinator dovrebbe annullare la fase quando il file di cui è stato eseguito il commit non è coerente con lo stato dell'attività.
  • [SPARK-40260] [SC-109424][sql] Usare classi di errore negli errori di compilazione di GROUP BY una posizione
  • [SPARK-40205] [SC-110144][sc-109082][SQL] Fornire un contesto di una query di ELEMENT_AT_BY_INDEX_ZERO
  • [SPARK-40112] [SC-109676][sql] Migliorare la funzione TO_BINARY()
  • [SPARK-40209] [SC-109081][sql] Non modificare il valore di intervallo decimale in changePrecision() in caso di errori
  • [SPARK-40319] [SC-109873][sql] Rimuovere il metodo di errore di esecuzione duplicato della query per PARSE_DATETIME_BY_NEW_PARSER
  • [SPARK-40222] [SC-109209][sql] Le operazioni numeriche try_add/try_divide/try_subtract/try_multiply devono sollevare errori dai loro sottoelementi.
  • [SPARK-40183] [SC-108907][sql] Utilizzare la classe di errore NUMERIC_VALUE_OUT_OF_RANGE per l'overflow nella conversione decimale
  • [SPARK-40180] [SC-109069][sql] Formattare i messaggi di errore per spark-sql
  • [SPARK-40153] [SC-109165][sql] Unifica le funzioni di risoluzione e le funzioni che restituiscono tabelle
  • [SPARK-40308] [SC-109880][sql] Consenti argomenti delimitatori non piegabili per str_to_map funzione
  • [SPARK-40219] [SC-110052][sc-109663][SQL] Il piano logico di visualizzazione risolto deve contenere lo schema per evitare ricerche ridondanti
  • [SPARK-40098] [SC-109939][sc-108693][SQL] Formattare i messaggi di errore nel server Thrift
  • [SPARK-39917] [SC-109038][sql] Usare classi di errore diverse per l'overflow aritmetico di numeri/intervalli
  • [SPARK-40033] [SC-109875][sql] Supporto per l'eliminazione annidata dello schema tramite element_at
  • [SPARK-40194] [SC-109660][sql] Funzione SPLIT su regex vuota deve troncare la stringa vuota finale.
  • [SPARK-40228] [SC-109835][sql] Non semplificare multiLike se figlio non è un'espressione economica
  • [SPARK-40039] [SC-109896][sc-109260][SS] Introduzione di una gestione file di checkpoint di streaming basata sull'interfaccia Abortable di Hadoop
  • [SPARK-40285] [SC-109679][sql] Semplificare le roundTo[Numeric] per Spark Decimal
  • [SPARK-39896] [SC-109658][sql] UnwrapCastInBinaryComparison dovrebbe funzionare quando il valore letterale del downcast In/InSet non è riuscito
  • [SPARK-40040] [SC-109662][sql] Applicare il limite locale su entrambi i lati se la condizione di join è vuota
  • [SPARK-40055] [SC-109075][sql] listCatalogs dovrebbe restituire anche spark_catalog, anche quando l'implementazione di spark_catalog è defaultSessionCatalog.
  • [SPARK-39915] [SC-109391][sql] Dataset.repartition(N) potrebbe non creare N partizioni nella parte non AQE
  • [SPARK-40207] [SC-109401][sql] Specificare il nome della colonna quando il tipo di dati non è supportato dall'origine dati
  • [SPARK-40245] [SC-109295][sql] Correzione del controllo di uguaglianza fileScan quando le colonne del filtro dati o della partizione non vengono lette
  • [SPARK-40113] [SC-109405][sql] Implementazioni dell'interfaccia DataSourceV2 di Reactor ParquetScanBuilder
  • [SPARK-40211] [SC-109226][core][SQL] Consenti la personalizzazione del numero di partizioni iniziali nel comportamento take()
  • [SPARK-40252] [SC-109379][sql] Sostituire Stream.collect(Collectors.joining) con StringJoiner API
  • [SPARK-40247] [SC-109272][sql] Correzione del controllo di uguaglianza BitSet
  • [SPARK-40067] [SQL] Usare Table#name() anziché Scan#name() per popolare il nome della tabella nel nodo BatchScan in SparkUI
  • [SPARK-39966] [SQL] Usare il filtro V2 in SupportsDelete
  • [SPARK-39607] [SC-109268][sql][DSV2] Distribuzione e ordinamento supportano la funzione V2 nella scrittura
  • [SPARK-40224] [SC-109271][sql] Rilasciare la memoria di ObjectHashAggregateExec prontamente quando si passa al fallback basato sull'ordinamento.
  • [SPARK-40013] [SQL] Le espressioni DS V2 devono avere l'impostazione predefinita toString
  • [SPARK-40214] [SC-109079][python][SQL] aggiungere 'get' alle funzioni
  • [SPARK-40192] [SC-109089][sql][ML] Rimuovere il groupby ridondante
  • [SPARK-40146] [SC-108694][sql] Semplificare la generazione di codice per ottenere il valore di una mappa
  • [SPARK-40109] [SQL] Nuova funzione SQL: get()
  • [SPARK-39929] [SQL] DS V2 supporta funzioni stringa push-down (non ANSI)
  • [SPARK-39819] [SQL] Il push verso il basso dell'aggregazione DS V2 può essere eseguito con top N o paging (ordinamento con espressioni)
  • [SPARK-40213] [SC-109077][sql] Supporto della conversione dei valori ASCII per i caratteri Latin-1
  • [SPARK-39887] [SQL] RemoveRedundantAliases deve mantenere gli alias che rendono univoco l'output dei nodi di proiezione
  • [SPARK-39764] [SQL] Rendere PhysicalOperation uguale a ScanOperation
  • [SPARK-39964] [SQL] Il pushdown di DS V2 deve unificare il percorso di traduzione
  • [SPARK-39528] [SQL] Utilizzare il filtro V2 nel SupportsRuntimeFiltering
  • [SPARK-40066] [SQL] modalità ANSI: restituisce sempre Null in caso di accesso non valido alla colonna di mapping
  • [SPARK-39912] [SPARK-39828][sql] Perfezionare CatalogImpl
  • [SPARK-39833] [SC-108736][sql] Disabilitare l'indice di colonna Parquet in DSv1 per risolvere un problema di correttezza nel caso di colonne di dati e partizione sovrapposte
  • [SPARK-39880] [SQL] V2 SHOW FUNCTIONS comando deve stampare il nome di funzione qualificato come v1
  • [SPARK-39767] [SQL] Rimuovere UnresolvedDBObjectName e aggiungere UnresolvedIdentifier
  • [SPARK-40163] [SC-108740][sql] feat: SparkSession.config(mappa)
  • [SPARK-40136] [SQL] Correggere il frammento di contesti SQL della query
  • [SPARK-40107] [SC-108689][sql] Estrarre la conversione da vuoto a nullo da FileFormatWriter
  • [SPARK-40121] [PYTHON][sql] Inizializzare la proiezione usata per la funzione UDF Python
  • [SPARK-40128] [SQL] Rendere vectorizedColumnReader riconoscere DELTA_LENGTH_BYTE_ARRAY come codifica di colonna autonoma
  • [SPARK-40132] [ML] Ripristinare rawPredictionCol in MultilayerPerceptronClassifier.setParams
  • [SPARK-40050] [SC-108696][sql] Migliorare EliminateSorts per supportare la rimozione degli ordinamenti tramite LocalLimit
  • [SPARK-39629] [SQL] Supporto v2 SHOW FUNCTIONS
  • [SPARK-39925] [SC-108734][sql] Aggiungere overload array_sort(column, comparator) alle operazioni del DataFrame
  • [SPARK-40117] [PYTHON][sql] Convertire la condizione in Java in DataFrameWriterV2.overwrite
  • [SPARK-40105] [SQL] Migliorare la ripartizione in ReplaceCTERefWithRepartition
  • [SPARK-39503] [SQL] Aggiungere il nome del catalogo sessione per la tabella e la funzione del database v1
  • [SPARK-39889] [SQL] Usare classi di errore diverse per l'intervallo/numerico diviso per 0
  • [SPARK-39741] [SQL] Supportare la codifica/decodifica dell'URL come funzione predefinita e riordinare le funzioni correlate all'URL
  • [SPARK-40102] [SQL] Usare SparkException anziché IllegalStateException in SparkPlan
  • [SPARK-40014] [SQL] Supporto per il cast di decimali in intervalli ANSI
  • [SPARK-39776] [SQL][follow] Aggiornamento UT di PlanStabilitySuite in modalità ANSI
  • [SPARK-39963] [SQL] Semplificare SimplifyCasts.isWiderCast

Aggiornamenti di manutenzione

Vedere Aggiornamenti della manutenzione di Databricks Runtime 11.3.

Ambiente di sistema

  • Sistema operativo: Ubuntu 20.04.5 LTS
    • Nota: questa è la versione ubuntu usata dai contenitori di Databricks Runtime. I contenitori di Databricks Runtime vengono eseguiti nelle macchine virtuali del provider di servizi cloud, che potrebbero usare una versione ubuntu diversa o una distribuzione Linux diversa.
  • Java: Zulu 8.56.0.21-CA-linux64
  • Scala: 2.12.14
  • Python: 3.9.21
  • R: 4.1.3
  • Delta Lake: 2.1.0

Librerie di Python installate

Libreria Versione Libreria Versione Libreria Versione
argon2-cffi 20.1.0 generatore asincrono 1.10 att. 21.2.0
chiamata di ritorno 0.2.0 backports.entry-points-selectable 1.1.1 nero 22.3.0
candeggiare 4.0.0 boto3 1.21.18 botocore 1.24.18
certificato 2021.10.8 cffi 1.14.6 chardet 4.0.0
normalizzatore di set di caratteri 2.0.4 fai clic 8.0.3 criptografia 3.4.8
ciclista 0.10.0 Cython, un linguaggio di programmazione 0.29.24 dbus-python 1.2.16
debugpy 1.4.1 Decoratore 5.1.0 defusedxml (una libreria per migliorare la sicurezza nell'elaborazione di XML) 0.7.1
distlib 0.3.6 punti di ingresso 0,3 facets-panoramica 1.0.0
blocco dei file 3.8.0 IDNA 3.2 ipykernel 6.12.1
ipython 7.32.0 ipython-genutils 0.2.0 ipywidgets (una libreria Python per widget interattivi) 7.7.0
jedi 0.18.0 Jinja2 2.11.3 jmespath 0.10.0
joblib 1.0.1 jsonschema 3.2.0 jupyter-client 6.1.12
jupyter-core 4.8.1 jupyterlab-pygments 0.1.2 jupyterlab-widgets 1.0.0
kiwisolver 1.3.1 MarkupSafe 2.0.1 matplotlib 3.4.3
matplotlib-inline 0.1.2 Mistune 0.8.4 mypy-extensions 0.4.3
nbclient 0.5.3 nbconvert 6.1.0 nbformat 5.1.3
nest-asyncio 1.5.1 taccuino 6.4.5 numpy 1.20.3
imballaggio 21.0 Panda 1.3.4 pandocfilters 1.4.3
parso 0.8.2 pathspec 0.9.0 vittima 0.5.2
pexpect 4.8.0 pickleshare (libreria di software Python) 0.7.5 Cuscino 8.4.0
seme 21.2.4 platformdirs 2.5.2 plotly (software di visualizzazione dati) 5.9.0
prometheus-client 0.11.0 prompt-toolkit 3.0.20 protobuf 4.21.5
psutil 5.8.0 psycopg2 2.9.3 ptyprocess 0.7.0
pyarrow 7.0.0 pycparser (un parser scritto in Python) 2.20 Pygments 2.10.0
PyGObject 3.36.0 pyodbc 4.0.31 pyparsing 3.0.4
pyrsistent 0.18.0 python-dateutil (libreria Python per la gestione delle date) 2.8.2 pytz 2021.3
pyzmq 22.2.1 richieste 2.26.0 requests-unixsocket 0.2.0
s3transfer 0.5.2 scikit-learn 0.24.2 scipy 1.7.1
Seaborn 0.11.2 Send2Trash 1.8.0 setuptools (pacchetto Python per gestire la configurazione e la distribuzione) 58.0.4
sei 1.16.0 ssh-import-id (comando per l'importazione di chiavi SSH) 5.10 statsmodels 0.12.2
tenacità 8.0.1 finito 0.9.4 percorso di prova 0.5.0
threadpoolctl 2.2.0 tokenize-rt 4.2.1 tomli 2.0.1
tornado 6.1 traitlets (una libreria per la configurazione dei parametri nei programmi Python) 5.1.0 tipizzazione di estensioni 3.10.0.2
aggiornamenti automatici senza supervisione 0,1 urllib3 1.26.7 virtualenv 20.8.0
wcwidth (funzione per determinare la larghezza dei caratteri) 0.2.5 codifiche web 0.5.1 ruota 0.37.0
widgetsnbextension 3.6.0

Librerie R installate

Le librerie R vengono installate dallo snapshot Microsoft CRAN nel 2022-09-08. Lo snapshot non è più disponibile.

Libreria Versione Libreria Versione Libreria Versione
askpass 1.1 assicura che 0.2.1 retroportazioni 1.4.1
base 4.1.3 base64enc 0.1-3 pezzo 4.0.4
bit 64 4.0.5 massa amorfa 1.2.3 stivale 1.3-28
fermentare 1.0-7 Brio 1.1.3 Scopa 1.0.1
bslib 0.4.0 cashmere 1.0.6 chiamante 3.7.2
Interpunzione 6.0-93 cellranger 1.1.0 cronometro 2.3-57
classe 7.3-20 CLI 3.3.0 Clipr 0.8.0
raggruppamento 2.1.3 strumenti per la codifica 0.2-18 spazio di colore 2.0-3
segno comune 1.8.0 compilatore 4.1.3 configurazione 0.3.1
cpp11 0.4.2 pastello 1.5.1 credenziali 1.3.2
curva 4.3.2 tabella di dati 1.14.2 Insiemi di dati 4.1.3
DBI 1.1.3 dbplyr 2.2.1 descrizione 1.4.1
strumenti per sviluppatori 2.4.4 diffobj 0.3.5 digerire 0.6.29
illuminazione rivolta verso il basso 0.4.2 dplyr 1.0.10 dtplyr 1.2.2
e1071 1.7-11 puntini di sospensione 0.3.2 valutare 0,16
fan 1.0.3 colori 2.1.1 mappatura veloce 1.1.0
fontawesome 0.3.0 forzati 0.5.2 foreach 1.5.2
straniero 0.8-82 forgiare 0.2.0 Fs 1.5.2
futuro 1.28.0 futuro.applicare 1.9.1 fare gargarismi 1.2.0
elementi generici 0.1.3 Gert 1.8.0 ggplot2 3.3.6
Gh 1.3.0 gitcreds 0.1.1 glmnet 4.1-4
elementi globali 0.16.1 colla 1.6.2 Google Drive 2.0.0
Googlesheets4 1.0.1 Gower 1.0.0 grafiche 4.1.3
grDispositivi 4.1.3 griglia 4.1.3 gridExtra 2.3
gsubfn 0,7 gtable 0.3.1 casco protettivo 1.2.0
rifugio 2.5.1 più alto 0.9 HMS 1.1.2
strumenti HTML 0.5.3 htmlwidgets 1.5.4 httpuv 1.6.5
httr 1.4.4 documenti di identità 1.0.1 ini 0.3.1
ipred 0.9-13 banderelle isografiche 0.2.5 Iteratori 1.0.14
jquerylib 0.1.4 jsonlite 1.8.0 KernSmooth 2.23-20
knitr 1,40 Etichettatura 0.4.2 più tardi 1.3.0
reticolo 0.20-45 lava 1.6.10 ciclo di vita 1.0.1
ascolta 0.8.0 lubridate 1.8.0 magrittr 2.0.3
Markdown 1.1 Massa 7.3-56 Matrice 1.4-1
memorizza 2.0.1 metodi 4.1.3 mgcv 1.8-40
mimo 0.12 miniUI 0.1.1.1 ModelMetrics 1.2.2.2
modelr 0.1.9 munsell 0.5.0 nlme 3.1-157
nnet 7.3-17 Derivazione numerica 2016.8-1.1 openssl 2.0.2
parallelo 4.1.3 parallelamente 1.32.1 Pilastro 1.8.1
pkgbuild 1.3.1 pkgconfig 2.0.3 pkgdown 2.0.6
pkgload 1.3.0 plogr 0.2.0 plyr 1.8.7
elogio 1.0.0 prettyunits 1.1.1 pROC 1.18.0
processx 3.7.0 prodlim 2019.11.13 profvis 0.3.7
Avanzamento 1.2.2 progressr 0.11.0 promesse 1.2.0.1
proto / prototipo 1.0.0 intermediario 0,4–27 P.S. 1.7.1
purrr 0.3.4 r2d3 0.2.6 R6 2.5.1
ragg 1.2.2 randomForest 4.7-1.1 rappdirs 0.3.3
rcmdcheck 1.4.0 RColorBrewer 1.1-3 Rcpp (una libreria per il linguaggio di programmazione R) 1.0.9
RcppEigen 0.3.3.9.2 readr 2.1.2 readxl (software per leggere documenti Excel) 1.4.1
ricette 1.0.1 nuovo incontro 1.0.1 rematch2 2.1.2
Telecomandi 2.4.2 esempio riproducibile (reprex) 2.0.2 reshape2 1.4.4
rlang 1.0.5 rmarkdown 2.16 RODBC 1.3-19
roxygen2 7.2.1 rpart 4.1.16 rprojroot 2.0.3
Rserve 1.8-11 RSQLite 2.2.16 rstudioapi 0.14
rversions 2.1.2 rvest 1.0.3 insolenza 0.4.2
Scalabilità 1.2.1 selettore 0,4-2 informazioni sulla sessione 1.2.2
Forma 1.4.6 brillante 1.7.2 sourcetools 0.1.7
sparklyr 1.7.8 SparkR 3.3.0 spaziale 7.3-11
Spline 4.1.3 sqldf 0,4-11 SQUAREM 2021.1
statistiche 4.1.3 statistiche4 4.1.3 perizoma 1.7.8
stringr 1.4.1 Sopravvivenza 3.4-0 sys 3.4
systemfonts 1.0.4 tcltk 4.1.3 testthat 3.1.4
modellazione del testo 0.3.6 Tibble 3.1.8 tidyr 1.2.0
tidyselect 1.1.2 tidyverse 1.3.2 data e ora 4021.104
tinytex 0,41 strumenti 4.1.3 tzdb 0.3.0
verificatore di URL 1.0.1 Usa questo 2.1.6 UTF8 1.2.2
Utilità 4.1.3 UUID (Identificatore Unico Universale) 1.1-0 vctrs 0.4.1
viridisLite 0.4.1 vrooom 1.5.7 Waldo 0.4.0
baffi 0.4 withr 2.5.0 xfun 0,32
xml2 1.3.3 xopen 1.0.0 xtable 1.8-4
yaml 2.3.5 formato zip 2.2.0

Librerie Java e Scala installate (versione cluster Scala 2.12)

ID gruppo ID dell'artefatto Versione
antlr antlr 2.7.7
com.amazonaws amazon-kinesis-client 1.12.0
com.amazonaws aws-java-sdk-autoscaling 1.12.189
com.amazonaws aws-java-sdk-cloudformation 1.12.189
com.amazonaws aws-java-sdk-cloudfront 1.12.189
com.amazonaws aws-java-sdk-cloudhsm 1.12.189
com.amazonaws aws-java-sdk-cloudsearch 1.12.189
com.amazonaws aws-java-sdk-cloudtrail 1.12.189
com.amazonaws aws-java-sdk-cloudwatch 1.12.189
com.amazonaws aws-java-sdk-cloudwatchmetrics 1.12.189
com.amazonaws aws-java-sdk-codedeploy 1.12.189
com.amazonaws aws-java-sdk-cognitoidentity 1.12.189
com.amazonaws aws-java-sdk-cognitosync 1.12.189
com.amazonaws aws-java-sdk-config (configurazione SDK Java per AWS) 1.12.189
com.amazonaws aws-java-sdk-core 1.12.189
com.amazonaws aws-java-sdk-datapipeline 1.12.189
com.amazonaws aws-java-sdk-directconnect (strumento per la connessione diretta in Java di AWS) 1.12.189
com.amazonaws aws-java-sdk-directory 1.12.189
com.amazonaws aws-java-sdk-dynamodb 1.12.189
com.amazonaws aws-java-sdk-ec2 1.12.189
com.amazonaws aws-java-sdk-ecs 1.12.189
com.amazonaws aws-java-sdk-efs 1.12.189
com.amazonaws aws-java-sdk-elasticache 1.12.189
com.amazonaws aws-java-sdk-elasticbeanstalk 1.12.189
com.amazonaws aws-java-sdk-elasticloadbalancing 1.12.189
com.amazonaws aws-java-sdk-elastictranscoder 1.12.189
com.amazonaws aws-java-sdk-emr 1.12.189
com.amazonaws AWS Java SDK per Glacier 1.12.189
com.amazonaws aws-java-sdk-glue (collegamento SDK Java AWS) 1.12.189
com.amazonaws aws-java-sdk-iam 1.12.189
com.amazonaws aws-java-sdk-importexport 1.12.189
com.amazonaws aws-java-sdk-kinesis 1.12.189
com.amazonaws aws-java-sdk-kms 1.12.189
com.amazonaws aws-java-sdk-lambda 1.12.189
com.amazonaws aws-java-sdk-logs 1.12.189
com.amazonaws AWS Java SDK Machine Learning 1.12.189
com.amazonaws aws-java-sdk-opsworks 1.12.189
com.amazonaws aws-java-sdk-rds 1.12.189
com.amazonaws aws-java-sdk-redshift 1.12.189
com.amazonaws aws-java-sdk-route53 1.12.189
com.amazonaws aws-java-sdk-s3 1.12.189
com.amazonaws aws-java-sdk-ses 1.12.189
com.amazonaws aws-java-sdk-simpledb 1.12.189
com.amazonaws aws-java-sdk-simpleworkflow 1.12.189
com.amazonaws aws-java-sdk-sns 1.12.189
com.amazonaws aws-java-sdk-sqs 1.12.189
com.amazonaws aws-java-sdk-ssm 1.12.189
com.amazonaws aws-java-sdk-storagegateway (SDK di AWS per Java per Storage Gateway) 1.12.189
com.amazonaws aws-java-sdk-sts 1.12.189
com.amazonaws aws-java-sdk-support (supporto del kit di sviluppo software Java per AWS) 1.12.189
com.amazonaws Librerie aws-java-sdk-swf 1.11.22
com.amazonaws aws-java-sdk-workspaces 1.12.189
com.amazonaws jmespath-java 1.12.189
com.chuusai shapeless_2.12 2.3.3
com.clearspring.analytics torrente 2.9.6
com.databricks Rserve 1.8-3
com.databricks jets3t 0.7.1-0
com.databricks.scalapb compilerplugin_2.12 0.4.15-10
com.databricks.scalapb scalapb-runtime_2.12 0.4.15-10
com.esotericsoftware ombreggiato criogenico 4.0.2
com.esotericsoftware minlog 1.3.0
com.fasterxml compagno di classe 1.3.4
com.fasterxml.jackson.core annotazioni jackson 2.13.4
com.fasterxml.jackson.core jackson-core 2.13.4
com.fasterxml.jackson.core jackson-databind 2.13.4
com.fasterxml.jackson.dataformat jackson-dataformat-cbor 2.13.4
com.fasterxml.jackson.datatype jackson-datatype-joda 2.13.4
com.fasterxml.jackson.datatype jackson-datatype-jsr310 2.13.4
com.fasterxml.jackson.module jackson-module-paranamer 2.13.4
com.fasterxml.jackson.module jackson-module-scala_2.12 2.13.4
com.github.ben-manes.caffeine caffeina 2.3.4
com.github.fommil jniloader 1.1
com.github.fommil.netlib nucleo 1.1.2
com.github.fommil.netlib riferimento_nativo-java 1.1
com.github.fommil.netlib native_ref-java-natives (riferimenti a nativi Java) 1.1
com.github.fommil.netlib sistema_nativo-java 1.1
com.github.fommil.netlib sistema_nativo-java-nitidi 1.1
com.github.fommil.netlib "netlib-native_ref-linux-x86_64-natives" 1.1
com.github.fommil.netlib netlib-sistema_nativo-linux-x86_64-natives 1.1
com.github.luben zstd-jni (libreria open-source per compressione con Java Native Interface) 1.5.2-1
com.github.wendykierp JTransforms 3.1
com.google.code.findbugs jsr305 3.0.0
com.google.code.gson gson 2.8.6
com.google.crypto.tink Tink 1.6.1
com.google.flatbuffers flatbuffers-java 1.12.0
com.google.guava guaiava 15,0
com.google.protobuf protobuf-java 2.6.1
com.h2database h2 2.0.204
com.helger profilatore 1.1.1
com.jcraft jsch 0.1.50
com.jolbox bonecp 0.8.0.RILASCIO
com.lihaoyi sourcecode_2.12 0.1.9
com.microsoft.azure Azure Data Lake Store SDK 2.3.9
com.microsoft.sqlserver mssql-jdbc 9.2.1.jre8
com.ning compress-lzf (algoritmo di compressione) 1.1
com.sun.mail javax.mail (package Java per la gestione della posta elettronica) 1.5.2
com.tdunning JSON 1.8
com.thoughtworks.paranamer paranamer 2.8
com.trueaccord.lenses lenti_2.12 0.4.12
com.twitter chill-java 0.10.0
com.twitter chill_2.12 0.10.0
com.twitter util-app_2.12 7.1.0
com.twitter util-core_2.12 7.1.0
com.twitter util-function_2.12 7.1.0
com.twitter util-jvm_2.12 7.1.0
com.twitter util-lint_2.12 7.1.0
com.twitter util-registry_2.12 7.1.0
com.twitter util-stats_2.12 7.1.0
com.typesafe configurazione 1.2.1
com.typesafe.scala-logging scala-logging_2.12 (libreria per la gestione dei log in Scala, versione 2.12) 3.7.2
com.uber h3 3.7.0
com.univocity univocità-parser 2.9.1
com.zaxxer HikariCP 4.0.3
commons-cli commons-cli 1.5.0
commons-codec (libreria per la codifica comune) commons-codec (libreria per la codifica comune) 1.15
collezioni-comuni collezioni-comuni 3.2.2
commons-dbcp commons-dbcp 1.4
funzione di caricamento file dei Commons funzione di caricamento file dei Commons 1.3.3
commons-httpclient commons-httpclient 3.1
commons-io commons-io 2.11.0
commons-lang commons-lang 2.6
commons-logging (no translation needed) commons-logging (no translation needed) 1.1.3
commons-pool commons-pool 1.5.4
dev.ludovic.netlib arpack 2.2.1
dev.ludovic.netlib Blas 2.2.1
dev.ludovic.netlib LAPACK 2.2.1
info.ganglia.gmetric4j gmetric4j 1.0.10
io.airlift compressore d'aria 0.21
io.delta delta-sharing-spark_2.12 0.5.1
io.dropwizard.metrics nucleo delle metriche 4.1.1
io.dropwizard.metrics metrics-graphite 4.1.1
io.dropwizard.metrics metriche-controlli di salute 4.1.1
io.dropwizard.metrics metrics-jetty9 4.1.1
io.dropwizard.metrics metrics-jmx 4.1.1
io.dropwizard.metrics metrics-json (Specificare ulteriormente se necessario a seconda del contesto) 4.1.1
io.dropwizard.metrics metrics-jvm 4.1.1
io.dropwizard.metrics metriche-servlet 4.1.1
io.netty netty-all 4.1.74.Final
io.netty netty-buffer 4.1.74.Final
io.netty netty-codec 4.1.74.Final
io.netty netty-common 4.1.74.Final
io.netty netty-handler 4.1.74.Final
io.netty netty-resolver 4.1.74.Final
io.netty netty-tcnative-classes 2.0.48.Final
io.netty netty-transport 4.1.74.Final
io.netty netty-transport-classes-epoll 4.1.74.Final
io.netty netty-transport-classes-kqueue 4.1.74.Final
io.netty netty-transport-native-epoll-linux-aarch_64 4.1.74.Final
io.netty netty-transport-native-epoll-linux-x86_64 4.1.74.Final
io.netty netty-transport-native-kqueue-osx-aarch_64 4.1.74.Final
io.netty netty-transport-native-kqueue-osx-x86_64 4.1.74.Final
io.netty netty-transport-native-unix-comune 4.1.74.Final
io.prometheus simpleclient 0.7.0
io.prometheus sempliceclient_comune 0.7.0
io.prometheus simpleclient_dropwizard 0.7.0
io.prometheus simpleclient_pushgateway 0.7.0
io.prometheus simpleclient_servlet 0.7.0
io.prometheus.jmx agente di raccolta 0.12.0
jakarta.annotation jakarta.annotation-api 1.3.5
jakarta.servlet jakarta.servlet-api 4.0.3
jakarta.validation jakarta.validation-api 2.0.2
jakarta.ws.rs jakarta.ws.rs-api 2.1.6
javax.activation attivazione 1.1.1
javax.annotation javax.annotation-api 1.3.2
javax.el javax.el-api 2.2.4
javax.jdo jdo-api 3.0.1
javax.transaction Java Transaction API (JTA) 1.1
javax.transaction API per le transazioni 1.1
javax.xml.bind jaxb-api 2.2.11
javolution javolution 5.5.1
jline jline 2.14.6
joda-time joda-time 2.10.13
net.java.dev.jna jna 5.8.0
net.razorvine sottaceto 1,2
net.sf.jpam jpam 1.1
net.sf.opencsv opencsv 2.3
net.sf.supercsv super-csv (formato CSV avanzato) 2.2.0
net.snowflake snowflake-ingest-sdk (kit di sviluppo software per l'ingestione dati) 0.9.6
net.snowflake snowflake-jdbc 3.13.14
net.sourceforge.f2j arpack_combinato_tutto 0,1
org.acplt.remotetea remotetea-oncrpc 1.1.2
org.antlr ST4 4.0.4
org.antlr antlr-runtime 3.5.2
org.antlr antlr4-runtime 4.8
org.antlr modello di stringa 3.2.1
org.apache.ant formica 1.9.2
org.apache.ant ant-jsch 1.9.2
org.apache.ant ant launcher 1.9.2
org.apache.arrow formato a freccia 7.0.0
org.apache.arrow arrow-nucleo-di-memoria 7.0.0
org.apache.arrow arrow-memory-netty 7.0.0
org.apache.arrow freccia-vettore 7.0.0
org.apache.avro Avro 1.11.0
org.apache.avro avro-ipc 1.11.0
org.apache.avro avro-mapred 1.11.0
org.apache.commons commons-collections4 4.4
org.apache.commons commons-compress 1.21
org.apache.commons commons-crypto 1.1.0
org.apache.commons commons-lang3 3.12.0
org.apache.commons commons-math3 3.6.1
org.apache.commons testo comune 1.9
org.apache.curator curatore-cliente 2.13.0
org.apache.curator curator-framework 2.13.0
org.apache.curator ricette curatori 2.13.0
org.apache.derby derby sportivo 10.14.2.0
org.apache.hadoop hadoop-client-api 3.3.4-databricks
org.apache.hadoop runtime del client Hadoop 3.3.4
org.apache.hive hive-beeline 2.3.9
org.apache.hive hive-cli 2.3.9
org.apache.hive Hive-JDBC 2.3.9
org.apache.hive hive-llap-client 2.3.9
org.apache.hive hive-llap-common 2.3.9
org.apache.hive hive-serde 2.3.9
org.apache.hive spessori del sistema Hive 2.3.9
org.apache.hive API di archiviazione Hive 2.7.2
org.apache.hive.shims hive-shims-0.23 2.3.9
org.apache.hive.shims Hive-shims-common 2.3.9
org.apache.hive.shims hive-shims-scheduler 2.3.9
org.apache.httpcomponents httpclient 4.5.13
org.apache.httpcomponents httpcore 4.4.14
org.apache.ivy Edera 2.5.0
org.apache.logging.log4j log4j-1.2-api 2.18.0
org.apache.logging.log4j log4j-api 2.18.0
org.apache.logging.log4j log4j-core 2.18.0
org.apache.logging.log4j log4j-slf4j-impl 2.18.0
org.apache.mesos mesos-shaded-protobuf 1.4.0
org.apache.orc orc-core 1.7.6
org.apache.orc orc-mapreduce 1.7.6
org.apache.orc orc-shims 1.7.6
org.apache.parquet colonna parquet 1.12.0-databricks-0007
org.apache.parquet parquet-comune 1.12.0-databricks-0007
org.apache.parquet codifica parquet 1.12.0-databricks-0007
org.apache.parquet strutture del formato Parquet 1.12.0-databricks-0007
org.apache.parquet parquet-hadoop 1.12.0-databricks-0007
org.apache.parquet parquet-jackson 1.12.0-databricks-0007
org.apache.thrift libfb303 0.9.3
org.apache.thrift libthrift 0.12.0
org.apache.xbean xbean-asm9-shaded 4.20
org.apache.yetus annotazioni del pubblico 0.5.0
org.apache.zookeeper guardiano dello zoo 3.6.2
org.apache.zookeeper guardiano dello zoo-juta 3.6.2
org.checkerframework verificatore qualità 3.5.0
org.codehaus.jackson jackson-core-asl 1.9.13
org.codehaus.jackson jackson-mapper-asl 1.9.13
org.codehaus.janino Commons-Compiler 3.0.16
org.codehaus.janino janino 3.0.16
org.datanucleus datanucleus-api-jdo 4.2.4
org.datanucleus datanucleus-core 4.1.17
org.datanucleus datanucleus-rdbms 4.1.19
org.datanucleus javax.jdo 3.2.0-m3
org.eclipse.jetty jetty-client 9.4.46.v20220331
org.eclipse.jetty continuazione di jetty 9.4.46.v20220331
org.eclipse.jetty jetty-http 9.4.46.v20220331
org.eclipse.jetty jetty-io 9.4.46.v20220331
org.eclipse.jetty jetty-jndi 9.4.46.v20220331
org.eclipse.jetty Jetty Plus 9.4.46.v20220331
org.eclipse.jetty jetty-proxy 9.4.46.v20220331
org.eclipse.jetty sicurezza del molo 9.4.46.v20220331
org.eclipse.jetty Jetty Server 9.4.46.v20220331
org.eclipse.jetty jetty-servlet 9.4.46.v20220331
org.eclipse.jetty jetty-servlets 9.4.46.v20220331
org.eclipse.jetty jetty-util 9.4.46.v20220331
org.eclipse.jetty jetty-util-ajax 9.4.46.v20220331
org.eclipse.jetty applicazione web di Jetty 9.4.46.v20220331
org.eclipse.jetty jetty-xml 9.4.46.v20220331
org.eclipse.jetty.websocket WebSocket-API 9.4.46.v20220331
org.eclipse.jetty.websocket cliente WebSocket 9.4.46.v20220331
org.eclipse.jetty.websocket websocket-comune 9.4.46.v20220331
org.eclipse.jetty.websocket websocket-server 9.4.46.v20220331
org.eclipse.jetty.websocket websocket-servlet 9.4.46.v20220331
org.fusesource.leveldbjni leveldbjni-all 1.8
org.glassfish.hk2 hk2-api 2.6.1
org.glassfish.hk2 hk2-localizzatore 2.6.1
org.glassfish.hk2 hk2-utils 2.6.1
org.glassfish.hk2 localizzatore di risorse OSGi 1.0.3
org.glassfish.hk2.external aopalliance-repackaged (riconfezionato) 2.6.1
org.glassfish.hk2.external jakarta.inject 2.6.1
org.glassfish.jersey.containers jersey-container-servlet (servlet del contenitore Jersey) 2.36
org.glassfish.jersey.containers modulo-nucleo-servlet-contenitore-jersey (if a translation is required as per the context) 2.36
org.glassfish.jersey.core jersey-client 2.36
org.glassfish.jersey.core maglia-comune 2.36
org.glassfish.jersey.core Jersey-server 2.36
org.glassfish.jersey.inject jersey-hk2 2.36
org.hibernate.validator validatore di Hibernate 6.1.0.Final
org.javassist javassist 3.25.0-GA
org.jboss.logging jboss-logging (strumento di registrazione per JBoss) 3.3.2.Finale
org.jdbi jdbi 2.63.1
org.jetbrains annotazioni 17.0.0
org.joda joda-convert 1.7
org.jodd jodd-core 3.5.2
org.json4s json4s-ast_2.12 3.7.0-M11
org.json4s json4s-core_2.12 3.7.0-M11
org.json4s json4s-jackson_2.12 3.7.0-M11
org.json4s json4s-scalap_2.12 3.7.0-M11
org.lz4 lz4-java 1.8.0
org.mariadb.jdbc mariadb-java-client - Libreria Java per MariaDB 2.7.4
org.mlflow mlflow-spark 1.27.0
org.objenesis objenesis 2.5.1
org.postgresql postgresql 42.3.3
org.roaringbitmap RoaringBitmap 0.9.25
org.roaringbitmap Lamine distanziatrici 0.9.25
org.rocksdb rocksdbjni 6.24.2
org.rosuda.REngine REngine 2.1.0
org.scala-lang scala-compiler_2.12 2.12.14
org.scala-lang scala-library_2.12 2.12.14
org.scala-lang scala-reflect_2.12 2.12.14
org.scala-lang.modules scala-collection-compat_2.12 2.4.3
org.scala-lang.modules scala-parser-combinators_2.12 1.1.2
org.scala-lang.modules scala-xml_2.12 1.2.0
org.scala-sbt interfaccia di prova 1.0
org.scalacheck scalacheck_2.12 1.14.2
org.scalactic scalactic_2.12 3.0.8
org.scalanlp breeze-macros_2.12 1,2
org.scalanlp breeze_2.12 1,2
org.scalatest scalatest_2.12 3.0.8
org.slf4j jcl-over-slf4j 1.7.36
org.slf4j jul-to-slf4j 1.7.36
org.slf4j slf4j-api 1.7.36
org.spark-project.spark inutilizzato 1.0.0
org.threeten threeten-extra 1.5.0
org.tukaani xz 1.8
org.typelevel algebra_2.12 2.0.1
org.typelevel cats-kernel_2.12 2.1.1
org.typelevel macro-compat_2.12 1.1.1
org.typelevel spire-macros_2.12 0.17.0
org.typelevel spire-platform_2.12 0.17.0
org.typelevel spire-util_2.12 0.17.0
org.typelevel spire_2.12 0.17.0
org.wildfly.openssl wildfly-openssl 1.0.7.Finale
org.xerial sqlite-jdbc 3.8.11.2
org.xerial.snappy snappy-java 1.1.8.4
org.yaml snakeyaml 1.24
oro oro 2.0.8
pl.edu.icm JLargeArrays 1,5
software.amazon.ion ion-java 1.0.2
Stax stax-api 1.0.1