Condividi tramite


Novità in arrivo

Informazioni sulle funzionalità e sulle modifiche comportamentali nelle prossime versioni di Azure Databricks.

ai_parse_document presto sarà disponibile per impostazione predefinita per le aree di lavoro con il profilo di sicurezza di conformità abilitato

ai_parse_document sarà disponibile per impostazione predefinita per le aree di lavoro con il profilo di sicurezza della conformità abilitato e i controlli HIPAA, HITRUST, C5 e TISAX selezionati a metà maggio 2026.

Usare ai_parse_document per analizzare contenuto strutturato da documenti non strutturati, inclusi pdf, immagini, documenti Word e file PowerPoint.

Vedi la funzione ai_parse_document.

Modifica di rilievo imminente: il filtro di riga ABAC e la valutazione della maschera di colonna per le visualizzazioni e le funzioni passeranno all'identità della sessione

A partire dalla fine di aprile, il Catalogo Unity valuterà i filtri di riga dell'ABAC e le maschere di colonna sulle tabelle a cui si accede tramite visualizzazioni e funzioni usando l'identità dell'utente della sessione, ossia l'identità della persona che esegue la query, anziché l'identità del proprietario della vista o della funzione. Questa modifica semplifica la comprensione del comportamento dei criteri e lo allinea a come Azure Databricks gestisce la sicurezza delle righe a livello di tabella e il mascheramento delle colonne.

Questa modifica non influisce sulla modalità di controllo dell'accesso alle tabelle sottostanti. Gli utenti che eseguono query tramite viste e funzioni non necessitano ancora di privilegi diretti per tali tabelle.

Chi è interessato: questa modifica interessa i clienti che eseguono query su tabelle protette dal controllo degli accessi in base al ruolo (tabelle con filtri di riga o maschere di colonna) tramite viste o funzioni. Azure Databricks verrà contattato attivamente per identificare i clienti che potrebbero usare questo modello.

  • Se Azure Databricks ha contattato l'utente come cliente potenzialmente interessato: è stato concesso un periodo di tolleranza di tre mesi per adattare le politiche. Durante questa finestra, è possibile acconsentire esplicitamente al nuovo comportamento usando gradualmente un'impostazione a livello di account o un campo per criterio nell'API di creazione/aggiornamento. Azure Databricks fornirà un notebook diagnostico per aiutarti a identificare le visualizzazioni e le funzioni nel tuo account che fanno riferimento a tabelle protette dal controllo degli accessi basato sugli attributi (ABAC) e verificare che i criteri producano i risultati di accesso previsti secondo il nuovo comportamento.
  • Se non si è contattati da Azure Databricks o si è un nuovo cliente dopo il lancio previsto alla fine di aprile: il nuovo comportamento di identità della sessione diventa l'impostazione predefinita per l'account alla fine di aprile. Non è necessaria alcuna azione.

Vedere Il controllo degli accessi basato sugli attributi del catalogo Unity.

Modifica comportamentale imminente: VOID colonne incluse nelle letture delle tabelle Delta

A metà giugno 2026 Delta Lake supporterà completamente le colonne VOID. In precedenza, VOID le colonne venivano ignorate automaticamente dalle letture del dataframe basate sul percorso (ad esempio , spark.read.format("delta").load(path)) e dalle query di spostamento temporale. Dopo questa modifica, queste query includono VOID colonne nell'output.

Le query che dipendono dal numero di colonne o dalla posizione, ad esempio INSERT INTO ... SELECT *, potrebbero non riuscire o produrre risultati non corretti dopo questa modifica. Esaminare eventuali query che estraggono dati da tabelle Delta Lake con colonne VOID per garantire che le colonne aggiuntive siano gestite correttamente.

Vedere VOID tipo.

Modifica di rilievo imminente: comportamento predefinito durante l'eliminazione di una pipeline del catalogo Unity

In una versione futura, il comportamento predefinito durante l'eliminazione di una pipeline del catalogo Unity cambierà. Attualmente, l'eliminazione di una pipeline rimuove anche tutte le viste materializzate associate, le tabelle di streaming e le viste. Dopo questa modifica, le tabelle associate verranno mantenute, ma inattive dopo la rimozione della pipeline. L'API cambierà anche per conservare le tabelle per impostazione predefinita, ma impostando il campo cascade su true si esegue l'override e si mantiene il comportamento corrente.

Il cascade campo è ora disponibile. Per mantenere il comportamento corrente della rimozione di tutte le tabelle durante l'eliminazione di una pipeline, aggiornare il codice per impostare cascade=true.

Vedere Eliminare una pipeline ed Eliminare una pipeline.

La distribuzione basata su Git per Le app Databricks sarà presto disponibile per le aree di lavoro con il profilo di sicurezza di conformità abilitato

All'inizio di maggio 2026, la distribuzione basata su Git per Databricks Apps verrà abilitata automaticamente per le aree di lavoro con il profilo di sicurezza di conformità abilitato. Distribuire le app direttamente da un repository Git per semplificare il flusso di lavoro CI/CD.

Vedere Distribuire un'app Databricks.

Nuovo abilitazione predefinita dell'editor SQL e ritiro dell'editor SQL legacy

Il nuovo editor SQL è disponibile a livello generale a partire da ottobre 2025. Nell'ambito della transizione al nuovo editor, sono pianificate le modifiche seguenti:

  • A partire dalla fine di maggio 2026: il nuovo editor SQL verrà abilitato per impostazione predefinita per tutte le aree di lavoro. La possibilità di disattivare la funzionalità a livello di area di lavoro non sarà più disponibile. I singoli utenti potranno comunque passare le query all'editor SQL legacy dopo l'inizio di questo periodo.
  • A partire dalla fine di luglio 2026: l'editor SQL legacy verrà ritirato. Tutti gli utenti useranno il nuovo editor SQL e il singolo rifiuto esplicito non sarà più disponibile.

Per altre informazioni sul nuovo editor SQL, vedere Scrivere query ed esplorare i dati nel nuovo editor SQL. Per domande su questa transizione, contattare il tuo team account.

Cambio dell'ordinamento dell'API List Dashboards

In una versione futura, una nuova versione dell'API List Dashboards modificherà l'ordinamento dei risultati. I dashboard verranno restituiti in ordine cronologico inverso in base alla data dell'ultima modifica, con il dashboard modificato più di recente, anziché alfabeticamente per titolo.

Si tratta di una modifica significativa per gli utenti che impaginano i risultati usando next_page_token. I token generati da una versione precedente dell'API non sono validi con la nuova versione. Se si usa un token di una versione precedente, l'API restituisce un errore:

Invalid page_token: this token was generated by a previous/different API version. Please retry without page_token.

Per continuare la paginazione dopo questa modifica, avviare una nuova richiesta senza next_page_token.

Lakebase verrà abilitato per impostazione predefinita per le aree di lavoro con il profilo di sicurezza di conformità

A partire dal 30 aprile 2026, Lakebase sarà abilitato come impostazione predefinita per le aree di lavoro con il profilo di sicurezza della conformità quando lo standard di conformità è impostato su HIPAA, C5, TISAX o Nessuno.

Vedere Conformità di Lakebase.

Modifiche ai token di destinatario Delta Sharing aperti

La Delta Sharing per i destinatari aperti passerà a un nuovo formato di URL specifico per ciascun destinatario. La data di transizione è stata aggiornata ed è ora il 1° luglio 2026. I nuovi token creati il 1° luglio 2026 useranno automaticamente il nuovo formato url. Questa modifica migliora la sicurezza di rete e consente ai destinatari di configurare criteri di rete e regole del firewall specifici dei destinatari.

Per Azure Cina, la transizione verrà annunciata in un secondo momento.

I nuovi URL includono l'ID destinatario nel dominio:

https://<recipient-id>.delta-sharing.westus.azuredatabricks.net/api/2.0/delta-sharing/metastores/<metastore-id>

Per riferimento, gli URL creati prima di questa modifica non contengono l'ID destinatario.

https://westus.azuredatabricks.net/api/2.0/delta-sharing/metastores/<metastore-id>

Gli URL precedenti continueranno a funzionare per un periodo di tempo. La durata specifica dipende dal tipo di destinatario e dalla data di creazione del token. I provider di dati devono passare al nuovo formato URL prima che il formato dell'URL precedente non sia valido.

Condivisione della federazione OIDC:

I provider di dati devono verificare che i destinatari usino il nuovo formato URL prima del 1° luglio 2027. A partire dal 1° luglio 2026, i provider possono trovare il nuovo URL nell'interfaccia utente di Condivisione delta. Dopo il 1° luglio 2027, il formato dell'URL precedente non sarà valido.

Condivisione di token di autenticazione:

Data di creazione del token Formato di URL Data di scadenza del token Azione consigliata
Prima del 1° luglio 2026 Formato precedente Un anno dalla data di creazione o dall'8 dicembre 2026, a qualsiasi data in futuro I provider di dati devono ruotare i token prima della scadenza per eseguire la migrazione al nuovo formato URL. Per fornire ai destinatari il tempo di migrazione, configurare una finestra di inattività impostando una data di scadenza per il token corrente durante la rotazione. Durante questo periodo sono supportati sia i formati di URL vecchi che nuovi.
Dopo il 1° luglio 2026 Nuovo formato In base alla configurazione, fino a un anno dalla data di creazione. Nessuno

La classificazione dei dati sarà presto disponibile per impostazione predefinita per alcune aree di lavoro con il profilo di sicurezza di conformità abilitato

A metà marzo 2026, la classificazione dei dati sarà disponibile per impostazione predefinita per le aree di lavoro con il profilo di sicurezza di conformità abilitato e i controlli HIPAA selezionati.

Il supporto per EventBridge sarà presto disponibile per le code destinate agli eventi di file.

Alla fine di febbraio 2026, il supporto per EventBridge sarà disponibile per gli eventi di file tramite code dedicate nelle posizioni S3. Attualmente, gli eventi di file possono essere configurati solo tramite SNS o instradando gli eventi di archiviazione direttamente a SQS.

Vedi Uso di una coda fornita per S3.

L'agente supervisore sarà presto disponibile per impostazione predefinita per i clienti con sicurezza e conformità avanzata

L'agente supervisore sarà presto disponibile per impostazione predefinita per le aree di lavoro con il profilo di sicurezza della conformità abilitato e i controlli HIPAA selezionati.

Usare l'agente supervisore per creare un sistema di supervisione multi-agente che orchestra gli agenti e gli strumenti di intelligenza artificiale per lavorare insieme su attività complesse.

Vedere Usare l'agente supervisore per creare un sistema multi-agente coordinato.

Nuova logica di suddivisione per le tabelle della cronologia dei lavori

A partire dal 19 gennaio 2026, le tabelle della cronologia dei lavori adotteranno una nuova logica di sezionamento allineata all'ora. Le sezioni temporali ora sono allineate ai limiti dell'ora standard (5:00-6:00, 6:00-7:00 e così via) anziché in base agli intervalli di un'ora dall'inizio dell'esecuzione. Le nuove righe useranno la nuova logica di sezionamento, mentre le righe esistenti rimangono invariate.

Vedere Logica di sezionamento allineata all'ora.

Aggiornamenti della navigazione di Catalog Explorer

Esplora cataloghi riceverà presto miglioramenti per la navigazione per semplificare i flussi di lavoro e facilitare l'individuazione e la gestione degli asset di dati in modo più efficiente.

Navigazione semplificata:

La scheda Cataloghi duplicati viene rimossa per ridurre la ridondanza e concentrarsi su una singola superficie di spostamento del catalogo. Le azioni DBFS e Invia feedback si spostano nel menu dell'icona kebab per un layout più pulito.

Nuova sezione Suggerita:

Una nuova scheda Suggerita nella pagina di destinazione esplora cataloghi evidenzia gli oggetti usati di frequente, gli oggetti di esempio per gli utenti per la prima volta e i preferiti degli utenti. In questo modo è possibile interagire rapidamente con asset importanti o individuare punti di partenza utili.

Punti di ingresso consolidati:

Le funzionalità correlate sono raggruppate in categorie più chiare per ridurre il rumore visivo e migliorare la individuabilità:

  • Govern – punto di ingresso per tag regolati, amministrazione metastore e classificazione dei dati
  • Connetti : punti di ingresso per posizioni esterne, dati esterni, credenziali e connessioni
  • Condivisione : punti di ingresso per Delta Sharing e le Stanze Pulite

Questi raggruppamenti sostituiscono sotto-tabulazioni sparse e creano un'architettura delle informazioni più intuitiva e scalabile.

Condivisione e archiviazione predefinita di Lakehouse Federation

La Delta Sharing su Lakehouse Federation è in versione beta, consentendo ai provider di dati per Delta Sharing di condividere cataloghi e tabelle esterne. Per impostazione predefinita, i dati devono essere temporaneamente materializzati e archiviati nell'archiviazione predefinita (anteprima privata). Attualmente, gli utenti devono abilitare manualmente la funzionalità Condivisione delta per l'archiviazione predefinita - Accesso espanso nella console dell'account per usare la condivisione di Lakehouse Federation.

Dopo Delta Sharing for Default Storage – Expanded Access è abilitato per impostazione predefinita per tutti gli utenti Azure Databricks, La condivisione Delta in Lakehouse Federation sarà automaticamente disponibile nelle aree in cui è supportata l'archiviazione predefinita.

Vedere Archiviazione predefinita in Databricks e Aggiungere schemi o tabelle esterne a una condivisione.

Notifica di ricaricamento nelle aree di lavoro

In una versione futura, verrà visualizzato un messaggio per ricaricare la scheda dell'area di lavoro se la scheda dell'area di lavoro è stata aperta per molto tempo senza aggiornare. Ciò consentirà di assicurarsi di usare sempre la versione più recente di Databricks con le funzionalità e le correzioni più recenti.

Il Delta Sharing per le tabelle sullo storage predefinito verrà abilitato di default a breve (Beta)

Questo aggiornamento di archiviazione predefinita per Delta Sharing ha ampliato le funzionalità di condivisione, consentendo ai provider di condividere tabelle supportate dall'archiviazione predefinita con qualsiasi destinatario di Delta Sharing (open o Azure Databricks), inclusi i destinatari che utilizzano il computing classico. Questa funzionalità è attualmente in versione beta e richiede ai provider di abilitare manualmente la condivisione delta per l'archiviazione predefinita - Accesso espanso nella console dell'account. A breve, questa opzione verrà abilitata per impostazione predefinita per tutti gli utenti.

Vedere Limitazioni.

Aggiornamenti agli indirizzi IP pubblici del piano di controllo esterno

Azure Databricks sta aggiornando gli indirizzi IP pubblici del piano di controllo in uscita e i tag di servizio di Azure per migliorare la sicurezza e la disponibilità delle zone. Queste modifiche fanno parte di un aggiornamento del piano di controllo che ha iniziato l'implementazione il 20 maggio 2025.

Se l'organizzazione usa firewall delle risorse per controllare l'accesso in ingresso:

  • Se le regole del firewall fanno riferimento al tag Azure Databricks service, non è necessaria alcuna azione.
  • Se si consentono indirizzi IP pubblici specifici del piano di controllo, è necessario aggiungere tutti gli INDIRIZZI IP del piano di controllo in uscita entro il 26 settembre 2025.

Gli indirizzi IP del piano di controllo uscente precedenti continuano a essere supportati.

Modifica del comportamento dell'opzione di elenco delle directory incrementale del caricatore automatico

Annotazioni

L'opzione cloudFiles.useIncrementalListing del Caricatore Automatico è obsoleta. Anche se questa nota illustra una modifica al valore predefinito delle opzioni e come continuare a usarla dopo questa modifica, Databricks sconsiglia di utilizzare questa opzione a favore della modalità di notifica file con eventi file.

In una futura versione di Databricks Runtime, il valore dell'opzione Auto Loader ormai obsoleta verrà impostato su cloudFiles.useIncrementalListing per impostazione predefinita. L'impostazione di questo valore su false fa sì che il caricatore automatico esegua un elenco di directory completo ogni volta che viene eseguito. Attualmente, il valore predefinito dell'opzione cloudFiles.useIncrementalListing è auto, istruendo il caricatore automatico a fare un tentativo migliore per rilevare se un elenco incrementale può essere utilizzato con una directory.

Per continuare a usare la funzionalità di elenco incrementale, impostare l'opzione cloudFiles.useIncrementalListing su auto. Quando si imposta questo valore su auto, Il caricatore automatico tenta di eseguire un elenco completo una volta ogni sette elenchi incrementali, che corrisponde al comportamento di questa opzione prima di questa modifica.

Per altre informazioni sull'elenco di directory di Auto Loader, vedere Configurare i flussi di Auto Loader in modalità elenco directory.

Modifica del comportamento quando le definizioni dei set di dati vengono rimosse dalle pipeline dichiarative di Lakeflow Spark

Una versione futura delle pipeline dichiarative di Lakeflow Spark modificherà il comportamento quando una vista materializzata o una tabella di streaming viene rimossa da una pipeline. Con questa modifica, la vista materializzata rimossa o la tabella di streaming non verranno eliminate automaticamente quando viene eseguito l'aggiornamento della pipeline successivo. Sarà invece possibile usare il comando DROP MATERIALIZED VIEW per eliminare una vista materializzata o il comando DROP TABLE per eliminare una tabella di streaming. Dopo l'eliminazione di un oggetto, l'esecuzione di un aggiornamento della pipeline non recupererà automaticamente l'oggetto. Viene creato un nuovo oggetto se una vista materializzata o una tabella di streaming con la stessa definizione viene nuovamente aggiunta alla pipeline. È tuttavia possibile recuperare un oggetto usando il comando UNDROP.

Il campo sourceIpAddress nei log di controllo non includerà più un numero di porta

A causa di un bug, alcuni log di controllo di autorizzazione e autenticazione includono un numero di porta oltre all'Indirizzo IP nel campo sourceIPAddress (ad esempio, "sourceIPAddress":"10.2.91.100:0"). Il numero di porta, registrato come 0, non fornisce alcun valore reale ed è incoerente con il resto dei log di controllo di Databricks. Per migliorare la coerenza dei log di controllo, Databricks ha in programma di modificare il formato dell'indirizzo IP per questi eventi del log di controllo. Questa modifica verrà implementata gradualmente a partire da inizio agosto 2024.

Se il log di controllo contiene un sourceIpAddress di 0.0.0.0, Databricks potrebbe interrompere il log.