Nota
L'accesso a questa pagina richiede l'autorizzazione. È possibile provare ad accedere o modificare le directory.
L'accesso a questa pagina richiede l'autorizzazione. È possibile provare a modificare le directory.
Informazioni sulle funzionalità e sulle modifiche comportamentali nelle prossime versioni di Azure Databricks.
La distribuzione basata su Git per Le app Databricks sarà presto disponibile per le aree di lavoro con il profilo di sicurezza di conformità abilitato
All'inizio di maggio 2026, la distribuzione basata su Git per Databricks Apps verrà abilitata automaticamente per le aree di lavoro con il profilo di sicurezza di conformità abilitato. Distribuire le app direttamente da un repository Git per semplificare il flusso di lavoro CI/CD.
Vedere Distribuire un'app Databricks.
Cambio dell'ordinamento dell'API List Dashboards
In una versione futura il 6 aprile 2026, una nuova versione dell'API List Dashboards modificherà l'ordinamento dei risultati. I dashboard verranno restituiti in ordine cronologico inverso in base alla data dell'ultima modifica, con il dashboard modificato più di recente, anziché alfabeticamente per titolo.
Si tratta di una modifica significativa per gli utenti che impaginano i risultati usando next_page_token. I token generati da una versione precedente dell'API non sono validi con la nuova versione. Se si usa un token di una versione precedente, l'API restituisce un errore:
Invalid page_token: this token was generated by a previous/different API version. Please retry without page_token.
Per continuare la paginazione dopo questa modifica, avviare una nuova richiesta senza next_page_token.
Lakebase verrà abilitato per impostazione predefinita per le aree di lavoro con il profilo di sicurezza di conformità
A partire dal 30 aprile 2026, Lakebase sarà abilitato come impostazione predefinita per le aree di lavoro con il profilo di sicurezza della conformità quando lo standard di conformità è impostato su HIPAA, C5, TISAX o Nessuno.
Vedere Conformità di Lakebase.
Nuova interfaccia utente per la console di Databricks Apps
In una versione futura, la console di Databricks Apps riceverà un'interfaccia utente riprogettata che offre un'esperienza di gestione delle app più intuitiva. La console aggiornata semplifica i flussi di lavoro per la modifica, la distribuzione e il monitoraggio delle app. È anche possibile accedere ad App Databricks direttamente dal commutatore dell'app nell'angolo in alto a destra dell'area di lavoro.
Vedere App di Databricks.
Modifiche ai token di destinatario Delta Sharing aperti
La Delta Sharing per i destinatari aperti passerà a un nuovo formato di URL specifico per ciascun destinatario. La data di transizione è stata aggiornata ed è ora il 1° luglio 2026. I nuovi token creati il 1° luglio 2026 useranno automaticamente il nuovo formato url. Questa modifica migliora la sicurezza di rete e consente ai destinatari di configurare criteri di rete e regole del firewall specifici dei destinatari.
Per Azure Cina, la transizione verrà annunciata in un secondo momento.
I nuovi URL includono l'ID destinatario nel dominio:
https://<recipient-id>.delta-sharing.westus.azuredatabricks.net/api/2.0/delta-sharing/metastores/<metastore-id>
Per riferimento, gli URL creati prima di questa modifica non contengono l'ID destinatario.
https://westus.azuredatabricks.net/api/2.0/delta-sharing/metastores/<metastore-id>
Gli URL precedenti continueranno a funzionare per un periodo di tempo. La durata specifica dipende dal tipo di destinatario e dalla data di creazione del token. I provider di dati devono passare al nuovo formato URL prima che il formato dell'URL precedente non sia valido.
Condivisione della federazione OIDC:
I provider di dati devono verificare che i destinatari usino il nuovo formato URL prima del 1° luglio 2027. A partire dal 1° luglio 2026, i provider possono trovare il nuovo URL nell'interfaccia utente di Condivisione delta. Dopo il 1° luglio 2027, il formato dell'URL precedente non sarà valido.
Condivisione di token di autenticazione:
| Data di creazione del token | Formato di URL | Data di scadenza del token | Azione consigliata |
|---|---|---|---|
| Prima del 1° luglio 2026 | Formato precedente | Un anno dalla data di creazione o dall'8 dicembre 2026, a qualsiasi data in futuro | I provider di dati devono ruotare i token prima della scadenza per eseguire la migrazione al nuovo formato URL. Per fornire ai destinatari il tempo di migrazione, configurare una finestra di inattività impostando una data di scadenza per il token corrente durante la rotazione. Durante questo periodo sono supportati sia i formati di URL vecchi che nuovi. |
| Dopo il 1° luglio 2026 | Nuovo formato | In base alla configurazione, fino a un anno dalla data di creazione. | Nessuno |
Nuova creazione guidata per i provider del Marketplace
Entro la fine di marzo 2026, l'esperienza di creazione dell'annuncio nella console del provider di Marketplace verrà aggiornata dal formato corrente a una procedura guidata. Questa modifica semplifica il processo di creazione di nuove presentazioni nel Marketplace.
Explorer dati di esempio sarà disponibile in generale alla fine di marzo
Alla fine di marzo 2026, Esploratore di dati di esempio con Genie Code sarà generalmente disponibile. Esplora dati di esempio consente di porre domande sulle tabelle in Unity Catalog usando un'interfaccia del linguaggio naturale incorporata.
La classificazione dei dati sarà presto disponibile per impostazione predefinita per alcune aree di lavoro con il profilo di sicurezza di conformità abilitato
A metà marzo 2026, la classificazione dei dati sarà disponibile per impostazione predefinita per le aree di lavoro con il profilo di sicurezza di conformità abilitato e i controlli HIPAA selezionati.
Il supporto per EventBridge sarà presto disponibile per le code destinate agli eventi di file.
Alla fine di febbraio 2026, il supporto per EventBridge sarà disponibile per gli eventi di file tramite code dedicate nelle posizioni S3. Attualmente, gli eventi di file possono essere configurati solo tramite SNS o instradando gli eventi di archiviazione direttamente a SQS.
Vedi Uso di una coda fornita per S3.
L'agente supervisore sarà presto disponibile per impostazione predefinita per i clienti con sicurezza e conformità avanzata
A metà marzo 2026, l'agente supervisore sarà disponibile per impostazione predefinita per le aree di lavoro con il profilo di sicurezza della conformità abilitato e i controlli HIPAA selezionati.
Usare l'agente supervisore per creare un sistema di supervisione multi-agente che orchestra gli agenti e gli strumenti di intelligenza artificiale per lavorare insieme su attività complesse.
Vedere Usare l'agente supervisore per creare un sistema multi-agente coordinato.
ADBC diventerà il driver predefinito per le nuove connessioni di Power BI
A partire da febbraio, le nuove connessioni create in Power BI Desktop o nel servizio Power BI useranno automaticamente il driver Arrow Database Connectivity (ADBC) per impostazione predefinita. Le connessioni esistenti continueranno a usare ODBC a meno che non vengano aggiornate manualmente ad ADBC.
Se si preferisce continuare a usare ODBC per le nuove connessioni, sono disponibili due opzioni:
- Quando si crea una connessione, selezionare
come Implementazione . - In Power BI Desktop disabilitare l'anteprima della funzionalità ADBC, che ripristina ODBC come predefinita per tutte le nuove connessioni.
Per altre informazioni su ADBC, vedere Configurare il driver ADBC o ODBC per Power BI e il driver Databricks nel repository ADBC.
Nuova logica di suddivisione per le tabelle della cronologia dei lavori
A partire dal 19 gennaio 2026, le tabelle della cronologia dei lavori adotteranno una nuova logica di sezionamento allineata all'ora. Le sezioni temporali ora sono allineate ai limiti dell'ora standard (5:00-6:00, 6:00-7:00 e così via) anziché in base agli intervalli di un'ora dall'inizio dell'esecuzione. Le nuove righe useranno la nuova logica di sezionamento, mentre le righe esistenti rimangono invariate.
Vedere Logica di sezionamento allineata all'ora.
Aggiornamenti della navigazione di Catalog Explorer
Esplora cataloghi riceverà presto miglioramenti per la navigazione per semplificare i flussi di lavoro e facilitare l'individuazione e la gestione degli asset di dati in modo più efficiente.
Navigazione semplificata:
La scheda Cataloghi duplicati viene rimossa per ridurre la ridondanza e concentrarsi su una singola superficie di spostamento del catalogo. Le azioni DBFS e Invia feedback si spostano nel menu dell'icona kebab per un layout più pulito.
Nuova sezione Suggerita:
Una nuova scheda Suggerita nella pagina di destinazione esplora cataloghi evidenzia gli oggetti usati di frequente, gli oggetti di esempio per gli utenti per la prima volta e i preferiti degli utenti. In questo modo è possibile interagire rapidamente con asset importanti o individuare punti di partenza utili.
Punti di ingresso consolidati:
Le funzionalità correlate sono raggruppate in categorie più chiare per ridurre il rumore visivo e migliorare la individuabilità:
- Govern – punto di ingresso per tag regolati, amministrazione metastore e classificazione dei dati
- Connetti : punti di ingresso per posizioni esterne, dati esterni, credenziali e connessioni
- Condivisione : punti di ingresso per Delta Sharing e le Stanze Pulite
Questi raggruppamenti sostituiscono sotto-tabulazioni sparse e creano un'architettura delle informazioni più intuitiva e scalabile.
Condivisione e archiviazione predefinita di Lakehouse Federation
La Delta Sharing su Lakehouse Federation è in versione beta, consentendo ai provider di dati per Delta Sharing di condividere cataloghi e tabelle esterne. Per impostazione predefinita, i dati devono essere temporaneamente materializzati e archiviati nell'archiviazione predefinita (anteprima privata). Attualmente, gli utenti devono abilitare manualmente la funzionalità Condivisione delta per l'archiviazione predefinita - Accesso espanso nella console dell'account per usare la condivisione di Lakehouse Federation.
Dopo che Delta Sharing for Default Storage – Expanded Access è abilitato per impostazione predefinita per tutti gli utenti di Azure Databricks, Delta Sharing su Lakehouse Federation sarà automaticamente disponibile nelle regioni in cui è supportata l'archiviazione predefinita.
Vedere Archiviazione predefinita in Databricks e Aggiungere schemi o tabelle esterne a una condivisione.
Notifica di ricaricamento nelle aree di lavoro
In una versione futura, verrà visualizzato un messaggio per ricaricare la scheda dell'area di lavoro se la scheda dell'area di lavoro è stata aperta per molto tempo senza aggiornare. Ciò consentirà di assicurarsi di usare sempre la versione più recente di Databricks con le funzionalità e le correzioni più recenti.
Il connettore SAP Business Data Cloud (BDC) per Azure Databricks sarà presto disponibile a livello generale
SAP Business Data Cloud (BDC) Connector per Azure Databricks è una nuova funzionalità che consente di condividere dati da SAP BDC ad Azure Databricks e da Azure Databricks a SAP BDC usando la condivisione delta. Questa funzionalità sarà disponibile a livello generale alla fine di settembre.
Il Delta Sharing per le tabelle sullo storage predefinito verrà abilitato di default a breve (Beta)
Questo aggiornamento di archiviazione predefinito per la condivisione Delta ha ampliato le funzionalità di condivisione, consentendo ai provider di condividere tabelle supportate dall'archiviazione predefinita con qualsiasi destinatario di Delta Sharing (aperto o Azure Databricks), inclusi i destinatari che usano il calcolo classico. Questa funzionalità è attualmente in versione beta e richiede ai provider di abilitare manualmente la condivisione delta per l'archiviazione predefinita - Accesso espanso nella console dell'account. A breve, questa opzione verrà abilitata per impostazione predefinita per tutti gli utenti.
Vedere Limitazioni.
Aggiornamenti agli indirizzi IP pubblici del piano di controllo esterno
Azure Databricks sta aggiornando gli indirizzi IP pubblici del piano di controllo in uscita e i tag del servizio di Azure per migliorare la sicurezza e la disponibilità della zona. Queste modifiche fanno parte di un aggiornamento del piano di controllo che ha iniziato l'implementazione il 20 maggio 2025.
Se l'organizzazione usa firewall delle risorse per controllare l'accesso in ingresso:
- Se le regole del firewall fanno riferimento al tag del servizio Azure Databricks, non è necessaria alcuna azione.
- Se si consentono indirizzi IP pubblici specifici del piano di controllo, è necessario aggiungere tutti gli INDIRIZZI IP del piano di controllo in uscita entro il 26 settembre 2025.
Gli indirizzi IP del piano di controllo uscente precedenti continuano a essere supportati.
Modifica del comportamento dell'opzione di elenco delle directory incrementale del caricatore automatico
Annotazioni
L'opzione cloudFiles.useIncrementalListing del Caricatore Automatico è obsoleta. Anche se questa nota illustra una modifica al valore predefinito delle opzioni e come continuare a usarla dopo questa modifica, Databricks sconsiglia di utilizzare questa opzione a favore della modalità di notifica file con eventi file.
In una futura versione di Databricks Runtime, il valore dell'opzione Auto Loader ormai obsoleta verrà impostato su cloudFiles.useIncrementalListing per impostazione predefinita. L'impostazione di questo valore su false fa sì che il caricatore automatico esegua un elenco di directory completo ogni volta che viene eseguito. Attualmente, il valore predefinito dell'opzione cloudFiles.useIncrementalListing è auto, istruendo il caricatore automatico a fare un tentativo migliore per rilevare se un elenco incrementale può essere utilizzato con una directory.
Per continuare a usare la funzionalità di elenco incrementale, impostare l'opzione cloudFiles.useIncrementalListing su auto. Quando si imposta questo valore su auto, Il caricatore automatico tenta di eseguire un elenco completo una volta ogni sette elenchi incrementali, che corrisponde al comportamento di questa opzione prima di questa modifica.
Per altre informazioni sull'elenco di directory di Auto Loader, vedere Configurare i flussi di Auto Loader in modalità elenco directory.
Modifica del comportamento quando le definizioni dei set di dati vengono rimosse dalle pipeline dichiarative di Lakeflow Spark
Una versione futura delle pipeline dichiarative di Lakeflow Spark modificherà il comportamento quando una vista materializzata o una tabella di streaming viene rimossa da una pipeline. Con questa modifica, la vista materializzata rimossa o la tabella di streaming non verranno eliminate automaticamente quando viene eseguito l'aggiornamento della pipeline successivo. Sarà invece possibile usare il comando DROP MATERIALIZED VIEW per eliminare una vista materializzata o il comando DROP TABLE per eliminare una tabella di streaming. Dopo l'eliminazione di un oggetto, l'esecuzione di un aggiornamento della pipeline non recupererà automaticamente l'oggetto. Viene creato un nuovo oggetto se una vista materializzata o una tabella di streaming con la stessa definizione viene nuovamente aggiunta alla pipeline. È tuttavia possibile recuperare un oggetto usando il comando UNDROP.
Il campo sourceIpAddress nei log di controllo non includerà più un numero di porta
A causa di un bug, alcuni log di controllo di autorizzazione e autenticazione includono un numero di porta oltre all'Indirizzo IP nel campo sourceIPAddress (ad esempio, "sourceIPAddress":"10.2.91.100:0"). Il numero di porta, registrato come 0, non fornisce alcun valore reale ed è incoerente con il resto dei log di controllo di Databricks. Per migliorare la coerenza dei log di controllo, Databricks ha in programma di modificare il formato dell'indirizzo IP per questi eventi del log di controllo. Questa modifica verrà implementata gradualmente a partire da inizio agosto 2024.
Se il log di controllo contiene un sourceIpAddress di 0.0.0.0, Databricks potrebbe interrompere il log.