Nota
L'accesso a questa pagina richiede l'autorizzazione. È possibile provare ad accedere o modificare le directory.
L'accesso a questa pagina richiede l'autorizzazione. È possibile provare a modificare le directory.
Questo articolo descrive le raccomandazioni di Databricks per l'inferenza batch.
Per il serving di modelli in tempo reale su Azure Databricks, vedere Distribuire modelli utilizzando Mosaic AI Model Serving.
Funzioni di intelligenza artificiale per l'inferenza batch
Importante
Questa funzionalità è disponibile in anteprima pubblica.
Le funzioni di intelligenza artificiale sono funzioni predefinite che è possibile usare per applicare l'intelligenza artificiale ai dati archiviati in Databricks. È possibile eseguire l'inferenza batch usando funzioni di intelligenza artificiale specifiche dell'attività o la funzione per utilizzo generico, ai_query.
Di seguito è riportato un esempio di inferenza batch usando la funzione di intelligenza artificiale specifica dell'attività, ai_translate. Se si vuole eseguire l'inferenza batch in un'intera tabella, è possibile rimuovere l'oggetto limit 500 dalla query.
SELECT
writer_summary,
ai_translate(writer_summary, "cn") as cn_translation
from user.batch.news_summaries
limit 500
;
In alternativa, è possibile utilizzare la funzione per utilizzi generici ai_query per eseguire l'inferenza batch.
- Verifica quali tipi di modello e i modelli associati che
ai_querysupporta. - Consulta Implementare pipeline di inferenza batch.