Freigeben über


Bereitstellung der Modelle für Batch-Inferenz und Batch-Vorhersagen

In diesem Artikel wird beschrieben, was Databricks für die Batchableitung empfiehlt.

Für Echtzeit-Modelldienste in Azure Databricks, siehe Modelle bereitstellen mit Mosaik AI Model Serving.

KI-Funktionen für Batch-Ableitung

Wichtig

Dieses Feature befindet sich in der Public Preview.

KI-Funktionen sind integrierte Funktionen, mit denen Sie KI auf Ihre Daten anwenden können, die auf Databricks gespeichert sind. Sie können Batch-Inferenz mithilfe von aufgabenspezifischen KI-Funktionen oder der allgemeinen Funktion ai_query ausführen.

Im Folgenden sehen Sie ein Beispiel für die Batchableitung mithilfe der aufgabenspezifischen KI-Funktion. ai_translate Wenn Sie eine Batchinferenz für eine gesamte Tabelle durchführen möchten, können Sie das limit 500 aus Ihrer Abfrage entfernen.


SELECT
writer_summary,
  ai_translate(writer_summary, "cn") as cn_translation
from user.batch.news_summaries
limit 500
;

Alternativ können Sie die allgemeine Funktion verwenden, ai_query um eine Batcheinleitung durchzuführen.