Hinweis
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, sich anzumelden oder das Verzeichnis zu wechseln.
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, das Verzeichnis zu wechseln.
Startet die Ausführung der Streamingabfrage und gibt kontinuierlich Ergebnisse in die angegebene Tabelle aus, sobald neue Daten eintreffen. Gibt ein StreamingQuery -Objekt zurück.
Syntax
toTable(tableName, format=None, outputMode=None, partitionBy=None, queryName=None, **options)
Parameter
| Parameter | Typ | Beschreibung |
|---|---|---|
tableName |
str | Name der Tabelle. |
format |
str, optional | Das format, das zum Speichern verwendet wird. |
outputMode |
str, optional | Wie Daten in die Spüle geschrieben werden: append, , completeoder update. |
partitionBy |
str oder list, optional | Namen der Partitionierungsspalten. Wird für bereits vorhandene v2-Tabellen ignoriert. |
queryName |
str, optional | Eindeutiger Name für die Abfrage. |
**options |
Alle anderen Zeichenfolgenoptionen. Stellen Sie einen checkpointLocation für die meisten Datenströme bereit. |
Rückkehr
StreamingQuery
Hinweise
Bei v1-Tabellen partitionBy werden Spalten immer berücksichtigt. Bei v2-Tabellen wird nur berücksichtigt, partitionBy wenn die Tabelle noch nicht vorhanden ist.
Beispiele
Speichern eines Datenstroms in einer Tabelle:
import tempfile
import time
_ = spark.sql("DROP TABLE IF EXISTS my_table2")
with tempfile.TemporaryDirectory(prefix="toTable") as d:
q = spark.readStream.format("rate").option(
"rowsPerSecond", 10).load().writeStream.toTable(
"my_table2",
queryName='that_query',
outputMode="append",
format='parquet',
checkpointLocation=d)
time.sleep(3)
q.stop()
spark.read.table("my_table2").show()
_ = spark.sql("DROP TABLE my_table2")