Freigeben über


Trigger (DataStreamWriter)

Legt den Trigger für die Streamingabfrage fest. Wenn sie nicht festgelegt ist, wird die Abfrage so schnell wie möglich ausgeführt, was entspricht processingTime='0 seconds'. Es kann jeweils nur ein Triggerparameter festgelegt werden.

Weitere Informationen finden Sie unter Konfigurieren von Intervallen für strukturiertes Streamingtrigger.

Syntax

trigger(*, processingTime=None, once=None, continuous=None, availableNow=None, realTime=None)

Parameter

Parameter Typ Beschreibung
processingTime str, optional Eine Zeichenfolge für Verarbeitungszeitintervalle (z '5 seconds'. B. , '1 minute'). Führt eine Mikrobatchabfrage regelmäßig basierend auf der Verarbeitungszeit aus.
once bool, optional Wenn True, verarbeitet nur einen Batch von Daten, beendet die Abfrage.
continuous str, optional Eine Zeitintervallzeichenfolge (z. B '5 seconds'. ). Führt eine fortlaufende Abfrage mit einem bestimmten Prüfpunktintervall aus.
availableNow bool, optional Wenn True, verarbeitet alle verfügbaren Daten in mehreren Batches, beendet die Abfrage.
realTime str, optional Eine Batchdauerzeichenfolge (z. B '5 seconds'. ). Führt eine Echtzeitmodusabfrage mit Batches für die angegebene Dauer aus.

Rückkehr

DataStreamWriter

Beispiele

df = spark.readStream.format("rate").load()

Auslösen der Ausführung alle 5 Sekunden:

df.writeStream.trigger(processingTime='5 seconds')
# <...streaming.readwriter.DataStreamWriter object ...>

Lösen Sie die fortlaufende Ausführung alle 5 Sekunden aus:

df.writeStream.trigger(continuous='5 seconds')
# <...streaming.readwriter.DataStreamWriter object ...>

Verarbeiten aller verfügbaren Daten in mehreren Batches:

df.writeStream.trigger(availableNow=True)
# <...streaming.readwriter.DataStreamWriter object ...>

Auslösen der Echtzeitausführung alle 5 Sekunden:

df.writeStream.trigger(realTime='5 seconds')
# <...streaming.readwriter.DataStreamWriter object ...>