Hinweis
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, sich anzumelden oder das Verzeichnis zu wechseln.
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, das Verzeichnis zu wechseln.
Legt den Trigger für die Streamingabfrage fest. Wenn sie nicht festgelegt ist, wird die Abfrage so schnell wie möglich ausgeführt, was entspricht processingTime='0 seconds'. Es kann jeweils nur ein Triggerparameter festgelegt werden.
Weitere Informationen finden Sie unter Konfigurieren von Intervallen für strukturiertes Streamingtrigger.
Syntax
trigger(*, processingTime=None, once=None, continuous=None, availableNow=None, realTime=None)
Parameter
| Parameter | Typ | Beschreibung |
|---|---|---|
processingTime |
str, optional | Eine Zeichenfolge für Verarbeitungszeitintervalle (z '5 seconds'. B. , '1 minute'). Führt eine Mikrobatchabfrage regelmäßig basierend auf der Verarbeitungszeit aus. |
once |
bool, optional | Wenn True, verarbeitet nur einen Batch von Daten, beendet die Abfrage. |
continuous |
str, optional | Eine Zeitintervallzeichenfolge (z. B '5 seconds'. ). Führt eine fortlaufende Abfrage mit einem bestimmten Prüfpunktintervall aus. |
availableNow |
bool, optional | Wenn True, verarbeitet alle verfügbaren Daten in mehreren Batches, beendet die Abfrage. |
realTime |
str, optional | Eine Batchdauerzeichenfolge (z. B '5 seconds'. ). Führt eine Echtzeitmodusabfrage mit Batches für die angegebene Dauer aus. |
Rückkehr
DataStreamWriter
Beispiele
df = spark.readStream.format("rate").load()
Auslösen der Ausführung alle 5 Sekunden:
df.writeStream.trigger(processingTime='5 seconds')
# <...streaming.readwriter.DataStreamWriter object ...>
Lösen Sie die fortlaufende Ausführung alle 5 Sekunden aus:
df.writeStream.trigger(continuous='5 seconds')
# <...streaming.readwriter.DataStreamWriter object ...>
Verarbeiten aller verfügbaren Daten in mehreren Batches:
df.writeStream.trigger(availableNow=True)
# <...streaming.readwriter.DataStreamWriter object ...>
Auslösen der Echtzeitausführung alle 5 Sekunden:
df.writeStream.trigger(realTime='5 seconds')
# <...streaming.readwriter.DataStreamWriter object ...>