Condividi tramite


trigger (DataStreamWriter)

Imposta il trigger per la query di streaming. Se non è impostata, la query viene eseguita il più velocemente possibile, equivalente a processingTime='0 seconds'. È possibile impostare un solo parametro di trigger alla volta.

Per altre informazioni, vedere Configurare gli intervalli di trigger di Structured Streaming.

Sintassi

trigger(*, processingTime=None, once=None, continuous=None, availableNow=None, realTime=None)

Parametri

Parametro Tipo Descrizione
processingTime str, facoltativo Stringa dell'intervallo di tempo di elaborazione , ad esempio '5 seconds', '1 minute'. Esegue periodicamente una query di microbatch in base al tempo di elaborazione.
once bool, facoltativo Se True, elabora un solo batch di dati e quindi termina la query.
continuous str, facoltativo Stringa dell'intervallo di tempo , ad esempio '5 seconds'. Esegue una query continua con un determinato intervallo di checkpoint.
availableNow bool, facoltativo Se True, elabora tutti i dati disponibili in più batch e quindi termina la query.
realTime str, facoltativo Stringa di durata del batch , ad esempio '5 seconds'. Esegue una query in modalità in tempo reale con batch alla durata specificata.

Restituzioni

DataStreamWriter

Examples

df = spark.readStream.format("rate").load()

Attivare l'esecuzione ogni 5 secondi:

df.writeStream.trigger(processingTime='5 seconds')
# <...streaming.readwriter.DataStreamWriter object ...>

Attivare l'esecuzione continua ogni 5 secondi:

df.writeStream.trigger(continuous='5 seconds')
# <...streaming.readwriter.DataStreamWriter object ...>

Elaborare tutti i dati disponibili in più batch:

df.writeStream.trigger(availableNow=True)
# <...streaming.readwriter.DataStreamWriter object ...>

Attivare l'esecuzione in tempo reale ogni 5 secondi:

df.writeStream.trigger(realTime='5 seconds')
# <...streaming.readwriter.DataStreamWriter object ...>