ソース内のすべての使用可能なデータが処理され、シンクにコミットされるまでブロックします。 テスト用です。
構文
processAllAvailable()
返品
None
メモ
データが継続的に到着する場合、このメソッドは永久にブロックされる可能性があります。 このメソッドは、呼び出し前にストリーム ソースに同期的に追加されたデータ (つまり、 getOffset が追加を直ちに反映する必要がある) までブロックすることが保証されます。
例示
sdf = spark.readStream.format("rate").load()
sq = sdf.writeStream.format('memory').queryName('this_query').start()
sq.processAllAvailable()
sq.stop()