Freigeben über


Parkett (DataStreamReader)

Lädt einen Geparkte Dateistrom und gibt das Ergebnis als DataFrame zurück.

Syntax

parquet(path, **options)

Parameter

Parameter Typ Beschreibung
path str Pfad in jedem hadoop-unterstützten Dateisystem.

Rückkehr

DataFrame

Beispiele

Laden eines Datenstroms aus einer temporären Parkettdatei:

import tempfile
import time
with tempfile.TemporaryDirectory(prefix="parquet") as d:
    spark.range(10).write.mode("overwrite").format("parquet").save(d)
    q = spark.readStream.schema(
        "id LONG").parquet(d).writeStream.format("console").start()
    time.sleep(3)
    q.stop()