Hinweis
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, sich anzumelden oder das Verzeichnis zu wechseln.
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, das Verzeichnis zu wechseln.
Speichert den Inhalt des DataFrame In-Parkett-Formats auf dem angegebenen Pfad.
Syntax
parquet(path, mode=None, partitionBy=None, compression=None)
Parameter
| Parameter | Typ | Beschreibung |
|---|---|---|
path |
str | Der Pfad in einem hadoop-unterstützten Dateisystem. |
mode |
str, optional | Das Verhalten, wenn Daten bereits vorhanden sind. Akzeptierte Werte sind 'append', 'overwrite', 'ignore'und 'error' ( 'errorifexists' Standard). |
partitionBy |
str oder list, optional | Namen der Partitionierungsspalten. |
compression |
str, optional | Der zu verwendende Komprimierungscodec. |
Rückkehr
Nichts
Beispiele
Schreiben Sie einen DataFrame in eine Parkettdatei, und lesen Sie es zurück.
import tempfile
with tempfile.TemporaryDirectory(prefix="parquet") as d:
spark.createDataFrame(
[{"age": 100, "name": "Alice"}]
).write.parquet(d, mode="overwrite")
spark.read.format("parquet").load(d).show()
# +---+------------+
# |age| name|
# +---+------------+
# |100|Alice|
# +---+------------+