Hinweis
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, sich anzumelden oder das Verzeichnis zu wechseln.
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, das Verzeichnis zu wechseln.
Speichert den Inhalt der DataFrame Datenquelle. Die Datenquelle wird durch format und eine Gruppe von options. Wenn format nicht angegeben, wird die von der Standarddatenquelle konfigurierte spark.sql.sources.default Datenquelle verwendet.
Syntax
save(path=None, format=None, mode=None, partitionBy=None, **options)
Parameter
| Parameter | Typ | Beschreibung |
|---|---|---|
path |
str, optional | Der Pfad in einem Hadoop-unterstützten Dateisystem. |
format |
str, optional | Das format, das zum Speichern verwendet wird. |
mode |
str, optional | Das Verhalten, wenn Daten bereits vorhanden sind. Akzeptierte Werte sind 'append', 'overwrite', 'ignore'und 'error' ( 'errorifexists' Standard). |
partitionBy |
liste, optional | Namen der Partitionierungsspalten. |
**options |
Wörterbuch | Zusätzliche Zeichenfolgenoptionen. |
Rückkehr
Nichts
Beispiele
Schreiben Sie einen DataFrame in eine JSON-Datei, und lesen Sie es zurück.
import tempfile
with tempfile.TemporaryDirectory(prefix="save") as d:
spark.createDataFrame(
[{"age": 100, "name": "Alice"}]
).write.mode("overwrite").format("json").save(d)
spark.read.format('json').load(d).show()
# +---+------------+
# |age| name|
# +---+------------+
# |100|Alice|
# +---+------------+