DataFrameの内容をデータ ソースに保存します。 データ ソースは、 format と一連の optionsで指定されます。
formatが指定されていない場合は、spark.sql.sources.defaultによって構成された既定のデータ ソースが使用されます。
構文
save(path=None, format=None, mode=None, partitionBy=None, **options)
パラメーター
| パラメーター | タイプ | 説明 |
|---|---|---|
path |
str、省略可能 | Hadoop でサポートされているファイル システムのパス。 |
format |
str、省略可能 | 保存に使用する形式。 |
mode |
str、省略可能 | データが既に存在する場合の動作。 使用できる値は、 'append'、 'overwrite'、 'ignore'、 'error' または 'errorifexists' (既定値) です。 |
partitionBy |
list、省略可能 | パーティション分割列の名前。 |
**options |
辞書 | 追加の文字列オプション。 |
返品
なし
例示
JSON ファイルに DataFrame を書き込み、読み戻します。
import tempfile
with tempfile.TemporaryDirectory(prefix="save") as d:
spark.createDataFrame(
[{"age": 100, "name": "Alice"}]
).write.mode("overwrite").format("json").save(d)
spark.read.format('json').load(d).show()
# +---+------------+
# |age| name|
# +---+------------+
# |100|Alice|
# +---+------------+