DataFrameの内容を、指定したパスの ORC 形式で保存します。
構文
orc(path, mode=None, partitionBy=None, compression=None)
パラメーター
| パラメーター | タイプ | 説明 |
|---|---|---|
path |
str | Hadoop でサポートされているファイル システムのパス。 |
mode |
str、省略可能 | データが既に存在する場合の動作。 使用できる値は、 'append'、 'overwrite'、 'ignore'、 'error' または 'errorifexists' (既定値) です。 |
partitionBy |
str または list、省略可能 | パーティション分割列の名前。 |
compression |
str、省略可能 | 使用する圧縮コーデック。 |
返品
なし
例示
ORC ファイルに DataFrame を書き込み、読み戻します。
import tempfile
with tempfile.TemporaryDirectory(prefix="orc") as d:
spark.createDataFrame(
[{"age": 100, "name": "Alice"}]
).write.orc(d, mode="overwrite")
spark.read.format("orc").load(d).show()
# +---+------------+
# |age| name|
# +---+------------+
# |100|Alice|
# +---+------------+