指定された列ごとにデータをクラスター化して、クエリのパフォーマンスを最適化します。
構文
clusterBy(*cols)
パラメーター
| パラメーター | タイプ | 説明 |
|---|---|---|
*cols |
str または list | クラスター化する列の名前。 |
返品
DataFrameWriter
例示
クラスタリングを使用して、Parquet ファイルに DataFrame を書き込みます。
import tempfile
with tempfile.TemporaryDirectory(prefix="clusterBy") as d:
spark.createDataFrame(
[{"age": 100, "name": "Alice"}, {"age": 120, "name": "Ruifeng Zheng"}]
).write.clusterBy("name").mode("overwrite").format("parquet").save(d)