Nota
O acesso a esta página requer autorização. Pode tentar iniciar sessão ou alterar os diretórios.
O acesso a esta página requer autorização. Pode tentar alterar os diretórios.
Particiona a saída pelas colunas dadas no sistema de ficheiros. Se especificado, a saída está disposta no sistema de ficheiros de forma semelhante ao esquema de particionamento do Hive.
Sintaxe
partitionBy(*cols)
Parâmetros
| Parâmetro | Tipo | Descrição |
|---|---|---|
*cols |
str ou lista | Nomes das colunas a partir por elas. |
Devoluções
DataFrameWriter
Exemplos
Escreve um DataFrame num ficheiro Parquet de forma particionada e lê-o novamente.
import tempfile, os
with tempfile.TemporaryDirectory(prefix="partitionBy") as d:
spark.createDataFrame(
[{"age": 100, "name": "Alice"}, {"age": 120, "name": "Ruifeng Zheng"}]
).write.partitionBy("name").mode("overwrite").format("parquet").save(d)
spark.read.parquet(d).sort("age").show()
# +---+-------------+
# |age| name|
# +---+-------------+
# |100| Alice|
# |120|Ruifeng Zheng|
# +---+-------------+
# Read one partition as a DataFrame.
spark.read.parquet(f"{d}{os.path.sep}name=Alice").show()
# +---+
# |age|
# +---+
# |100|
# +---+