グループを使用せずに DataFrame 全体で集計します ( df.groupBy().agg()の短縮形)。
構文
agg(*exprs: Union[Column, Dict[str, str]])
パラメーター
| パラメーター | タイプ | 説明 |
|---|---|---|
exprs |
キーと値の文字列の列またはディクテーション | DataFrame を集計する列または式。 |
返品
DataFrame: 集計された DataFrame。
例示
from pyspark.sql import functions as sf
df = spark.createDataFrame([(2, "Alice"), (5, "Bob")], schema=["age", "name"])
df.agg({"age": "max"}).show()
# +--------+
# |max(age)|
# +--------+
# | 5|
# +--------+
df.agg(sf.min(df.age)).show()
# +--------+
# |min(age)|
# +--------+
# | 2|
# +--------+