1 行と 1 列を正確に含む SCALAR サブクエリの Column オブジェクトを返します。
構文
scalar()
返品
Column: SCALAR サブクエリを表す Column オブジェクト。
メモ
scalar() メソッドは、DataFrame からスカラー値を表すColumn オブジェクトを抽出する場合に便利です。特に、DataFrame が集計または単一値の計算の結果である場合です。 返されたこの Column は、 select 句で直接使用することも、外側の DataFrame のフィルターの述語として使用することもできます。これにより、スカラー値に基づく動的なデータ フィルター処理と計算が可能になります。
例示
data = [
(1, "Alice", 45000, 101), (2, "Bob", 54000, 101), (3, "Charlie", 29000, 102),
(4, "David", 61000, 102), (5, "Eve", 48000, 101),
]
employees = spark.createDataFrame(data, ["id", "name", "salary", "department_id"])
from pyspark.sql import functions as sf
employees.where(
sf.col("salary") > employees.select(sf.avg("salary")).scalar()
).select("name", "salary", "department_id").orderBy("name").show()
# +-----+------+-------------+
# | name|salary|department_id|
# +-----+------+-------------+
# | Bob| 54000| 101|
# |David| 61000| 102|
# | Eve| 48000| 101|
# +-----+------+-------------+
employees.alias("e1").where(
sf.col("salary")
> employees.alias("e2").where(
sf.col("e2.department_id") == sf.col("e1.department_id").outer()
).select(sf.avg("salary")).scalar()
).select("name", "salary", "department_id").orderBy("name").show()
# +-----+------+-------------+
# | name|salary|department_id|
# +-----+------+-------------+
# | Bob| 54000| 101|
# |David| 61000| 102|
# +-----+------+-------------+