Condividi tramite


scalare

Restituisce un Column oggetto per una sottoquery SCALAR contenente esattamente una riga e una colonna.

Sintassi

scalar()

Restituzioni

Column Column: oggetto che rappresenta una sottoquery SCALAR.

Note

Il scalar() metodo è utile per estrarre un Column oggetto che rappresenta un valore scalare da un dataframe, soprattutto quando il dataframe risulta da un calcolo di aggregazione o a valore singolo. Questo risultato restituito Column può quindi essere usato direttamente nelle select clausole o come predicati nei filtri nel dataframe esterno, abilitando il filtro e i calcoli dei dati dinamici in base ai valori scalari.

Examples

data = [
    (1, "Alice", 45000, 101), (2, "Bob", 54000, 101), (3, "Charlie", 29000, 102),
    (4, "David", 61000, 102), (5, "Eve", 48000, 101),
]
employees = spark.createDataFrame(data, ["id", "name", "salary", "department_id"])

from pyspark.sql import functions as sf
employees.where(
    sf.col("salary") > employees.select(sf.avg("salary")).scalar()
).select("name", "salary", "department_id").orderBy("name").show()
# +-----+------+-------------+
# | name|salary|department_id|
# +-----+------+-------------+
# |  Bob| 54000|          101|
# |David| 61000|          102|
# |  Eve| 48000|          101|
# +-----+------+-------------+

employees.alias("e1").where(
    sf.col("salary")
    > employees.alias("e2").where(
        sf.col("e2.department_id") == sf.col("e1.department_id").outer()
    ).select(sf.avg("salary")).scalar()
).select("name", "salary", "department_id").orderBy("name").show()
# +-----+------+-------------+
# | name|salary|department_id|
# +-----+------+-------------+
# |  Bob| 54000|          101|
# |David| 61000|          102|
# +-----+------+-------------+