Nota
L'accesso a questa pagina richiede l'autorizzazione. È possibile provare ad accedere o modificare le directory.
L'accesso a questa pagina richiede l'autorizzazione. È possibile provare a modificare le directory.
Restituisce un Column oggetto per una sottoquery SCALAR contenente esattamente una riga e una colonna.
Sintassi
scalar()
Restituzioni
Column
Column: oggetto che rappresenta una sottoquery SCALAR.
Note
Il scalar() metodo è utile per estrarre un Column oggetto che rappresenta un valore scalare da un dataframe, soprattutto quando il dataframe risulta da un calcolo di aggregazione o a valore singolo. Questo risultato restituito Column può quindi essere usato direttamente nelle select clausole o come predicati nei filtri nel dataframe esterno, abilitando il filtro e i calcoli dei dati dinamici in base ai valori scalari.
Examples
data = [
(1, "Alice", 45000, 101), (2, "Bob", 54000, 101), (3, "Charlie", 29000, 102),
(4, "David", 61000, 102), (5, "Eve", 48000, 101),
]
employees = spark.createDataFrame(data, ["id", "name", "salary", "department_id"])
from pyspark.sql import functions as sf
employees.where(
sf.col("salary") > employees.select(sf.avg("salary")).scalar()
).select("name", "salary", "department_id").orderBy("name").show()
# +-----+------+-------------+
# | name|salary|department_id|
# +-----+------+-------------+
# | Bob| 54000| 101|
# |David| 61000| 102|
# | Eve| 48000| 101|
# +-----+------+-------------+
employees.alias("e1").where(
sf.col("salary")
> employees.alias("e2").where(
sf.col("e2.department_id") == sf.col("e1.department_id").outer()
).select(sf.avg("salary")).scalar()
).select("name", "salary", "department_id").orderBy("name").show()
# +-----+------+-------------+
# | name|salary|department_id|
# +-----+------+-------------+
# | Bob| 54000| 101|
# |David| 61000| 102|
# +-----+------+-------------+