Nota
L'accesso a questa pagina richiede l'autorizzazione. È possibile provare ad accedere o modificare le directory.
L'accesso a questa pagina richiede l'autorizzazione. È possibile provare a modificare le directory.
Creare un cubo multidimensionale per il dataframe corrente usando le colonne specificate, consentendo l'esecuzione di aggregazioni su di esse.
Sintassi
cube(*cols: "ColumnOrName")
Parametri
| Parametro | Tipo | Descrizione |
|---|---|---|
cols |
list, str, int o Column | Colonne in base al cubo. Ogni elemento deve essere un nome di colonna (stringa) o un'espressione (Colonna) o un ordinale di colonna (int, int, in base 1) o un elenco di essi. |
Restituzioni
GroupedData: cubo dei dati in base alle colonne specificate.
Note
Un ordinale di colonna inizia da 1, che è diverso da quello basato su __getitem__0.
Examples
df = spark.createDataFrame([("Alice", 2), ("Bob", 5)], schema=["name", "age"])
df.cube("name").count().orderBy("name").show()
# +-----+-----+
# | name|count|
# +-----+-----+
# | NULL| 2|
# |Alice| 1|
# | Bob| 1|
# +-----+-----+
df.cube("name", df.age).count().orderBy("name", "age").show()
# +-----+----+-----+
# | name| age|count|
# +-----+----+-----+
# | NULL|NULL| 2|
# | NULL| 2| 1|
# | NULL| 5| 1|
# |Alice|NULL| 1|
# |Alice| 2| 1|
# | Bob|NULL| 1|
# | Bob| 5| 1|
# +-----+----+-----+