Nota
L'accesso a questa pagina richiede l'autorizzazione. È possibile provare ad accedere o modificare le directory.
L'accesso a questa pagina richiede l'autorizzazione. È possibile provare a modificare le directory.
Suddivide in modo casuale questo dataframe con i pesi forniti.
Sintassi
randomSplit(weights: List[float], seed: Optional[int] = None)
Parametri
| Parametro | Tipo | Descrizione |
|---|---|---|
weights |
elenco | elenco di valori double come pesi con cui dividere il dataframe. I pesi verranno normalizzati se non sommano fino a 1,0. |
seed |
int, facoltativo | Valore di inizializzazione per il campionamento. |
Restituzioni
list: elenco di dataframe.
Examples
from pyspark.sql import Row
df = spark.createDataFrame([
Row(age=10, height=80, name="Alice"),
Row(age=5, height=None, name="Bob"),
Row(age=None, height=None, name="Tom"),
Row(age=None, height=None, name=None),
])
splits = df.randomSplit([1.0, 2.0], 24)
splits[0].count()
# 2
splits[1].count()
# 2