Hinweis
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, sich anzumelden oder das Verzeichnis zu wechseln.
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, das Verzeichnis zu wechseln.
Gibt einen neuen DataFrame zurück. Präzise Syntax zum Verketten von benutzerdefinierten Transformationen.
Syntax
transform(func: Callable[..., "DataFrame"], *args: Any, **kwargs: Any)
Parameter
| Parameter | Typ | Beschreibung |
|---|---|---|
func |
Funktion | eine Funktion, die einen DataFrame verwendet und zurückgibt. |
*args |
Beliebig | Positionsargumente, die an func übergeben werden sollen. |
**kwargs |
Beliebig | Schlüsselwortargumente, die an Func übergeben werden sollen. |
Rückkehr
DataFrame: Transformiertes DataFrame.
Beispiele
from pyspark.sql import functions as sf
df = spark.createDataFrame([(1, 1.0), (2, 2.0)], ["int", "float"])
def cast_all_to_int(input_df):
return input_df.select([sf.col(c).cast("int") for c in input_df.columns])
def sort_columns_asc(input_df):
return input_df.select(*sorted(input_df.columns))
df.transform(cast_all_to_int).transform(sort_columns_asc).show()
# +-----+---+
# |float|int|
# +-----+---+
# | 1| 1|
# | 2| 2|
# +-----+---+
def add_n(input_df, n):
cols = [(sf.col(c) + n).alias(c) for c in input_df.columns]
return input_df.select(cols)
df.transform(add_n, 1).transform(add_n, n=10).show()
# +---+-----+
# |int|float|
# +---+-----+
# | 12| 12.0|
# | 13| 13.0|
# +---+-----+