Nota
O acesso a esta página requer autorização. Pode tentar iniciar sessão ou alterar os diretórios.
O acesso a esta página requer autorização. Pode tentar alterar os diretórios.
Mapeia um iterador de lotes no DataFrame atual usando uma função nativa em Python que é executada nos DataFrames pandas tanto como entrada como saída, e devolve o resultado como DataFrame.
Sintaxe
mapInPandas(func: "PandasMapIterFunction", schema: Union[StructType, str], barrier: bool = False, profile: Optional[ResourceProfile] = None)
Parâmetros
| Parâmetro | Tipo | Descrição |
|---|---|---|
func |
função | uma função nativa Python que pega num iterador de pandas.DataFrames e gera um iterador de pandas.DataFrames. |
schema |
DataType ou str | o tipo de retorno do func no PySpark. O valor pode ser um pyspark.sql.types.DataType objeto ou uma cadeia de tipos formatada em DDL. |
barrier |
bool, opcional, por defeito False | Use a execução em modo barreira, garantindo que todos os trabalhadores Python na fase serão lançados simultaneamente. |
profile |
ResourceProfile, opcional | O ResourceProfile opcional será usado para mapInPandas. |
Devoluções
DataFrame
Exemplos
df = spark.createDataFrame([(1, 21), (2, 30)], ("id", "age"))
def filter_func(iterator):
for pdf in iterator:
yield pdf[pdf.id == 1]
df.mapInPandas(filter_func, df.schema).show()
# +---+---+
# | id|age|
# +---+---+
# | 1| 21|
# +---+---+
def mean_age(iterator):
for pdf in iterator:
yield pdf.groupby("id").mean().reset_index()
df.mapInPandas(mean_age, "id: bigint, age: double").show()
# +---+----+
# | id| age|
# +---+----+
# | 1|21.0|
# | 2|30.0|
# +---+----+
df.mapInPandas(filter_func, df.schema, barrier=True).collect()
# [Row(id=1, age=21)]