Nota
O acesso a esta página requer autorização. Pode tentar iniciar sessão ou alterar os diretórios.
O acesso a esta página requer autorização. Pode tentar alterar os diretórios.
Converte o DataFrame num TableArg objeto, que pode ser usado como argumento de tabela numa TVF (Table-Valued Função), incluindo UDTF (User-Defined Função de Tabela).
Sintaxe
asTable()
Devoluções
TableArg: Um TableArg objeto que representa um argumento de tabela.
Notes
Depois de obter um TableArg a partir de um DataFrame usando este método, pode especificar particionamento e ordenação para o argumento da tabela chamando métodos como partitionBy, orderBy, e withSinglePartition na TableArg instância.
Exemplos
from pyspark.sql.functions import udtf
@udtf(returnType="id: int, doubled: int")
class DoubleUDTF:
def eval(self, row):
yield row["id"], row["id"] * 2
df = spark.createDataFrame([(1,), (2,), (3,)], ["id"])
result = DoubleUDTF(df.asTable())
result.show()
# +---+-------+
# | id|doubled|
# +---+-------+
# | 1| 2|
# | 2| 4|
# | 3| 6|
# +---+-------+
df2 = spark.createDataFrame(
[(1, "a"), (1, "b"), (2, "c"), (2, "d")], ["key", "value"]
)
@udtf(returnType="key: int, value: string")
class ProcessUDTF:
def eval(self, row):
yield row["key"], row["value"]
result2 = ProcessUDTF(df2.asTable().partitionBy("key").orderBy("value"))
result2.show()
# +---+-----+
# |key|value|
# +---+-----+
# | 1| a|
# | 1| b|
# | 2| c|
# | 2| d|
# +---+-----+