json (DataStreamReader)

Carrega um fluxo de ficheiros JSON e devolve os resultados como DataFrame. JSON Lines (JSON delimitado por novas linhas) é suportado por defeito. Para JSON com um registo por ficheiro, defina a multiLine opção para true. Se schema não for especificado, o esquema de entrada é inferido a partir dos dados.

Sintaxe

json(path, schema=None, **options)

Parâmetros

Parâmetro Tipo Descrição
path str Caminho para o conjunto de dados JSON.
schema StructType ou str, opcional Schema como uma cadeia formatada StructType ou DDL (por exemplo, col0 INT, col1 DOUBLE).

Devoluções

DataFrame

Exemplos

Carregar um fluxo a partir de um ficheiro JSON temporário:

import tempfile
import time
with tempfile.TemporaryDirectory(prefix="json") as d:
    spark.createDataFrame(
        [(100, "Hyukjin Kwon"),], ["age", "name"]
    ).write.mode("overwrite").format("json").save(d)
    q = spark.readStream.schema(
        "age INT, name STRING"
    ).json(d).writeStream.format("console").start()
    time.sleep(3)
    q.stop()