Nota
L'accesso a questa pagina richiede l'autorizzazione. È possibile provare ad accedere o modificare le directory.
L'accesso a questa pagina richiede l'autorizzazione. È possibile provare a modificare le directory.
Salva il contenuto di in un'origine DataFrame dati. L'origine dati viene specificata da format e un set di options. Se format non viene specificato, viene utilizzata l'origine dati predefinita configurata da spark.sql.sources.default .
Sintassi
save(path=None, format=None, mode=None, partitionBy=None, **options)
Parametri
| Parametro | Tipo | Descrizione |
|---|---|---|
path |
str, facoltativo | Percorso in un file system supportato da Hadoop. |
format |
str, facoltativo | Formato utilizzato per salvare. |
mode |
str, facoltativo | Comportamento quando i dati esistono già. I valori accettati sono 'append', 'overwrite''ignore', e 'error' o 'errorifexists' (impostazione predefinita). |
partitionBy |
list, facoltativo | Nomi delle colonne di partizionamento. |
**options |
dizionario | Opzioni di stringa aggiuntive. |
Restituzioni
Nessuno
Examples
Scrivere un dataframe in un file JSON e leggerlo di nuovo.
import tempfile
with tempfile.TemporaryDirectory(prefix="save") as d:
spark.createDataFrame(
[{"age": 100, "name": "Alice"}]
).write.mode("overwrite").format("json").save(d)
spark.read.format('json').load(d).show()
# +---+------------+
# |age| name|
# +---+------------+
# |100|Alice|
# +---+------------+