Nota
L'accesso a questa pagina richiede l'autorizzazione. È possibile provare ad accedere o modificare le directory.
L'accesso a questa pagina richiede l'autorizzazione. È possibile provare a modificare le directory.
Salva il contenuto di DataFrame in formato CSV nel percorso specificato.
Sintassi
csv(path, mode=None, compression=None, sep=None, quote=None, escape=None,
header=None, nullValue=None, escapeQuotes=None, quoteAll=None,
dateFormat=None, timestampFormat=None, ignoreLeadingWhiteSpace=None,
ignoreTrailingWhiteSpace=None, charToEscapeQuoteEscaping=None,
encoding=None, emptyValue=None, lineSep=None)
Parametri
| Parametro | Tipo | Descrizione |
|---|---|---|
path |
str | Percorso in qualsiasi file system supportato da Hadoop. |
mode |
str, facoltativo | Comportamento quando i dati esistono già. I valori accettati sono 'append', 'overwrite''ignore', e 'error' o 'errorifexists' (impostazione predefinita). |
Restituzioni
Nessuno
Examples
Scrivere un dataframe in un file CSV e leggerlo di nuovo.
import tempfile
with tempfile.TemporaryDirectory(prefix="csv") as d:
df = spark.createDataFrame([{"age": 100, "name": "Alice"}])
df.write.csv(d, mode="overwrite")
spark.read.schema(df.schema).format("csv").option(
"nullValue", "Alice").load(d).show()
# +---+----+
# |age|name|
# +---+----+
# |100|NULL|
# +---+----+