Hinweis
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, sich anzumelden oder das Verzeichnis zu wechseln.
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, das Verzeichnis zu wechseln.
Gilt für:
Databricks SQL
Databricks Runtime
Übersetzt einen binären Ausdruck (expr) unter Verwendung der charSet-Zeichensatzcodierung in eine Zeichenfolge.
Syntax
decode(expr, charSet)
Argumente
-
expr: Ein inBINARYcodiertercharsetAusdruck. -
charSet: EinSTRING-Ausdruck.
Gibt zurück
Ein STRING.
Wenn charSet keine unterstützte Codierung ist, löst Azure Databricks INVALID_PARAMETER_VALUE aus. CHARSET.
Wenn expr Bytes enthält, die in charSet ungültig sind, löst Azure Databricks MALFORMED_CHARACTER_CODING aus.
Die folgenden Zeichensatzcodierungen werden unterstützt (Groß-/Kleinschreibung wird nicht beachtet):
-
'US-ASCII': 7-Bit ASCII, ISO646-US. -
'ISO-8859-1': ISO Lateinisches Alphabet Nr. 1, ISO-LATIN-1. -
'UTF-8': 8-Bit-UCS-Transformationsformat. -
'UTF-16BE': 16-Bit UCS Transformationsformat, Big-Endian-Byte-Reihenfolge. -
'UTF-16LE': 16-Bit UCS Transformationsformat, Little-Endian-Byte-Reihenfolge. -
'UTF-16': 16-Bit UCS Transformationsformat, Bytereihenfolge, die durch ein optionales Bytereihenfolgenzeichen identifiziert wird.
Häufige Fehlerbedingungen
Beispiele
-- Wrap encode in hex to normalize UI dependent BINARY output.
> SELECT hex(encode('Spark SQL', 'UTF-16'));
FEFF0053007000610072006B002000530051004C
> SELECT hex(encode('Spark SQL', 'US-ASCII'));
537061726B2053514C
> SELECT decode(X'FEFF0053007000610072006B002000530051004C', 'UTF-16')
Spark SQL
-- 0xFF is not valid US-ASCII.
> SELECT decode(x'FF', 'US-ASCII');
Error: MALFORMED_CHARACTER_CODING