Hinweis
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, sich anzumelden oder das Verzeichnis zu wechseln.
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, das Verzeichnis zu wechseln.
Gilt für:
Databricks SQL
Databricks Runtime
Die Funktion gibt die binäre Darstellung einer Zeichenfolge unter Verwendung der charSet-Zeichencodierung zurück.
Syntax
encode(expr, charSet)
Argumente
-
expr: EinSTRINGAusdruck, der codiert werden soll. -
charSet: EinSTRINGAusdruck, der die Codierung angibt.
Gibt zurück
Ein BINARY.
Die folgenden Zeichensatzcodierungen werden unterstützt (Groß-/Kleinschreibung wird nicht beachtet):
-
'US-ASCII': 7-Bit ASCII, ISO646-US. -
'ISO-8859-1': ISO Lateinisches Alphabet Nr. 1, ISO-LATIN-1. -
'UTF-8': 8-Bit-UCS-Transformationsformat. -
'UTF-16BE': 16-Bit UCS Transformationsformat, Big-Endian-Byte-Reihenfolge. -
'UTF-16LE': 16-Bit UCS Transformationsformat, Little-Endian-Byte-Reihenfolge. -
'UTF-16': 16-Bit UCS Transformationsformat, Bytereihenfolge, die durch ein optionales Bytereihenfolgenzeichen identifiziert wird.
Wenn charSet keine unterstützte Codierung ist, löst Azure Databricks INVALID_PARAMETER_VALUE aus. CHARSET.
Wenn expr Zeichen enthält, die in charSet nicht codiert werden können, löst Azure Databricks MALFORMED_CHARACTER_CODING aus.
Häufige Fehlerbedingungen
Beispiele
-- Wrap encode in hex to normalize UI dependent BINARY output.
> SELECT hex(encode('Spark SQL', 'UTF-16'));
FEFF0053007000610072006B002000530051004C
> SELECT hex(encode('Spark SQL', 'US-ASCII'));
537061726B2053514C
> SELECT decode(X'FEFF0053007000610072006B002000530051004C', 'UTF-16')
Spark SQL
-- U+00E9 (é) cannot be encoded in US-ASCII.
> SELECT encode('café', 'US-ASCII');
Error: MALFORMED_CHARACTER_CODING