Hinweis
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, sich anzumelden oder das Verzeichnis zu wechseln.
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, das Verzeichnis zu wechseln.
Gibt einen neuen DataFrame zurück, der Zeilen in diesem DataFrame und einem anderen DataFrame enthält, während Duplikate beibehalten werden.
Syntax
intersectAll(other: "DataFrame")
Parameter
| Parameter | Typ | Beschreibung |
|---|---|---|
other |
DataFrame | Ein weiterer DataFrame, der kombiniert werden muss. |
Rückkehr
DataFrame: Kombiniertes DataFrame.
Hinweise
Dies entspricht INTERSECT ALL in SQL. Als Standard in SQL löst diese Funktion Spalten nach Position (nicht nach Name) auf.
Beispiele
df1 = spark.createDataFrame([("a", 1), ("a", 1), ("b", 3), ("c", 4)], ["C1", "C2"])
df2 = spark.createDataFrame([("a", 1), ("a", 1), ("b", 3)], ["C1", "C2"])
result_df = df1.intersectAll(df2).sort("C1", "C2")
result_df.show()
# +---+---+
# | C1| C2|
# +---+---+
# | a| 1|
# | a| 1|
# | b| 3|
# +---+---+
df1 = spark.createDataFrame([(1, "A"), (2, "B")], ["id", "value"])
df2 = spark.createDataFrame([(2, "B"), (3, "C")], ["id", "value"])
result_df = df1.intersectAll(df2).sort("id", "value")
result_df.show()
# +---+-----+
# | id|value|
# +---+-----+
# | 2| B|
# +---+-----+