Hinweis
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, sich anzumelden oder das Verzeichnis zu wechseln.
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, das Verzeichnis zu wechseln.
Gibt einen neuen DataFrame zurück, der nur Zeilen in diesem DataFrame und einem anderen DataFrame enthält. Beachten Sie, dass alle Duplikate entfernt werden. Verwenden Sie zum Beibehalten von Duplikaten die Verwendung intersectAll.
Syntax
intersect(other: "DataFrame")
Parameter
| Parameter | Typ | Beschreibung |
|---|---|---|
other |
DataFrame | Ein weiterer DataFrame, der kombiniert werden muss. |
Rückkehr
DataFrame: Kombiniertes DataFrame.
Hinweise
Dies entspricht INTERSECT in SQL.
Beispiele
df1 = spark.createDataFrame([("a", 1), ("a", 1), ("b", 3), ("c", 4)], ["C1", "C2"])
df2 = spark.createDataFrame([("a", 1), ("a", 1), ("b", 3)], ["C1", "C2"])
result_df = df1.intersect(df2).sort("C1", "C2")
result_df.show()
# +---+---+
# | C1| C2|
# +---+---+
# | a| 1|
# | b| 3|
# +---+---+
df1 = spark.createDataFrame([(1, "A"), (2, "B")], ["id", "value"])
df2 = spark.createDataFrame([(2, "B"), (3, "C")], ["id", "value"])
result_df = df1.intersect(df2).sort("id", "value")
result_df.show()
# +---+-----+
# | id|value|
# +---+-----+
# | 2| B|
# +---+-----+