两个pyspark dataframe的列和列名都是一样的,也就是Schema是一样的,怎么将它们以串联的形式合并?
您确定要删除本贴么?所有相关回复也会被一并删除并且无法恢复。
ccc225 2018-05-31 22:23
df_concat = df_1.union(df_2)
sasa 2018-06-01 03:47
回答问题时需要注意什么?
我们谢绝在回答前讲“生动”的故事。 我们谢绝答非所问。 我们谢绝自己不会、硬要回答。我们谢绝“这么简单,自己想”、“书上有,自己找”这类回答;如果你认为对方提问方式或者内容不妥,可以直接忽略,不作解答,甚至投反对票。我们感激每一个用户在编写答案时的努力与付出!
相关讨论
得到一个pyspark.sql.dataframe中所有列的名称
怎么对pyspark dataframe更改列名
返回pyspark dataframe的行数?
怎么在pyspark里把dataframe写入csv文件?
pyspark中怎么对dataframe里的行按照列去重?
如何对pyspark dataframe删除一列
pyspark里unpersist()什么作用?
pyspark dataframe的collect()方法是什么意思?
如何获取pyspark DataFrame的行数和列数?
pyspark里如何进行SELECT DISTINCT操作?
随便看看
怎么把pandas dataframe中的一列转成一个list?
随机森林(random forest)和支持向量机(SVM)各有什么优劣
人工神经网络有哪些常用的激活函数?
Pandas怎样对dataframe中的一个时间列进行排序?
模型调参时常用到的Grid Search是什么意思?