怎么将两个pyspark dataframe以串联的形式合并?

  统计/机器学习 Python    浏览次数:10602        分享
0

两个pyspark dataframe的列和列名都是一样的,也就是Schema是一样的,怎么将它们以串联的形式合并?

 

ccc225   2018-05-31 22:23



   1个回答 
3


df_concat = df_1.union(df_2)


SofaSofa数据科学社区DS面试题库 DS面经

sasa   2018-06-01 03:47



  相关讨论

得到一个pyspark.sql.dataframe中所有列的名称

怎么对pyspark dataframe更改列名

返回pyspark dataframe的行数?

怎么在pyspark里把dataframe写入csv文件?

pyspark中怎么对dataframe里的行按照列去重?

如何对pyspark dataframe删除一列

pyspark里unpersist()什么作用?

pyspark dataframe的collect()方法是什么意思?

如何获取pyspark DataFrame的行数和列数?

pyspark里如何进行SELECT DISTINCT操作?

  随便看看

怎么把pandas dataframe中的一列转成一个list?

随机森林(random forest)和支持向量机(SVM)各有什么优劣

人工神经网络有哪些常用的激活函数?

Pandas怎样对dataframe中的一个时间列进行排序?

模型调参时常用到的Grid Search是什么意思?