pyspark dataframe的collect()方法是什么意思?有什么用?
您确定要删除本贴么?所有相关回复也会被一并删除并且无法恢复。
thatdeep 2018-10-28 03:03
spark_df.collect()相当于spark_df.show(全部行)
就是一次性把这个dataframe里的所有行显示出来
曾经是科比 2018-10-28 12:13
https://stackoverflow.com/questions/44174747/spark-dataframe-collect-vs-select
dizhouw2 2018-10-28 03:52
回答问题时需要注意什么?
我们谢绝在回答前讲“生动”的故事。 我们谢绝答非所问。 我们谢绝自己不会、硬要回答。我们谢绝“这么简单,自己想”、“书上有,自己找”这类回答;如果你认为对方提问方式或者内容不妥,可以直接忽略,不作解答,甚至投反对票。我们感激每一个用户在编写答案时的努力与付出!
相关讨论
怎么对pyspark dataframe更改列名
pyspark里如何进行SELECT DISTINCT操作?
怎么对pyspark.sql.dataframe按照某一列降序排列?
返回pyspark dataframe的行数?
pyspark里unpersist()什么作用?
怎么在pyspark里把dataframe写入csv文件?
pyspark中怎么对dataframe里的行按照列去重?
怎么将两个pyspark dataframe以串联的形式合并?
如何获取pyspark DataFrame的行数和列数?
如何对pyspark dataframe删除一列
随便看看
logloss的取值范围是多少?一般好的分类器能达到多少?
怎么对pandas dataframe的列求众数
两个凸函数相加,还是凸函数吗?
plt.scatter plot怎么让不同的类别有不同的颜色
hyperparameter与parameter的区别?