怎么返回pyspark sql dataframe的行数?
在pandas里就直接
len(df)
但是对于pyspark的dataframe,len是无效的。
您确定要删除本贴么?所有相关回复也会被一并删除并且无法恢复。
thatdeep 2018-05-03 09:52
df.count()
kidd23 2018-05-03 10:26
回答问题时需要注意什么?
我们谢绝在回答前讲“生动”的故事。 我们谢绝答非所问。 我们谢绝自己不会、硬要回答。我们谢绝“这么简单,自己想”、“书上有,自己找”这类回答;如果你认为对方提问方式或者内容不妥,可以直接忽略,不作解答,甚至投反对票。我们感激每一个用户在编写答案时的努力与付出!
相关讨论
pyspark dataframe的collect()方法是什么意思?
如何对pyspark dataframe删除一列
pyspark里unpersist()什么作用?
怎么对pyspark.sql.dataframe按照某一列降序排列?
怎么对pyspark dataframe更改列名
如何获取pyspark DataFrame的行数和列数?
怎么在pyspark里把dataframe写入csv文件?
pyspark中怎么对dataframe里的行按照列去重?
怎么将两个pyspark dataframe以串联的形式合并?
pyspark里如何进行SELECT DISTINCT操作?
随便看看
机器学习基础
为啥Xgboost比GradientBoost好那么多?
python直方图y轴显示占比,而不是绝对数值
回归问题中R方可以小于0吗?
print里的"%.2f"是什么意思?