在pandas里可以直接用df.shape(),但是pyspark的dataframe不支持shape。有没有类似的代码能够返回pyspark dataframe的行数和列数的?
您确定要删除本贴么?所有相关回复也会被一并删除并且无法恢复。
xdd93 2019-07-11 14:27
print((df.count(), len(df.columns)))
michaelyiyu 2019-07-13 01:15
回答问题时需要注意什么?
我们谢绝在回答前讲“生动”的故事。 我们谢绝答非所问。 我们谢绝自己不会、硬要回答。我们谢绝“这么简单,自己想”、“书上有,自己找”这类回答;如果你认为对方提问方式或者内容不妥,可以直接忽略,不作解答,甚至投反对票。我们感激每一个用户在编写答案时的努力与付出!
相关讨论
怎么对pyspark.sql.dataframe按照某一列降序排列?
pyspark中怎么对dataframe里的行按照列去重?
pyspark里unpersist()什么作用?
怎么在pyspark里把dataframe写入csv文件?
返回pyspark dataframe的行数?
pyspark dataframe的collect()方法是什么意思?
怎么将两个pyspark dataframe以串联的形式合并?
怎么对pyspark dataframe更改列名
pyspark里如何进行SELECT DISTINCT操作?
如何对pyspark dataframe删除一列
随便看看
随机森林(random forest)和支持向量机(SVM)各有什么优劣
神经网络中的dense和sparse是什么意思?
keras里sparse_categorical_crossentropy和categorical_crossentropy什么不同?
把tf.Tensor转换为numpy array
请问在sklearn怎么在已有的模型的基础上训练新的数据?