pyspark里怎么查看一个dataframe的schema?
您确定要删除本贴么?所有相关回复也会被一并删除并且无法恢复。
cannon 2020-04-22 22:49
如果要查看sql_df的schema可进行如下操作
sql_df.printSchema()
eskimo2048 2020-04-24 09:12
回答问题时需要注意什么?
我们谢绝在回答前讲“生动”的故事。 我们谢绝答非所问。 我们谢绝自己不会、硬要回答。我们谢绝“这么简单,自己想”、“书上有,自己找”这类回答;如果你认为对方提问方式或者内容不妥,可以直接忽略,不作解答,甚至投反对票。我们感激每一个用户在编写答案时的努力与付出!
相关讨论
pyspark里转成整数型报错TypeError: unexpected type:
pyspark里怎么把类似‘yyyy-mm-dd‘的字符串转成星期几的形式?
怎么在pyspark中查看一个表格的partition?
pyspark获取当月的最后一天的日期?
pyspark的dataframe里怎么count每一列的null的数量?
怎么对pyspark的dataframe进行随机抽样?
怎么用pyspark取出hive表里的json串中某一个key的值?
hive和spark sql的区别是什么?
pyspark里怎么求百分位数?
如何获取pyspark DataFrame的行数和列数?
随便看看
pip install opencv-python失败,难道非要编译安装?
查看sklearn的线性回归系数的p value
NLP里的OOV是什么意思?
如何在numpy array尾部增加一行
点击率的95%置信区间该怎么算?