pyspark获取当月的最后一天的日期?

  算法/数据结构/数据库 Spark    浏览次数:2445        分享
0

比如我的pyspark sql dataframe里有一列日期

dates

2020-01-20

2020-01-25

2020-02-01

2020-02-29


我想返回的是加工后的一列,这一列对应着每一行中dates日期所在的月的最后一天。比如上面的结果应该是

last_day_a_month

2020-01-31

2020-01-31

2020-02-29

2020-02-29


在pyspark里我该怎么操作?

 

cannon   2020-04-25 20:54



   1个回答 
2

先引用一下pyspark的functions

import pyspark.sql.functions as F

然后用Functions中的last_day函数就可以得到当月的最后一天

select(F.last_day(F.col('dates')).alias('last_day_of_month'))


SofaSofa数据科学社区DS面试题库 DS面经

黑泽先生   2020-04-25 22:17



  相关讨论

pyspark里怎么把类似‘yyyy-mm-dd‘的字符串转成星期几的形式?

怎么在pyspark中查看一个表格的partition?

pyspark的dataframe里怎么count每一列的null的数量?

pyspark里怎么查看一个dataframe的schema?

pyspark里转成整数型报错TypeError: unexpected type:

怎么对pyspark的dataframe进行随机抽样?

hive和spark sql的区别是什么?

怎么用pyspark取出hive表里的json串中某一个key的值?

pyspark里怎么求百分位数?

怎么对pyspark dataframe更改列名

  随便看看

支持向量机(SVM)里的支持向量是什么意思

pandas读取csv中指定的某些列

opencv里waitkey和destroyAllWindows有什么用?

python产生服从常用概率分布的随机数

怎么让DataFrame按照某一列绝对值从小到按排列?