欢迎光临
我们一直在努力

Spark API编程中在Spark 1.2版本如何实现对Job输出结果进行排序

Spark API编程中在Spark 1.2版本如何实现对Job输出结果进行排序,很多新手对此不是很清楚,为了帮助大家解决这个难题,下面小编将为大家详细讲解,有这方面需求的人可以来学习下,希望你能有所收获。

从wordcount的输出结果可以看出来结果是未经排序的,如何对spark的输出结果进行排序呢?

先对reduceByKey的结果进行key,value位置置换(数字,字符),然后再进行数字排序,再将key,value位置置换后就是排序后的结果了,最终将结果存储到HDFS中

可以发现我们成功对输出结果进行排序!

看完上述内容是否对您有帮助呢?如果还想对相关知识有进一步的了解或阅读更多相关文章,请关注云搜网行业资讯频道,感谢您对云搜网的支持。

赞(0)
【声明】:本博客不参与任何交易,也非中介,仅记录个人感兴趣的主机测评结果和优惠活动,内容均不作直接、间接、法定、约定的保证。访问本博客请务必遵守有关互联网的相关法律、规定与规则。一旦您访问本博客,即表示您已经知晓并接受了此声明通告。