网站介绍:文章浏览阅读186次。spark中的算子调用:1.aggregateByKey算子def main(args : Array[String]):Unit={ val conf: SparkConf = new SparkConf().setMaster("local").setAppName("aggregateByKey") val sc: SparkContext = new SparkContext(conf) val rdd: RDD[(String, Int)] = sc.makeRDD(List(("_spark kv
- 链接地址:https://blog.csdn.net/weixin_48960305/article/details/120874136
- 链接标题:spark篇之kv结构算子_spark kv-CSDN博客
- 所属网站:blog.csdn.net
- 被收藏次数:4121
- 网站标签:spark kv