网站介绍:文章浏览阅读218次。两个创建RDD的方法是完全一样的val conf = new SparkConf().setAppName("MapPartitionsDemo").setMaster("local[*]") val sc = new SparkContext(conf) //创建RDD val rdd1 = sc.makeRDD(List(1, 2, 3, 4, 5, 6, 7, 8, 9, 10), 3) //makeRDD的源码 /** Distribute a loc_spark 算子中preservespartitioning为true的案例
- 链接地址:https://blog.csdn.net/reddy_Hu/article/details/107885756
- 链接标题:Spark之算子及解析_spark 算子中preservespartitioning为true的案例-CSDN博客
- 所属网站:blog.csdn.net
- 被收藏次数:4164
- 网站标签:spark 算子中preservespartitioning为true的案例