Spark之算子及解析_spark 算子中preservespartitioning为true的案例-CSDN博客

网站介绍:文章浏览阅读218次。两个创建RDD的方法是完全一样的val conf = new SparkConf().setAppName("MapPartitionsDemo").setMaster("local[*]") val sc = new SparkContext(conf) //创建RDD val rdd1 = sc.makeRDD(List(1, 2, 3, 4, 5, 6, 7, 8, 9, 10), 3) //makeRDD的源码 /** Distribute a loc_spark 算子中preservespartitioning为true的案例