网站介绍:文章浏览阅读1.6k次。用Scala实现RDD(可以简单理解为是一个list集合,里面放的就是读到的一行一行的数据)是spark中非常核心的内容,只有通过SparkContext才能创建出来RDD。package com.husky.sparkimport org.apache.spark.rdd.RDDimport org.apache.spark.{SparkConf, SparkContext}object SparkWordCount { def main(args: Array[String]): Un_使用spark编程进行单词统计
- 链接地址:https://blog.csdn.net/qq_36299025/article/details/115839507
- 链接标题:用Spark实现简单的单词统计_使用spark编程进行单词统计-CSDN博客
- 所属网站:blog.csdn.net
- 被收藏次数:2598
- 网站标签:使用spark编程进行单词统计