用Spark实现简单的单词统计_使用spark编程进行单词统计-CSDN博客

网站介绍:文章浏览阅读1.6k次。用Scala实现RDD(可以简单理解为是一个list集合,里面放的就是读到的一行一行的数据)是spark中非常核心的内容,只有通过SparkContext才能创建出来RDD。package com.husky.sparkimport org.apache.spark.rdd.RDDimport org.apache.spark.{SparkConf, SparkContext}object SparkWordCount { def main(args: Array[String]): Un_使用spark编程进行单词统计