网站介绍:文章浏览阅读2.3k次。Spark是Hadoop MapReduce的通用并行框架,不同于MapReduce的是Job 中间输出结果可以保存在内存中,从而不再需要读写HDFS,因此Spark能更好地适用于数据挖掘与机器学习等需要迭代的MapReduce的算法;_hadoop 2.5.0 可以安装spark 1.6吗
- 链接地址:https://blog.csdn.net/Haiyang_Duan/article/details/60972664
- 链接标题:HaDoop2.6下安装并配置Spark1.6.3_hadoop 2.5.0 可以安装spark 1.6吗-CSDN博客
- 所属网站:blog.csdn.net
- 被收藏次数:9244
- 网站标签:hadoop 2.5.0 可以安装spark 1.6吗