HaDoop2.6下安装并配置Spark1.6.3_hadoop 2.5.0 可以安装spark 1.6吗-CSDN博客

网站介绍:文章浏览阅读2.3k次。Spark是Hadoop MapReduce的通用并行框架,不同于MapReduce的是Job 中间输出结果可以保存在内存中,从而不再需要读写HDFS,因此Spark能更好地适用于数据挖掘与机器学习等需要迭代的MapReduce的算法;_hadoop 2.5.0 可以安装spark 1.6吗