大数据开发复习Spark篇_spark针对批处理采用的数据抽象分别是什么?-CSDN博客

网站介绍:文章浏览阅读1.5k次。11、spark11.1、spark介绍Apache Spark是用于大规模数据处理的统一分析计算引擎Spark基于内存计算,提高了在大数据环境下数据处理的实时性,同时保证了高容错性和高可伸缩性,允许用户将Spark部署在大量硬件之上,形成集群。11.2、spark与Hadoop的区别​ 尽管Spark相对于Hadoop而言具有较大优势,但Spark并不能完全替代Hadoop,Spark主要用于替代Hadoop中的MapReduce计算模型。存储依然可以使用HDFS,但是中间结果可以存放在内存中;_spark针对批处理采用的数据抽象分别是什么?