dkfr.net
当前位置:首页 >> hADoop2.7.3应该用什么版本的sCAlA和spArk >>

hADoop2.7.3应该用什么版本的sCAlA和spArk

在 master上做如下动作: 1) tar -xzvf spark-2.0.0-bin-hadoop2.7.tgz mv spark-2.0.0-bin-hadoop2.7 /usr/spark2.0 配置环境变量:(/etc/profile) export SPARK_HOME=/usr/spark2.0 export PATH=PATH:SPARK_HOME/bin 2) 配置spark环境(spar...

1,构建系统的选择,sbt更合适用来构建Scala工程,maven更合适用来构建Java工程2,对于spark中的API来说,Java和Scala有差别,但差别并不大3,如果用Scala开发spark原型程序,可以用spark-shell“打草稿”,或者直接使用spark-shell做交互式实时查...

Spark与Hadoop一样,是一种开源的集群计算环境,但在特定工作负载情况下比Hadoop更高效。Spark采用基于内存的分布式数据集,优化了迭代式的工作负载以及交互式查询。Spark采用Scala语言实现,使用Scala作为应用框架。与Hadoop不同的是,Spark和S...

楼主应该是写错了吧,到目前为止spark版本只到 1.6.1,对应scala版本为 2.10.x。

Scala相对于Java的优势是巨大的。熟悉Scala之后再看Java代码,有种读汇编的感觉…… 如果仅仅是写Spark应用,并非一定要学Scala,可以直接用Spark的Java API或Python API。但因为语言上的差异,用Java开发Spark应用要罗嗦许多。好在带lambda的Java...

如果是spark1的话应该用的是2.10,2的话应该是2.11,具体的到spark安装目录下看一下jars中scala开头的jar包就可以了

使用2.10.x版本

下载的可直接运行的是2.10.x,源码支持2.11.x,但是编译的时候需要加上条件-Dscala-2.11,但是Spark does not yet support its JDBC component for Scala 2.11. 所以需要这部分功能的还是用2.10.x

安装spark tar -zxvf spark-1.3.0-bin-hadoop2.3.tgz mkdir /usr/local/spark mv spark-1.3.0-bin-hadoop2.3 /usr/local/spark vim /etc/bashrc export SPARK_HOME=/usr/local/spark/spark-1.3.0-bin-hadoop2.3 export PATH=$SCALA_HOME/bin:$SP...

网站首页 | 网站地图
All rights reserved Powered by www.dkfr.net
copyright ©right 2010-2021。
内容来自网络,如有侵犯请联系客服。zhit325@qq.com