脚本宝典收集整理的这篇文章主要介绍了spark Windows环境的部署,脚本宝典觉得挺不错的,现在分享给大家,也给大家做个参考。
首先去安装JDK和hadoop~
我们从官网:http://www.scala-lang.org/ 下载Scala,选择版本
下载得到Scala的msi文件后,可以双击执行安装。安装成功后,默认会将Scala的bin目录添加到PATH系统变量中去(如果没有,和上面JDK安装步骤中类似,将Scala安装目录下的bin目录路径,添加到系统变量PATH中),为了验证是否安装成功,开启一个新的cmd窗口,输入scala
然后回车,如果能够正常进入到Scala的交互命令环境则表明安装成功。如下图所示:
Spark官网:http://spark.apache.org/ ,要选择带有HadooP版本的Spark:
下载后要解压到一个无中文无空格的路径下,解压后,进入目录,点击执行bin目录下的
spark-shell.cmd,等一小会,,
最后的警告可以不用管他,,然后就可以执行语句了。
以上是脚本宝典为你收集整理的spark Windows环境的部署全部内容,希望文章能够帮你解决spark Windows环境的部署所遇到的问题。
本图文内容来源于网友网络收集整理提供,作为学习参考使用,版权属于原作者。
如您有任何意见或建议可联系处理。小编QQ:384754419,请注明来意。