导读 你们好,最近小活发现有诸多的小伙伴们对于standalone翻译,standalone这个问题都颇为感兴趣的,今天小活为大家梳理了下,一起往下看看吧。
你们好,最近小活发现有诸多的小伙伴们对于standalone翻译,standalone这个问题都颇为感兴趣的,今天小活为大家梳理了下,一起往下看看吧。
1、 1)进入spark安装目录下的conf文件夹。
2、 2)修改配置文件的名称
3、 3)修改从文件,增加工作节点:
4、 4)修改spark-env.sh文件并添加以下配置:
5、 5)分发火花包
6、 6)开始
7、 网页浏览量:hadoop102:8080
8、 注意:如果遇到“JAVA_HOME not set”异常,可以将以下配置添加到sbin目录下的spark-config.sh文件中:
9、 7)官方PI
10、 8) Start the spark shell.
11、 参数:-masterspark://Hadoop 102: 7077指定要连接的集群的主节点。
12、 执行字数统计程序
以上就是standalone这篇文章的一些介绍,希望对大家有所帮助。
标签:
免责声明:本文由用户上传,如有侵权请联系删除!