spark-运行 jar 包

作者 : 开心源码 本文共1305个字,预计阅读时间需要4分钟 发布时间: 2022-05-12 共203人阅读

spark jar 本非方式运行

首先我们通过帮助命令来看spark 如何提交执行jar包
spark-submit –help

image.png

spark-submit 详细参数说明

--master     master 的地址,提交任务到哪里执行,例如 spark://host:port,  yarn,  local--deploy-mode    在本地 (client) 启动 driver 或者在 cluster 上启动,默认是 client--class  应用程序的主类,仅针对 java 或者 scala 应用--name   应用程序的名称--jars   用逗号分隔的本地 jar 包,设置后,这些 jar 将包含在 driver 和 executor 的 classpath 下--packages   包含在driver 和executor 的 classpath 中的 jar 的 maven 坐标--exclude-packages   为了避免冲突 而指定不包含的 package--repositories   远程 repository--conf PROP=VALUE   指定 spark 配置属性的值,例如 -conf spark.executor.extraJavaOptions="-XX:MaxPermSize=256m"--properties-file    加载的配置文件,默认为 conf/spark-defaults.conf--driver-memory  Driver内存,默认 1G--driver-java-options    传给 driver 的额外的 Java 选项--driver-library-path    传给 driver 的额外的库路径--driver-class-path  传给 driver 的额外的类路径--driver-cores   Driver 的核数,默认是1。在 yarn 或者者 standalone 下使用--executor-memory    每个 executor 的内存,默认是1G--total-executor-cores   所有 executor 总共的核数。仅仅在 mesos 或者者 standalone 下使用--num-executors  启动的 executor 数量。默认为2。在 yarn 下使用--executor-core  每个 executor 的核数。在yarn或者者standalone下使用

通过帮助文档我们可以知道启动 spark java jar 包的命令如下

spark-submit --master local --name MyWordCount --class com.river.WordCountDemon ~/Downloads/spark-demon-1.0-SNAPSHOT.jar ~/hadoop/spark/wordcount/text.txt

文档内容

hello frank
hello lucy
do you know that I miss you so much
long long age I know you , you know me

看到结果

(long,2)
(you,4)
(that,1)
(do,1)
(I,2)
(know,3)
(hello,2)
(age,1)
(so,1)
(frank,1)
(,,1)
(lucy,1)
(much,1)
(miss,1)
(me,1)

说明
1. 本站所有资源来源于用户上传和网络,如有侵权请邮件联系站长!
2. 分享目的仅供大家学习和交流,您必须在下载后24小时内删除!
3. 不得使用于非法商业用途,不得违反国家法律。否则后果自负!
4. 本站提供的源码、模板、插件等等其他资源,都不包含技术服务请大家谅解!
5. 如有链接无法下载、失效或广告,请联系管理员处理!
6. 本站资源售价只是摆设,本站源码仅提供给会员学习使用!
7. 如遇到加密压缩包,请使用360解压,如遇到无法解压的请联系管理员
开心源码网 » spark-运行 jar 包

发表回复