• 首页 首页 icon
  • 工具库 工具库 icon
    • IP查询 IP查询 icon
  • 内容库 内容库 icon
    • 快讯库 快讯库 icon
    • 精品库 精品库 icon
    • 问答库 问答库 icon
  • 更多 更多 icon
    • 服务条款 服务条款 icon

提交并执行spark的jar包流程和注意事项

武飞扬头像
ZeroXu0
帮助2

1. 前言

  主要是介绍windows环境下提交并执行spark的jar包流程及注意事项,linux环境提交步骤类似且更直观;

2. 步骤

2.1 打包

  我是直接用idea打包,没有用maven。
项目根目录右键 -> Open Module Settings -> Artifacts -> 点击 号 -> JAR -> From modules with dependencies -> 在Main Class里面找到本次需要执行的主类 -> 点击OK
学新通学新通
学新通
学新通

学新通

2.2 执行

  到spark安装目录的bin目录下,cmd进入命令行,例如本地spark安装目录是D:\softwares\spark\spark-2.4.3-bin-hadoop2.7 打好的jar包放在D:\workspace\spark_workspace\SPARK_Demo\out\artifacts\SPARK_Demo_jar目录下
注意打完包需要将jar包中META-INF目录下的*.SF,.DSA,.RSA文件删除,即可。因为有些包有签名,导致执行时报错误: Invalid signature file digest for Manifest main attributes
在命令行直接输入:

spark-submit --class com.zero.scala.sparkCore.ReadAndWriteHdfs --master local D:\\workspace\\spark_workspace\\SPARK_Demo\\out\\artifacts\\SPARK_Demo_jar\\SparkReadWriteHdfs.jar

这篇好文章是转载于:学新通技术网

  • 版权申明: 本站部分内容来自互联网,仅供学习及演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系,请提供相关证据及您的身份证明,我们将在收到邮件后48小时内删除。
  • 本站站名: 学新通技术网
  • 本文地址: /boutique/detail/tanhgbhiah
系列文章
更多 icon
同类精品
更多 icon
继续加载