docker-compose 搭建最简单的 Spark 集群
用 docker 起一个 spark 集群非常快捷, 几乎无需做任何配置.
docker-compose 搭建伪分布式 standalone 集群
docker-compose 内容如下
1 | version: '3.3' |
启动方式: docker-compose up spark spark-worker --scale spark-worker=3
即在本机启动一个 master 结点和 三个 worker 结点
启动后可以看到
提交任务
在容器内运行命令 spark-submit --class {此处是 jar 包的 mainclass} --deploy-mode {部署模式, 如果设置了 master 默认为 client} --master {spark master 的 url} {jar 包位置}
, 如 spark-submit --class WordCount --deploy-mode client --master spark://spark:7077 /opt/sahre/wordcount.jar
.
关于 --deploy-mode
- local: 代码内和提交命令内均不设置 master, 此时不会在集群内运行, 即 local 模式
- client: driver 进程在提交的结点内启动
- cluster: driver 在集群中的 worker 中选择一个启动 driver 进程
更多的参数可以在 https://spark.apache.org/docs/latest/spark-standalone.html 找到.
本博客所有文章除特别声明外,均采用 CC BY-NC-SA 4.0 许可协议。转载请注明来自 极东魔术昼寝结社!
评论