这篇文章主要介绍了spark运行时如何使用yarn分配资源并设置–num-executors参数,具有一定借鉴价值,感兴趣的朋友可以参考下,希望大家阅读完这篇文章之后大有收获,下面让小编带着大家一起了解一下。
运行时使用yarn分配资源,并设置–num-executors参数
nohup /home/SASadm/spark-1.4.1-bin-hadoop2.4/bin/spark-submit --name mergePartition --class main.scala.week2.mergePartition --num-executors 30 --master yarn mergePartition.jar >server.log 2>&1 &
感谢你能够认真阅读完这篇文章,希望小编分享的“spark运行时如何使用yarn分配资源并设置–num-executors参数”这篇文章对大家有帮助,同时也希望大家多多支持云搜网,关注云搜网行业资讯频道,更多相关知识等着你来学习!