Hadoop

Ambari 和 Spark 無法從 CLI 啟動

  • March 2, 2018

從 Ambari GUI 我們無法啟動 Spark 服務。所以我們想通過命令行啟動它,如下所示:

[spark@mas01 spark2]$ ./sbin/start-thriftserver.sh --master yarn-client --executor-memory 512m --hiveconf hive.server2.thrift.port=10015
starting org.apache.spark.sql.hive.thriftserver.HiveThriftServer2, logging to /var/log/spark2/spark-spark-org.apache.spark.sql.hive.thriftserver.HiveThriftServer2-1-master01.octopus9.com.out

但是從日誌中我們得到了錯誤:

警告:自 2.0 起不推薦使用 Master yarn-client。請改用指定部署模式的主“紗線”。

請指教語法有什麼問題?

[spark@mas01 spark2]$ more /var/log/spark2/spark-spark-org.apache.spark.sql.hive.thriftserver.HiveThriftServer2-1-master01.octopus9.com.out
Spark Command: /usr/jdk64/jdk1.8.0_112/bin/java -Dhdp.version=2.6.0.3-8 -cp /usr/hdp/2.6.0.3-8/spark2/conf/:/usr/hdp/2.6.0.3-8/spark2/jars/*:/usr/hdp/current/hadoop-client/conf/ -Xmx10000m org.apache.spark.deploy.SparkSubmit --master yarn-client --class org.apache.spark.sql.hive.thriftserver.HiveThriftServer2 --name Thrift JDBC/ODBC Server --executor-memory 512m spark-internal -- hiveconf hive.server2.thrift.port=10015
========================================
Warning: Master yarn-client is deprecated since 2.0. Please use master "yarn" with specified deploy mode instead.

在 Spark 2.0.0 之前,可以使用yarn-clientoryarn-cluster並且現在已棄用。當您使用已棄用的主 URL 時,您將收到上述警告。

現在唯一正確的主 URL 是yarn,例如./bin/spark-submit --master yarn ...。然後,您可以使用--deploy-mode在 Spark client(預設)或 Sparkcluster模式之間進行選擇。

引用自:https://unix.stackexchange.com/questions/383525