跳到主要内容 跳到补充内容

配置 Spark Job Server

步骤

  1. 打开 <Spark_Job_Server_Path>/settings.sh 文件。
  2. 编辑以下行以指定您想要 Spark Job Server 服务使用的 IP 地址。该服务将侦听此 IP 地址。
    sjs_host=localhost
  3. 编辑以下行以指定您想要 Spark Job Server 服务使用的端口。该服务将侦听此端口。
    sjs_port=8098
  4. 编辑以下行以指定 Hadoop 集群设置目录的路径。请注意,这必须是本地路径:您可以从 Hadoop 集群获得设置文件 (如 hdfs-site.xmlmapred-side.xmlcore-site.xmlyarn-site.xml),并将其复制到安装 Spark Job Server 的计算机。
    hadoop_conf_dir=/path/to/hadoop/cluster/settings/directory
  5. 要将 Spark Job Server 服务器与安全 Hadoop 集群 (使用 Kerberos) 一起使用,请将以下行添加到该文件。请注意,这必须是本地路径:您可以从 Hadoop 集群获得 krb5.conf 文件,并将其复制到安装 Spark Job Server 的计算机。
    krb5.config=/path/to/Kerberos/configuration/file/krb5.conf
  6. 将您的更改保存到设置文件。
  7. 重新启动 Spark Job Server 以使您的更改生效。

本页面有帮助吗?

如果您发现此页面或其内容有任何问题 – 打字错误、遗漏步骤或技术错误 – 请告诉我们如何改进!