zepplin 配置hive on spark
  e7PL9TmFyi0o 2023年11月02日 52 0

Zeppelin配置Hive on Spark的流程

下面是配置"Zepplin配置Hive on Spark"的步骤表格:

步骤 操作
1. 下载和安装Apache Zeppelin
2. 配置Spark和Hive的环境变量
3. 启动Zeppelin服务
4. 创建一个新的Zeppelin笔记本
5. 在笔记本中配置Spark和Hive的设置
6. 执行Hive查询

步骤1:下载和安装Apache Zeppelin

  1. 访问Apache Zeppelin官方网站(
  2. 解压下载的文件到一个合适的目录。
  3. 进入解压后的Zeppelin目录,并执行bin目录下的zeppelin.sh脚本来启动Zeppelin。

步骤2:配置Spark和Hive的环境变量

  1. 打开终端窗口,并使用文本编辑器打开~/.bashrc文件。
  2. 在文件的末尾添加以下两行代码:
export SPARK_HOME=/path/to/your/spark/installation
export HIVE_HOME=/path/to/your/hive/installation

确保将/path/to/your/spark/installation/path/to/your/hive/installation替换为实际的Spark和Hive安装路径。 3. 保存并关闭文件。 4. 在终端窗口中执行以下命令以使环境变量生效:

source ~/.bashrc

步骤3:启动Zeppelin服务

  1. 打开终端窗口,并进入Zeppelin目录。
  2. 执行以下命令以启动Zeppelin服务:
bin/zeppelin-daemon.sh start

步骤4:创建一个新的Zeppelin笔记本

  1. 打开Web浏览器,并访问Zeppelin的URL(通常为http://localhost:8080)。
  2. 在Zeppelin界面上选择"Create new note"(创建新的笔记本)。
  3. 输入笔记本名称,并点击"Create note"(创建笔记)。

步骤5:在笔记本中配置Spark和Hive的设置

  1. 在新创建的笔记本中,点击页面右上角的"Interpreter Binding"(解释器绑定)按钮。
  2. 在弹出的对话框中,选择"spark"解释器,并点击"Create"(创建)按钮。
  3. 在"spark"解释器的设置页面中,找到"spark.master"选项,并将其设置为"yarn-client"。
  4. 找到"spark.app.name"选项,并将其设置为任意名称。
  5. 找到"spark.sql.hive.verifyPartitionPath"选项,并将其设置为"false"。
  6. 点击页面底部的"Save"(保存)按钮。

步骤6:执行Hive查询

  1. 在新创建的笔记本中,输入Hive查询语句。
  2. 在查询前,使用以下代码来启用Hive支持:
%spark
sqlContext.setConf("spark.sql.hive.convertMetastoreParquet", "false")

该代码将确保Spark使用Hive的元数据和表定义。 3. 执行Hive查询并查看结果。

请注意,以上代码示例中的/path/to/your/spark/installation/path/to/your/hive/installation应替换为您实际的Spark和Hive安装路径。

希望这篇文章能帮助你成功配置"Zepplin配置Hive on Spark"!

【版权声明】本文内容来自摩杜云社区用户原创、第三方投稿、转载,内容版权归原作者所有。本网站的目的在于传递更多信息,不拥有版权,亦不承担相应法律责任。如果您发现本社区中有涉嫌抄袭的内容,欢迎发送邮件进行举报,并提供相关证据,一经查实,本社区将立刻删除涉嫌侵权内容,举报邮箱: cloudbbs@moduyun.com

  1. 分享:
最后一次编辑于 2023年11月08日 0

暂无评论

e7PL9TmFyi0o
最新推荐 更多

2024-05-31