Linux 服务器Hadoop 2.7.2集群安装与配置
  ozzp9aSSE46S 2023年11月12日 12 0
Linux 服务器Hadoop 2.7.2集群安装与配置

总体思路,准备主从服务器,配置主服务器可以无密码SSH登录从服务器,解压安装JDK,解压安装Hadoop,配置hdfs、mapreduce等主从关系。

1、环境,3台CentOS 6,64位,Hadoop2.7需要64位Linux Master 192.168.0.21 主机名hbase Slave1 192.168.0.20 主机名hbaseslave Slave2 192.168.0.56 主机名testlv

2、SSH免密码登录,因为Hadoop需要通过SSH登录到各个节点进行操作,我用的是root用户,每台服务器都生成公钥,再合并到authorized_keys (1)CentOS默认没有启动ssh无密登录,去掉/etc/ssh/sshd_config其中2行的注释,每台服务器都要设置, #RSAAuthentication yes #PubkeyAuthentication yes (2)输入命令,ssh-keygen -t rsa,生成key,都不输入密码,一直回车,/root就会生成.ssh文件夹,每台服务器都要设置, [root@www jdk]# ssh-keygen -t rsa Generating public/private rsa key pair. Enter file in which to save the key (/root/.ssh/id_rsa): /root/.ssh/id_rsa already exists. Overwrite (y/n)?

(3)合并公钥到authorized_keys文件,在Master服务器,进入/root/.ssh目录,通过SSH命令合并, [root@hbase /]# cd /root/.ssh/ [root@hbase .ssh]# cat id_rsa.pub >> authorized_keys [root@hbase .ssh]# ssh root@192.168.0.20 cat ~/.ssh/id_rsa.pub >> authorized_keys [root@hbase .ssh]# ssh root@192.168.0.56 cat ~/.ssh/id_rsa.pub >> authorized_keys You have new mail in /var/spool/mail/root

(4)把Master服务器的authorized_keys、known_hosts复制到Slave1服务器的/root/.ssh目录 [root@testlv .ssh]# scp authorized_keys known_hosts root@192.168.0.20:/root/.ssh/ authorized_keys 100% 3171 3.1KB/s 00:00
known_hosts 100% 1964 1.9KB/s 00:00

(5)把Master服务器的authorized_keys、known_hosts复制到Slave2服务器的/root/.ssh目录 [root@testlv .ssh]# scp authorized_keys known_hosts root@192.168.0.56:/root/.ssh/ authorized_keys 100% 3171 3.1KB/s 00:00
known_hosts 100% 1964 1.9KB/s 00:00

(6)完成,21 ssh 192.168.0.20和192.168.0.56就不需要输入密码了 [root@testlv .ssh]# ssh root@192.168.0.20 Last login: Thu Aug 4 11:15:34 2016 from 192.168.0.173 [root@hbaseslave ~]#

3、三台服务器安装JDK,Hadoop2.7.2 需要JDK7,这里安装的是JDK8, (1)下载“jdk-8u45-linux-x64.tar.gz”,放到/usr/local/目录下 (2)解压,输入命令,tar -zxvf jdk-8u45-linux-x64.tar.gz -C /usr/local/ (3)cd /usr/local/ mv jdk_1.8.45 jdk (4)编辑/etc/profile export JAVA_HOME=/usr/local/jdk/ export CLASSPATH=.:Linux 服务器Hadoop 2.7.2集群安装与配置_服务器JAVA_HOME/lib/dt.jar:Linux 服务器Hadoop 2.7.2集群安装与配置_服务器_02PATH:$JAVA_HOME/bin (4)使配置生效,输入命令,source /etc/profile (5)输入命令,java -version,完成

4、安装Hadoop2.7.2,只在Master服务器(0.21)解压,再复制到Slave服务器 (1)下载“hadoop-2.7.2.tar.gz”,放到/usr/local/目录下 (2)解压,输入命令,tar -xzvf hadoop-2.7.2.tar.gz -C /usr/local/ (3)把解压后的hadoop-2.7.2改名为hadoop mv hadoop-2.7.2 hadoop (4) 改变hadoop目录的所有者,chown -R root:root hadoop-2.7.2
(5)在/usr/local/hadoop 目录下创建数据存放的文件夹,tmp、hdfs、hdfs/data、hdfs/name [root@hbase sbin]# cd /usr/local/hadoop/ You have new mail in /var/spool/mail/root [root@hbase hadoop]# mkdir {tmp,hdfs} [root@hbase hadoop]# mkdir -p hdfs/{data,name}

5、配置/usr/local/hadoop/etc/hadoop目录下的core-site.xml fs.defaultFS hdfs://hbase:9000 hadoop.tmp.dir file:/usr/local/hadoop/tmp io.file.buffer.size 131702

6、配置/usr/local/hadoop/etc/hadoop目录下的hdfs-site.xml dfs.namenode.name.dir file:/usr/local/hadoop/hdfs/name dfs.datanode.data.dir file:/usr/local/hadoop/hdfs/data dfs.replication 2 dfs.namenode.secondary.http-address 192.168.0.21:9001 dfs.webhdfs.enabled true hadoop.tmp.dir /usr/local/hadoop/tmp

dfs.datanode.max.transfer.threads 4096 dfs.datanode.max.xcievers 4096

7、配置/usr/local/hadoop/etc/hadoop目录下的mapred-site.xml mapreduce.framework.name yarn mapreduce.jobhistory.address 192.168.0.21:10020 mapreduce.jobhistory.webapp.address 192.168.0.21:19888

<name>mapreduce.map.memory.mb</name>
    <value>512</value>
</property>


<name>mapreduce.reduce.memory.mb</name>
    <value>1024</value>
</property>
<property>

    <name>mapreduce.map.java.opts</name>
    <value>408</value>
</property>
 <property>

    <name>mapreduce.map.java.opts</name>
    <value>816</value>
</property>

<property>

    <name>mapreduce.map.cpu.vcores</name>
    <value>1</value>
</property>
 <property>

    <name>mapreduce.reduce.cpu.vcores</name>
    <value>1</value>
</property>
  <property>

    <name>mapreduce.job.ubertask.enable</name>
    <value>true</value>
</property>

8、配置/usr/local/hadoop/etc/hadoop目录下的yarn-site.xml yarn.nodemanager.aux-services mapreduce_shuffle yarn.nodemanager.auxservices.mapreduce.shuffle.class org.apache.hadoop.mapred.ShuffleHandler yarn.resourcemanager.address 192.168.0.21:8032 yarn.resourcemanager.scheduler.address 192.168.0.21:8030 yarn.resourcemanager.resource-tracker.address 192.168.0.21:8031 yarn.resourcemanager.admin.address 192.168.0.21:8033 yarn.resourcemanager.webapp.address 192.168.0.21:8088

<name>yarn.nodemanager.resource.memory-mb</name>

    <value>2000</value>

</property>
<property>

    <name>yarn.scheduler.minimum-allocation-mb</name>
    <value>512</value>


<name>yarn.scheduler.maximum-allocation-mb</name>
    <value>2048</value>
<property>

    <name>yarn.appp.mapreduce.am.resource.cpu-vcores</name>
    <value>1</value>
</property>
 <property>

    <name>yarn.scheduler.maximun-allocation-vcores</name>
    <value>2</value>
</property>


<name>yarn.scheduler.minimun-allocation-vcores</name>
    <value>1</value>
</property>


<name>yarn.nodemanager.resource.cpu-vcores</name>
    <value>2</value>
</property>

9、配置/home/hadoop/hadoop/etc/hadoop目录下hadoop-env.sh、yarn-env.sh的JAVA_HOME,不设置的话,启动不了, export JAVA_HOME=/usr/local/jdk/

10、配置/usr/local/hadoop/etc/hadoop目录下的slaves,删除默认的localhost,增加2个从节点, hbaseslave testlv

[root@hbase]# cd /usr/local/hadoop/etc/hadoop/ [root@hbase hadoop]# cat slaves hbaseslave testlv

11、将配置好的Hadoop复制到各个节点对应位置上,通过scp传送, scp -r /usr/local/hadoop root@192.168.0.20:/usr/local/ scp -r /usr/local/hadoop root@192.168.0.56:/usr/local/

12、在Master服务器启动hadoop,从节点会自动启动,进入/usr/local/hadoop/目录 [root@hbase hadoop]# cd /usr/local/hadoop/ (1)初始化,输入命令,./bin/hdfs namenode -format [root@hbase hadoop]# ./bin/hdfs namenode -format

(2)全部启动sbin/start-all.sh,也可以分开sbin/start-dfs.sh、sbin/start-yarn.sh [root@hbase hadoop]# ./sbin/start-all.sh

(3)停止的话,输入命令,sbin/stop-all.sh [root@hbase hadoop]# ./sbin/stop-all.sh

(4)在主和从服务器上输入命令jps,可以看到相关信息 主服务器:[root@hbase ~]# jps 92355 ResourceManager 92165 SecondaryNameNode 93161 Main 94665 Jps 92905 HMaster 91947 NameNode 92655 QuorumPeerMain

从服务器20: [root@hbaseslave ~]# jps 132980 NodeManager 82396 HRegionServer 133167 QuorumPeerMain 135404 Jps 132813 DataNode

从服务器56: [root@testlv ~]# jps 10097 NodeManager 12386 Jps 10405 QuorumPeerMain 9975 DataNode 10523 HRegionServer

13、Web访问,要先开放端口或者直接关闭防火墙 (1)输入命令,service iptables stop (2)浏览器打开http://192.168.0.21:8088/ (3)浏览器打开http://192.168.0.21:50070/

14、安装完成。这只是大数据应用的开始,之后的工作就是,结合自己的情况,编写程序调用Hadoop的接口,发挥hdfs、mapreduce的作用。

【版权声明】本文内容来自摩杜云社区用户原创、第三方投稿、转载,内容版权归原作者所有。本网站的目的在于传递更多信息,不拥有版权,亦不承担相应法律责任。如果您发现本社区中有涉嫌抄袭的内容,欢迎发送邮件进行举报,并提供相关证据,一经查实,本社区将立刻删除涉嫌侵权内容,举报邮箱: cloudbbs@moduyun.com

  1. 分享:
最后一次编辑于 2023年11月12日 0

暂无评论

推荐阅读
ozzp9aSSE46S
最新推荐 更多

2024-05-03