1.在hbase-env.sh中修改Java路径
1 | export JAVA_HOME=/csh/link/jdk |
2.在hbase-site.xml中修改
1 | <property> |
3.启动HBase
1 | bin/start-hbase.sh |
4.连接HBase
1 | bin/hbase shell |
当才华撑不起野心时,应该静下心来学习;当能力驾驭不了目标时,应该沉下心来历练。
1.在hbase-env.sh中修改Java路径
1 | export JAVA_HOME=/csh/link/jdk |
2.在hbase-site.xml中修改
1 | <property> |
3.启动HBase
1 | bin/start-hbase.sh |
4.连接HBase
1 | bin/hbase shell |
各节点配置参考表
主机 | NameNode | DataNode | Zookeeper | ZKFC | JournalNode | ResourceManager | NodeManager |
---|---|---|---|---|---|---|---|
node1 | 1 | 1 | 1 | 1 | |||
node2 | 1 | 1 | 1 | 1 | 1 | 1 | |
node3 | 1 | 1 | 1 | 1 | |||
node4 | 1 | 1 | 1 |
文件配置:
core-site.xml
1 | <property> |
hdfs-site.xml
1 | <property> |
mapred-site.xml
1 | <property> |
yarn-site.xml
1 | <property> |
masters
1 | node2 |
slaves
1 | node2 |
启动
安装Zookeeper请看:Zookeeper安装以及集群搭建
1.启动 zookeeper(在node1,node2,node3中执行以下命令)
(在zookeeper/bin目录下)
1 | ./zkServer.sh start |
通过以下命令检查是否启动成功
1 | ./zkServer.sh status |
成功会显示以下数据
1 | ZooKeeper JMX enabled by default |
2.启动journalnode(在node1中执行以下命令)
1 | ./hadoop-daemons.sh start journalnode |
在node2、node3、node4运行jps命令检查journalnode是否启动成功
成功会有出现
1 | 2601 JournalNode |
3.格式化zkfc,让在zookeeper中生成ha节点(在node1中执行)
1 | hdfs zkfc –formatZK |
格式化成功后可以查看zookeeper得到
1 | ./zkCli.sh -server node1:2181 |
4.格式化hdfs(在node1中执行)
1 | hadoop namenode –format |
5.启动NameNode
先在node1上启动active结点(在node1中执行)
1 | [root@node1 sbin]# hadoop-daemon.sh start namenode |
在node2中同步namenode数据,同时启动standby的namenode
1 | #把NameNode的数据同步到node2上 |
6.启动DataNode(在node1中执行)
1 | ./hadoop-daemons.sh start datanode |
7.启动yarn
(在作为资源管理器上的机器上启动,我这里是node1,执行如下命令完成yarn的启动)
1 | ./start-yarn.sh |
8.启动ZKFC(在node1、node2中分别执行)
1 | hadoop-daemon.sh start zkfc |
各节点的情况
1 | //node1 |
本文中配置3个节点的zookeeper集群,主机分别是node1,node2,node3
到官网下载压缩包,也可以在下面链接下载
zookeeper-3.4.8.tar.gz
1.解压压缩包
1 | tar -xvf zookeeper-3.4.8.tar.gz |
2.修改配置
到conf文件目录下,有个zoo_sample.cfg文件,将文件拷贝一份改名为zoo.cfg
1 | cp zoo_sample.cfg zoo.cfg |
修改配置文件zoo.cfg
1 | tickTime=2000 |
3.创建dataDir和dataLogDir目录
1 | mkdir -p /csh/hadoop/zookeeper/data |
4.根据配置文件zoo.cfg中的集群,在dataDir中添加文件myid,并写入相应的数字
1 | #在node1中执行 |
5.运行3个主机的zookeeper,通过以下命令
1 | #在zookeeper/bin目录下 |
6.检测是否成功
1 | #结点node1 |
主机 | HDFS | MapReduce |
---|---|---|
node1 | NameNode | ResourceManager |
node2 | SecondaryNameNode & DataNode | NodeManager |
node3 | DataNode | NodeManager |
node4 | DataNode | NodeManager |
1.配置hadoop-env.sh
1 | export JAVA_HOME=/csh/link/jdk |
2.配置core-site.xml
1 | <property> |
3.配置hdfs-site.xml
1 | <property> |
4.配置mapred-site.xml
1 | <property> |
5.配置yarn-site.xml
1 | <property> |
6.配置masters
1 | node2 |
7.配置slaves
1 | node2 |
8.启动Hadoop
1 | bin/hadoop namenode -format |
9.运行WordCount程序
1 | //创建文件wc.txt |
10.结果
1 | [root@node1 sbin]# hadoop jar /csh/software/hadoop-2.7.2/share/hadoop/mapreduce/hadoapreduce-examples-2.7.2.jar wordcount /input/wordcount/ /output/wordcount/ |