资源预览内容
第1页 / 共12页
第2页 / 共12页
第3页 / 共12页
第4页 / 共12页
第5页 / 共12页
第6页 / 共12页
第7页 / 共12页
第8页 / 共12页
第9页 / 共12页
第10页 / 共12页
亲,该文档总共12页,到这儿已超出免费预览范围,如果喜欢就下载吧!
资源描述
文档版本:V1.01 分布式文件存储 (hadoop+hbase)部署文档 二一二年一月 分布式文件存储(hadoop+hbase)部署文 档 第 I 页 目 录 第一章第一章 概述概述 1 第二章第二章 环境准备环境准备.2 2.1 硬件环境.2 2.2 软件环境.2 第三章第三章 部署过程部署过程.3 3.1 部署.3 3.1.1 安装JDK3 3.1.2 设置java环境变量3 3.1.3 配置SSH协议无密码访问.3 3.1.4 部署hadoop .4 3.1.4.1 设置 hadoop 环境变量 .4 3.1.4.2 设置主从配置4 3.1.4.3 修改配置文件 core-site.xml.5 3.1.4.4 修改配置文件 hdfs-site.xml.5 3.1.4.5 修改配置文件 mapred-site.xml .6 3.1.4.6 格式化 namenode.6 3.1.4.7 测试是否成功6 3.1.5 部署Zookeeper.6 3.1.6 部署HBase7 3.1.6.1 配置 hbase-env.sh 文件 7 3.1.6.2 配置 hbase-site.xml 文件7 3.1.6.3 配置 regionservers 文件8 3.1.6.4 替换 hadoop-core 包.8 3.1.6.5 测试是否成功9 分布式文件存储(hadoop+hbase)部署文 档 第 1 页 第一章第一章 概述概述 本文以 mster 为管理主机,node1 和 node2 为数据节点部署 hadoop+hbase 分布式文件系统。以下文档中如果涉及到主机名或者关键点都会以颜色标记, 文中涉及配置除了 zookeeper 服务器需要单独部署 zookeeper 外,其他都都需 要在 master 和各个节点配置。文章适合于有一定 Linux 基础的研发人员。 分布式文件存储(hadoop+hbase)部署文 档 第 2 页 第二章第二章 环境准备环境准备 2.1 硬件环境硬件环境 机器 IP主机名用户名密码操作系 统 备注部署软件 122.161.43. 12 masterrootCentos管理节点 (namenode) hadoop、hbase、jdk 122.161.43. 13 node1rootCentos数据节点 (datanode) hadoop、hbase、jdk、zo okeeper 122.161.43. 14 node2rootCentos数据节点 (datanode) hadoop、hbase、jdk 注:主机名不能包含下划线! 2.2 软件环境软件环境 软件如不特殊说明,均为 64 位。 名称版本备注 centos5.7 hadoop0.20.2 hbase0.90.2 zookeeper3.3.3 jdk1.6.0_21 分布式文件存储(hadoop+hbase)部署文 档 第 3 页 第三章第三章 部署过程部署过程 3.1 部署部署 3.1.1 安装安装 JDK 安装 jdk1.6,注意:jdk1.6 小版本不要是 18。 3.1.2 设置设置 java 环境变量环境变量 /etc/profile 文件中增加如下内容 #config java JAVA_HOME=/usr/java/jdk1.6.0_21 CLASSPATH=.:$JAVA_HOME/lib/tools.jar:$JAVA_HOME/lib/dt.jar PATH=$JAVA_HOME/bin:$HOME/bin:$PATH export PATH JAVA_HOME CLASSPATH 让设置生效: source /etc/profile 3.1.3 配置配置 SSH 协议无密码访问协议无密码访问 1、说明 此配置的作用在于,让管理节点可以通过 SSH 直接访问两个数据节点。 2、操作过程 1)在 122.161.43.12 服务器终端执行以下操作 $ ssh-keygen -t dsa -P -f /.ssh/id_dsa 直接回车,完成后会在/.ssh/生成两个文件:id_dsa 和 id_dsa.pub。这两个 是成对出现,类似钥匙和锁。再把 id_dsa.pub 追加到授权 key 里面(当前并没 有 authorized_keys 文件): $ cat /.ssh/id_dsa.pub /.ssh/authorized_keys。 完成后可以实现无密码登录本机: $ ssh localhost 分布式文件存储(hadoop+hbase)部署文 档 第 4 页 2)把 94 上的 id_dsa.pub 文件追加到 95 和 96 的 authorized_keys 内( 以 122.161.43.13 节点为例): a. 拷贝 94 的 id_dsa.pub 文件到 95、96 的 home/.ssh 目录下: $ scp /root/.ssh/id_dsa.pub root122.161.43.13:/root/.ssh b. 登录 122.161.43.13,进入/home/.ssh 目录执行: $ cat id_dsa.pub authorized_keys 3、验证 在 94 的/etc/hosts 的增加如下配置 122.161.43.12 master 122.161.43.13 node1 122.161.43.14 node2 执行: $ ssh node1 如果成功登陆,则说明配置成功。 3.1.4 部署部署 hadoop 3.1.4.1 设置设置 hadoop 环境变量环境变量 /etc/profile 增加如下内容 #config hadoop export HADOOP_HOME=/opt/hadoop-0.20.2/ export PATH=$HADOOP_HOME/bin:$PATH #hadoop export HADOOP_LOG_DIR=$HADOOP_HOME/logs 让设置生效: source /etc/profile 分布式文件存储(hadoop+hbase)部署文 档 第 5 页 3.1.4.2 设置主从配置设置主从配置 Namenode(即:hadoop 管理节点 master)中/etc/hosts 的配置如下: 122.161.43.12 master 122.161.43.13 node1 122.161.43.14 node2 Node1 中/etc/hosts 的配置如下: 122.161.43.12 master 122.161.43.13 node1 Node2 中/etc/hosts 的配置如下: 122.161.43.12 master 122.161.43.14 node2 Namenode 中/opt/hadoop0.20.2/conf/masters 的配置如下: master Namenode 中/opt/hadoop0.20.2/conf/slaves 的配置如下: node1 node2 3.1.4.3 修改配置文件修改配置文件 core-site.xml #vi /opt/hadoop0.20.2/conf/core-site.xml fs.default.name hdfs:/master:9000/ 分布式文件存储(hadoop+hbase)部署文 档 第 6 页 hadoop.tmp.dir /opt/temp 3.1.4.4 修改配置文件修改配置文件 hdfs-site.xml 这里注意文件备份数量不能比虚拟机多,否则 HBase 无法启动。 #vi /opt/hadoop0.20.2/conf/hdfs-site.xml dfs.name.dir /opt/namenode dfs.data.dir /opt/data dfs.replication #设置备份文件数 1 3.1.4.5 修改配置文件修改配置文件 hadoop-env.sh #vi /opt/hadoop0.20.2/conf/hadoop-env.sh 设置 java_home: # The java implementation to use. Required. export JAVA_HOME=/usr/java/jdk1.6.0_21 分布式文件存储(hadoop+hbase)部署文 档 第 7 页 3.1.4.6 修改配置文件修改配置文件 mapred-site.xml #vi /opt/hadoop0.20.2/conf/mapred-site.xml mapred.job.tracker #一般 jobtracker 和 namenode 设置到同一台机器上,但是同样可以集群 master:9001 3.1.4.7 格式化格式化 namenode #hadoop namenode format 注意: 1、只需要在 94 中执行 2、如果 HDFS 中已经存在数据,则不能使用以上命令进行格式化,否则数 据会全部丢失。 3、再次格式化前,最好先清除 master 上的 temp 目录 3.1.4.8 启动启动 hadoop 进入 hadoopbin 目录下,执行./start-all.sh 命令启动 hadoop 3.1.4.9 测试是否成功测试是否成功 在地址栏中输入:http:/122.161.43.12:50070,看到 hadoop 管理界面则 hadoop 启动正常。在管理控制台查看:Live Nodes 选项,如果其值与我们配 置的节点数一致,则 hadoop 集群部署成功。 3.1.5 部署部署 Zookeeper 部署到数据节点上,本案例中,部署到 95 上。 修改 zookeeper/conf 目录下 zoo_sample.cfg 的名称为 zoo.cfg,创建 data 文 件目录,将数据文件路径存放于 opt/zookeeper-3.3.3/data 下面。Zoo.cfg 配置如 下: # The number of milliseconds of each tick tickTime=2000 分布式文件存储(hadoop+hbase)部署文 档 第 8 页 # The number of ticks that the initial # synchronization phase can take initLimit=10 # The number of ticks that can pass between # sending a request and getting an acknowledgement syncLimit=5 # the directory where the snapshot is stored. dataDir=/opt/zookeeper-3.3.3/data # the port at which the clients will connect clientPort=2181 配置完毕后将 zoo.cfg 文件拷贝到 hbase 的 conf 目录下,并在最后添加 server.1=122.161.43.13:2181,zookeeper 服务器地址。 部署完毕后,在 zookeeper 服务器上进入 zookeeper/bin 目录,运行: ./zkServer.sh start 启动 zookeeper 注意:zookeeper 服务节点配置奇数个。 3.1.6 部署部署 HBase 3.1.6.1 配置配置 hbase-env.sh 文件文件 #vi /opt/hbase-0.90.2/conf/hbase-env.sh # The java implementation to use. Java 1.6 required. export JAVA_HOME=/usr/java/jdk1.6.0_21/ # Extra Ja
收藏 下载该资源
网站客服QQ:2055934822
金锄头文库版权所有
经营许可证:蜀ICP备13022795号 | 川公网安备 51140202000112号