【1】搭建HA高可用hadoop-2.3(规划+环境准备)
【1】搭建HA高可用hadoop-2.3(规划+环境准备)【2】搭建HA高可用hadoop-2.3(安装zookeeper)
【3】搭建HA高可用hadoop-2.3(部署配置hadoop--cdh5.1.0)
【4】搭建HA高可用hadoop-2.3(部署配置HBase)
搭建HA高可用hadoop-2.3
前言:
作为安装Hadoop的第一步,就是根据实际情况选择合适的Hadoop版本,这次我所用的CDH5.1.0,基于Hadoop2.3版本。那么什么是CDH呢,下面科普一下。
Cloudera是一家提供Hadoop支持、咨询和管理工具的公司,在Hadoop生态圈有着举足轻重的地位,它的拳头产品就是著名的Cloudera's Distribution for Hadoop,简称CDH。该软件同我们熟知的Apache Hadoop一样,都是完全开源,基于Apache软件许可证,免费为个人和商业使用。Coudera从一个稳定的Apache Hadoop版本开始,连续不断的发布新版本并为旧版本打上补丁,为各种不同的生产环境提供安装文件,在Cloudera的团队中有许多Apache Hadoop的代码贡献者,所以Cloudera的公司实力毋庸置疑。
一般用户安装Hadoop时,不仅仅只安装HDFS、MapReduce,还会根据需要安装Hive、HBase、Spark等。Cloudera将这些相关的项目都集成在一个CDH版本里面,目前CDH包括Hadoop、HBase、Hive、Pig、Sqood、Zooksspe、Spark、Flume、Oozie、Mahout等等,几乎覆盖了Hadoop生态圈,这样做的好处是保证了组件之间的兼容性,因为各个项目之间也存在完全独立的版本,其各个版本与Hadoop之间必然会存在兼容性的问题,如果选择CDH,那么同一个CDH版本内的各个组建将完全不存在兼容性问题。所以初学者使用CDH来搭建Hadoop是一个很好的选择。
规划:
机器:5台 OS:centos6.5
机器规划主机名IPHDFSYarnHBasemaster110.64.8.1Namenode1ResourceManagerHMastermaster110.64.8.2Namenode2slave110.64.8.3Datanode1NodeManagerHRegionServerslave210.64.8.4Datanode2NodeManagerHRegionServerslave310.64.8.5Datanode3NodeManagerHRegionServer 准备工作:
(1)关闭selinux和防火墙
[*] master1、master2、slave1、slave2、slave3
#setenforce 0&& service iptables stop &&chkconfig iptables off (2)修改主机名
[*] master1
#hostname master1 && echo master1 >/etc/hostname
[*] master2
#hostname master1 && echo master1 >/etc/hostname
[*] slave1
#hostname slave1 && echo slave1 >/etc/hostname
[*] slave2
#hostname slave2 && echo slave2 >/etc/hostname
[*] slave3
#hostname slave3 && echo slave3 >/etc/hostname
[*] master1、master2、slave1、slave2、slave3
#cat >> /etc/hosts >/etc/rc.local
(6)系统参数调优
[*] master1、master2、slave1、slave2、slave3
cat >>/etc/sysctl.conf/etc/security/limits.conf
页:
[1]