hitl 发表于 2018-10-29 12:49:05

【1】搭建HA高可用hadoop-2.3(规划+环境准备)

  【1】搭建HA高可用hadoop-2.3(规划+环境准备)
  【2】搭建HA高可用hadoop-2.3(安装zookeeper)
  【3】搭建HA高可用hadoop-2.3(部署配置hadoop--cdh5.1.0)
  【4】搭建HA高可用hadoop-2.3(部署配置HBase)
  
  搭建HA高可用hadoop-2.3
  前言:
  作为安装Hadoop的第一步,就是根据实际情况选择合适的Hadoop版本,这次我所用的CDH5.1.0,基于Hadoop2.3版本。那么什么是CDH呢,下面科普一下。
  Cloudera是一家提供Hadoop支持、咨询和管理工具的公司,在Hadoop生态圈有着举足轻重的地位,它的拳头产品就是著名的Cloudera's Distribution for Hadoop,简称CDH。该软件同我们熟知的Apache Hadoop一样,都是完全开源,基于Apache软件许可证,免费为个人和商业使用。Coudera从一个稳定的Apache Hadoop版本开始,连续不断的发布新版本并为旧版本打上补丁,为各种不同的生产环境提供安装文件,在Cloudera的团队中有许多Apache Hadoop的代码贡献者,所以Cloudera的公司实力毋庸置疑。
  一般用户安装Hadoop时,不仅仅只安装HDFS、MapReduce,还会根据需要安装Hive、HBase、Spark等。Cloudera将这些相关的项目都集成在一个CDH版本里面,目前CDH包括Hadoop、HBase、Hive、Pig、Sqood、Zooksspe、Spark、Flume、Oozie、Mahout等等,几乎覆盖了Hadoop生态圈,这样做的好处是保证了组件之间的兼容性,因为各个项目之间也存在完全独立的版本,其各个版本与Hadoop之间必然会存在兼容性的问题,如果选择CDH,那么同一个CDH版本内的各个组建将完全不存在兼容性问题。所以初学者使用CDH来搭建Hadoop是一个很好的选择。
  规划:
  机器:5台   OS:centos6.5
机器规划主机名IPHDFSYarnHBasemaster110.64.8.1Namenode1ResourceManagerHMastermaster110.64.8.2Namenode2slave110.64.8.3Datanode1NodeManagerHRegionServerslave210.64.8.4Datanode2NodeManagerHRegionServerslave310.64.8.5Datanode3NodeManagerHRegionServer  准备工作:
  (1)关闭selinux和防火墙

[*]  master1、master2、slave1、slave2、slave3
#setenforce 0&& service iptables stop &&chkconfig iptables off  (2)修改主机名

[*]  master1
#hostname master1 && echo master1 >/etc/hostname

[*]  master2
#hostname master1 && echo master1 >/etc/hostname

[*]  slave1
#hostname slave1 && echo slave1 >/etc/hostname

[*]  slave2
#hostname slave2 && echo slave2 >/etc/hostname

[*]  slave3
#hostname slave3 && echo slave3 >/etc/hostname

[*]  master1、master2、slave1、slave2、slave3
#cat >> /etc/hosts >/etc/rc.local
  (6)系统参数调优

[*]  master1、master2、slave1、slave2、slave3
cat >>/etc/sysctl.conf/etc/security/limits.conf
页: [1]
查看完整版本: 【1】搭建HA高可用hadoop-2.3(规划+环境准备)