设为首页 收藏本站
查看: 2047|回复: 0

[经验分享] centos下安装分布式Hadoop 3.1.1

[复制链接]

尚未签到

发表于 2018-10-28 11:15:49 | 显示全部楼层 |阅读模式
  一)安装环境
  centos 7
  JDK 1.8.0_181
  VMware 12 pro
  hadoop 3.1.1
  二)安装环境准备

  •   分布式系统准备
      下面示例中,我安装了3个独立的虚拟机系统,其中HW-Machine作为master,另外2台分别为slaves:
    DSC0000.jpg

  •   Java环境配置        //3台虚拟机均需配置
      JDK安装包的获取以及Java环境的配置,请参考另一篇博文《Centos下Java环境安装配置》。
  •   静态IP设置        //3台虚拟机均需设置,并修改/etc/hosts文件及/etc/hostname文件
      由于分布式系统配置时,会写入系统主机名或者主机IP,因此我们需要对Hadoop环境所用的系统主机设置静态IP,具体设置方法,请参考另一篇博《VMware中Centos系统设置静态IP》。
      我这里的设置情况如下:
    DSC0001.jpg

  •   SSH免密码登录配置            //3台虚拟机均需配置
      Hadoop的master与slave之间的数据传输会使用SSH,因此我们还需要对Hadoop环境所用的系统主机设置SSH免密码登录,具体设置方法,请参考另一篇博文《Centos设置SSH免密码远程登录》。
  三)Hadoop安装配置
  注:
  a. hadoop要求,所有用到的主机系统需要建立相同的用户,在本例中我直接使用root账号,因此所有操作均是以root账号;
  b. 对应下面配置文件修改,未特别说明,只需修改master上面的文件。

  •   Hadoop下载
      直接去apache官网下载http://mirrors.hust.edu.cn/apache/  ,如本次实验中下载的是: hadoop-3.1.1.tar.gz
  •   直接解压下载软件包: tar -zxvf hadoop-3.1.1.tar.gz -C  DestinationFolder,比如我解压到了/usr/local/目录下面(这里的3台系统均需下载并解压)
    DSC0002.jpg

  •   配置文件修改
      3.1 修改core-site.xml文件,文件位置/xxx/etc/hadoop/目录下,3个系统都必须修改该文件
    DSC0003.jpg

      3.2 修改hadoop-env.sh文件,文件位置/xxx/etc/hadoop/目录下,3个系统都必须修改该文件
    DSC0004.jpg

      或者如下修改(注意JAVA_HOME与HADOOP_HOME根据你自己环境配置设定),多添加红框内的内容,这样设置后可以省略后面的3.7,3.8,3.9三个步骤:
    DSC0005.jpg

      3.3 修改hdfs-site.xml文件,文件位置/xxx/etc/hadoop/目录下,只需修改master节点
    DSC0006.jpg

      或者,按如下设置(注意根据master实际配置,修改name、data目录路径及namenode的地址):
    DSC0007.jpg

      3.4 修改mapred-site.xml文件,文件位置/xxx/etc/hadoop/目录下,只需修改master节点
    DSC0008.jpg

      注意:该文件可以只用设置此一个属性,其他会默认初始化。
      3.5 修改workers文件,文件位置/xxx/etc/hadoop/目录下,只需修改master节点
    DSC0009.jpg

      注意:这里可以只设置slave1和slave2,这样master系统就不会作为DataNode节点。
      3.6 修改yarn-site.xml文件,文件位置/xxx/etc/hadoop/目录下,只需修改master节点
    DSC00010.jpg

      注意:这里也可以只用设置yarn.resourcemanager.hostname和yarn.nodemanager.aux-services属性。
      3.7 修改start-dfs.sh及stop-dfs.sh文件,文件位置/xxx/sbin/目录下,在这两个文件头部加入如下变量:
      HDFS_DATANODE_USER=root
  HADOOP_SECURE_DN_USER=hdfs
  HDFS_NAMENODE_USER=root
  HDFS_SECONDARYNAMENODE_USER=root
  3.8 修改start-yarn.sh和stop-yarn.sh文件,文件位置/xxx/sbin/目录下,在这两个文件头部加入如下变量:
  YARN_RESOURCEMANAGER_USER=root
  HADOOP_SECURE_DN_USER=yarn
  YARN_NODEMANAGER_USER=root
  3.9 修改start-all.sh和stop-all.sh文件,文件位置/xxx/sbin/目录下,在这两个文件头部加入如下变量:
  TANODE_USER=root
  HDFS_DATANODE_SECURE_USER=hdfs
  HDFS_NAMENODE_USER=root
  HDFS_SECONDARYNAMENODE_USER=root
  YARN_RESOURCEMANAGER_USER=root
  HADOOP_SECURE_DN_USER=yarn
  YARN_NODEMANAGER_USER=root
  4. 初始化Hadoop系统,切换至/xxx/bin目录下
  运行命令:./hdfs namenode  -format
  不报错返回 “Exiting with status 0” 为成功,“Exiting with status 1”为失败
  5. 启动Hadoop并验证,切换至/xxx/sbin目录下
  运行命令启动:./start-all.sh
  运行命令验证: jps, 如果看到以下服务则表示已经成功启动服务:
DSC00011.jpg

  或者也可打开浏览器,输入http://master:50070验证,可看到如下网页:
DSC00012.jpg

  至此,Hadoop安装验证完毕!
  注意:
  安装配置Hadoop3.1.1还可以结合参考:https://blog.csdn.net/qq_41684957/article/details/81946128


运维网声明 1、欢迎大家加入本站运维交流群:群②:261659950 群⑤:202807635 群⑦870801961 群⑧679858003
2、本站所有主题由该帖子作者发表,该帖子作者与运维网享有帖子相关版权
3、所有作品的著作权均归原作者享有,请您和我们一样尊重他人的著作权等合法权益。如果您对作品感到满意,请购买正版
4、禁止制作、复制、发布和传播具有反动、淫秽、色情、暴力、凶杀等内容的信息,一经发现立即删除。若您因此触犯法律,一切后果自负,我们对此不承担任何责任
5、所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其内容的准确性、可靠性、正当性、安全性、合法性等负责,亦不承担任何法律责任
6、所有作品仅供您个人学习、研究或欣赏,不得用于商业或者其他用途,否则,一切后果均由您自己承担,我们对此不承担任何法律责任
7、如涉及侵犯版权等问题,请您及时通知我们,我们将立即采取措施予以解决
8、联系人Email:admin@iyunv.com 网址:www.yunweiku.com

所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其承担任何法律责任,如涉及侵犯版权等问题,请您及时通知我们,我们将立即处理,联系人Email:kefu@iyunv.com,QQ:1061981298 本贴地址:https://www.iyunv.com/thread-627441-1-1.html 上篇帖子: 大数据学习系列之七 ----- Hadoop+Spark+Zookeeper+HBase+Hive集 下篇帖子: 2018-07-18期 Hadoop HDFS NameNode体系结构
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

扫码加入运维网微信交流群X

扫码加入运维网微信交流群

扫描二维码加入运维网微信交流群,最新一手资源尽在官方微信交流群!快快加入我们吧...

扫描微信二维码查看详情

客服E-mail:kefu@iyunv.com 客服QQ:1061981298


QQ群⑦:运维网交流群⑦ QQ群⑧:运维网交流群⑧ k8s群:运维网kubernetes交流群


提醒:禁止发布任何违反国家法律、法规的言论与图片等内容;本站内容均来自个人观点与网络等信息,非本站认同之观点.


本站大部分资源是网友从网上搜集分享而来,其版权均归原作者及其网站所有,我们尊重他人的合法权益,如有内容侵犯您的合法权益,请及时与我们联系进行核实删除!



合作伙伴: 青云cloud

快速回复 返回顶部 返回列表