设为首页 收藏本站
查看: 584|回复: 0

[经验分享] Hadoop之YARN安装部署

[复制链接]

尚未签到

发表于 2016-12-6 08:36:18 | 显示全部楼层 |阅读模式
  版本信息:
  Hadoop 2.3.0-cdh5.0.0
  节点分布:

NameNode:compute-50-04
SecondaryNameNode:compute-50-04  
ResourceManager :compute-50-03
NodeManager :
compute-28-16
compute-28-17
compute-50-00
compute-50-03
compute-50-04
DataNode:
compute-28-16
compute-28-17
compute-50-00
compute-50-03
compute-50-04

  部署:
  1.增加hadoop用户,组也是hadoop组,详情参见“linux之用户组分配”
  2.配置节点之间的双向ssh免密登陆,参见博客“linux免密钥SSH登陆配置”
  3.官方下载hadoop 2.3.0-cdh5.0.0包,解压路径为:/home/hadoop/hadoop 2.3.0-cdh5.0.0
  4.配置core-site.xml:

<configuration>
<property>
<name>fs.default.name</name>  
<value>hdfs://compute-50-04:9000</value>
</property>  
<property>
<name>hadoop.tmp.dir</name>  
<value>/home/hadoop/data/tmp</value>
</property>  
<property>
<name>ha.zookeeper.quorum</name>  
<value>compute-28-16:2181,compute-28-17:2181,compute-50-00:2181</value>
</property>  
<property>
<name>hadoop.proxyuser.hduser.hosts</name>  
<value>*</value>
</property>  
<property>
<name>hadoop.proxyuser.hduser.groups</name>  
<value>*</value>
</property>
</configuration>
  5.配置hdfs-site.xml:

<configuration>
<property>
<name>dfs.replication</name>  
<value>3</value>
</property>  
<property>
<name>dfs.namenode.secondary.http-address</name>  
<value>compute-50-03:9001</value>
</property>  
<property>
<name>dfs.ha.fencing.methods</name>  
<value>shell(/bin/true)</value>
</property>  
<property>
<name>dfs.namenode.name.dir</name>  
<value>/home/hadoop/data/dfs/nn</value>
</property>  
<property>
<name>dfs.data.dir</name>  
<value>/home/hadoop/data/dfs/dn</value>
</property>  
<property>
<name>dfs.datanode.failed.volumes.tolerated</name>  
<value>0</value>
</property>  
<property>
<name>ipc.client.ping</name>  
<value>false</value>
</property>  
<property>
<name>ipc.ping.interval</name>  
<value>60000</value>
</property>  
<property>
<name>dfs.webhdfs.enabled</name>  
<value>true</value>
</property>  
<property>
<name>dfs.client.read.shortcircuit</name>  
<value>false</value>
</property>  
<property>
<name>dfs.permissions.enabled</name>  
<value>false</value>
</property>  
<property>
<name>dfs.domain.socket.path</name>  
<value>${hadoop.tmp.dir}/sockets/dn._PORT</value>
</property>
</configuration>
  6.配置mapred-site.xml:

<configuration>
<property>
<name>mapreduce.framework.name</name>  
<value>yarn</value>
</property>  
<property>
<name>mapreduce.jobhistory.address</name>  
<value>compute-50-00:10020</value>
</property>  
<property>
<name>mapreduce.jobhistory.webapp.address</name>  
<value>compute-50-00:19888</value>
</property>  
<property>
<name>mapreduce.jobhistory.intermediate-done-dir</name>  
<value>/data2/data/mr/history-tmp</value>
</property>  
<property>
<name>mapreduce.jobhistory.done-dir</name>  
<value>/data2/data/mr/history-done</value>
</property>  
<property>
<name>yarn.app.mapreduce.am.staging-dir</name>  
<value>/user</value>
</property>  
<property>
<name>mapreduce.map.memory.mb</name>  
<value>2048</value>
</property>  
<property>
<name>mapreduce.map.speculative</name>  
<value>false</value>
</property>  
<property>
<name>mapreduce.job.queuename</name>  
<value>default</value>
</property>  
<!-- acl -->  
<property>
<name>mapreduce.cluster.acls.enabled</name>  
<value>false</value>
</property>  
<property>
<name>mapreduce.job.acl-view-job</name>  
<value></value>
</property>  
<property>
<name>mapreduce.job.acl-modify-job</name>  
<value></value>
</property>  
</configuration>
  7.配置yarn-site.xml:

<configuration>
<property>
<name>yarn.nodemanager.aux-services</name>  
<value>mapreduce_shuffle</value>
</property>  
<property>
<name>yarn.nodemanager.aux-services.mapreduce.shuffle.class</name>  
<value>org.apache.hadoop.mapred.ShuffleHandler</value>
</property>  
<property>
<name>yarn.resourcemanager.hostname</name>  
<value>compute-50-04</value>
</property>  
<property>
<name>yarn.nodemanager.local-dirs</name>  
<value>/data2/data/yarn/local</value>
</property>  
<property>
<name>yarn.nodemanager.vmem-pmem-ratio</name>  
<value>10</value>
</property>  
<property>
<name>yarn.nodemanager.container-executor.class</name>  
<value>org.apache.hadoop.yarn.server.nodemanager.DefaultContainerExecutor</value>
</property>  
<property>
<name>yarn.log-aggregation-enable</name>  
<value>false</value>
</property>  
<property>
<name>yarn.resourcemanager.scheduler.class</name>  
<value>org.apache.hadoop.yarn.server.resourcemanager.scheduler.capacity.CapacityScheduler</value>
</property>  
<property>
<name>yarn.nodemanager.vmem-check-enabled</name>  
<value>false</value>
</property>  
<property>
<name>yarn.resourcemanager.scheduler.monitor.enable</name>  
<value>true</value>
</property>  
<property>
<name>yarn.resourcemanager.scheduler.monitor.policies</name>  
<value>org.apache.hadoop.yarn.server.resourcemanager.monitor.capacity.ProportionalCapacityPreemptionPolicy</value>
</property>  
<property>
<name>yarn.resourcemanager.monitor.capacity.preemption.observe_only</name>  
<value>false</value>
</property>  
<property>
<name>yarn.nodemanager.resource.memory-mb</name>  
<value>20720</value>
</property>  
<property>
<name>yarn.acl.enable</name>  
<value>false</value>
</property>  
<property>
<name>yarn.admin.acl</name>  
<value>yarn,hadoop</value>
</property>  
<property>
<name>yarn.nodemanager.resource.cpu-vcores</name>  
<value>8</value>
</property>
</configuration>
  8.配置slaves:

compute-28-16
compute-28-17
compute-50-00
compute-50-03
compute-50-04
   9.配置信息已经完成,那么建立相应的目录:


mkdir -p yourpath
  10.分发到各个节点上去:

scp   -r /home/hadoop/hadoop-2.3.0-cdh5.0.0  hadoop@hostxxxxx:/home/hadoop/
......
  11.格式化namenode:

bin/hadoop namenode -format
  12.启动:

sbin/start-all.sh
   
  其他问题:
  1.启动的时候报错:Error: JAVA_HOME is not set and could not be found
  修复方式:
  在etc/hadoop/yarn-env.sh 和etc/hadoop/hadoop-env.sh中显示指定 
  export JAVA_HOME=/usr/java/jdk1.6.0_21
  其他说明:
  1.NameNode基于SecondaryNameNode没有HA
  2.ResourceManager为单节点没有HA

运维网声明 1、欢迎大家加入本站运维交流群:群②:261659950 群⑤:202807635 群⑦870801961 群⑧679858003
2、本站所有主题由该帖子作者发表,该帖子作者与运维网享有帖子相关版权
3、所有作品的著作权均归原作者享有,请您和我们一样尊重他人的著作权等合法权益。如果您对作品感到满意,请购买正版
4、禁止制作、复制、发布和传播具有反动、淫秽、色情、暴力、凶杀等内容的信息,一经发现立即删除。若您因此触犯法律,一切后果自负,我们对此不承担任何责任
5、所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其内容的准确性、可靠性、正当性、安全性、合法性等负责,亦不承担任何法律责任
6、所有作品仅供您个人学习、研究或欣赏,不得用于商业或者其他用途,否则,一切后果均由您自己承担,我们对此不承担任何法律责任
7、如涉及侵犯版权等问题,请您及时通知我们,我们将立即采取措施予以解决
8、联系人Email:admin@iyunv.com 网址:www.yunweiku.com

所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其承担任何法律责任,如涉及侵犯版权等问题,请您及时通知我们,我们将立即处理,联系人Email:kefu@iyunv.com,QQ:1061981298 本贴地址:https://www.iyunv.com/thread-310244-1-1.html 上篇帖子: HADOOP中mapreduce开启压缩功能 下篇帖子: 2、hadoop 安装准备
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

扫码加入运维网微信交流群X

扫码加入运维网微信交流群

扫描二维码加入运维网微信交流群,最新一手资源尽在官方微信交流群!快快加入我们吧...

扫描微信二维码查看详情

客服E-mail:kefu@iyunv.com 客服QQ:1061981298


QQ群⑦:运维网交流群⑦ QQ群⑧:运维网交流群⑧ k8s群:运维网kubernetes交流群


提醒:禁止发布任何违反国家法律、法规的言论与图片等内容;本站内容均来自个人观点与网络等信息,非本站认同之观点.


本站大部分资源是网友从网上搜集分享而来,其版权均归原作者及其网站所有,我们尊重他人的合法权益,如有内容侵犯您的合法权益,请及时与我们联系进行核实删除!



合作伙伴: 青云cloud

快速回复 返回顶部 返回列表