设为首页 收藏本站
查看: 588|回复: 0

[经验分享] Hadoop 2.4安装与配置

[复制链接]

尚未签到

发表于 2016-12-7 10:13:41 | 显示全部楼层 |阅读模式
一、hadoop2.4编译方法可参考:Linux64位操作系统(CentOS6.6)上如何编译hadoop2.4.0 。

二、准备工具
  1.部署准备两个机器test1为Master,test2为Slave。

在两个机器上分别vim /etc/hosts
加入如下内容:
192.168.1.100 test1
192.168.1.200 test2
  2.增加hadoop用户

    groupadd hadoop
useradd hadoop -g hadoop
passwd hadoop
  3.设置Master无密码登录slave

在test1下生成公钥/私钥对并复制到test2上。
su hadoop
ssh-keygen -t rsa -P ''
scp ~/.ssh/id_rsa.pub hadoop@test2:~/.ssh/id_rsa.pub
test2把从test1复制的id_rsa.pub添加到.ssh/authorzied_keys文件里
cat id_rsa.pub >> authorized_keys
chmod 600 .ssh/authorized_keys
  4.修改句柄数:

   ulimit -n 65535
vim /etc/security/limits.conf增加如下内容:
\*    hard    nofile   65535
\*    soft    nofile   65535
三、配置hadoop
  将编译好的hadoop2.4.0解压后修改etc/hadoop目录里的配置文件。
  1.修改hadoop-env.sh

  export JAVA_HOME=/opt/jdk
  2.修改core-site.xml

<property>
<name>fs.default.name</name>
<value>hdfs://HDP125:9000</value>
</property>
<property>
<name>hadoop.tmp.dir</name>
<value>/home/${user.name}/tmp</value>
</property>
<property>
<name>fs.trash.interval</name>
<value>1440</value>
</property>
  说明:
  fs.defaultDFS:设置NameNode的IP和端口
  hadoop.tmp.dir:设置Hadoop临时目录,(默认/tmp,机器重启会丢失数据!)
  fs.trash.interval:开启Hadoop回收站 
  3.修改hdfs-site.xml

<property>
<name>dfs.replication</name>
<value>1</value>
</property>
<property>
<name>dfs.namenode.name.dir</name>
<value>/home/${user.name}/dfs_name</value>
</property>
<property>
<name>dfs.datanode.data.dir</name>
<value>/home/${user.name}/dfs_data</value>
</property>
<property>
<name>dfs.support.append</name>
<value>true</value>
</property>
<property>
<name>dfs.datanode.max.xcievers</name>
<value>4096</value>
</property>
  说明:
  dfs.replication:文件复本数
  dfs.namenode.name.dir:设置NameNode存储元数据(fsimage)的本地文件系统位置
  dfs.datanode.data.dir:设置DataNode存储数据的本地文件系统位置
  dfs.support.append:设置HDFS是否支持在文件末尾追加数据
  dfs.datanode.max.xcievers:设置datanode可以创建的最大xcievers数
  4.修改yarn-site.xml

<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
<property>
<name>yarn.resourcemanager.hostname</name>
<value>master</value>
</property>
<property>
<name>yarn.nodemanager.aux-services.mapreduce.shuffle.class</name>
<value>org.apache.hadoop.mapred.ShuffleHandler</value>
</property>
<property>
<name>yarn.timeline-service.hostname</name>
<value>master</value>
</property>
  5.修改mapred-site.xml

<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>
  6.修改slave

test1
test2
  7.把配置好的Hadoop程序复制到其它节点

scp -r /opt/hadoop hadoop@test2:/opt/
chown -R hadoop:hadoop /opt/hadoop

四、启动和关闭hadoop
  1.第一次使用一个分布式文件系统,需要对其进行格式化:

  ./bin/hadoop namenode –format
  2.启动Hadoop:

  sbin/start-all.sh
  3.关闭Hadoop:

  sbin/stop-all.sh
  4.Hadoop自带的WEB管理界面
  http://test1:50070

运维网声明 1、欢迎大家加入本站运维交流群:群②:261659950 群⑤:202807635 群⑦870801961 群⑧679858003
2、本站所有主题由该帖子作者发表,该帖子作者与运维网享有帖子相关版权
3、所有作品的著作权均归原作者享有,请您和我们一样尊重他人的著作权等合法权益。如果您对作品感到满意,请购买正版
4、禁止制作、复制、发布和传播具有反动、淫秽、色情、暴力、凶杀等内容的信息,一经发现立即删除。若您因此触犯法律,一切后果自负,我们对此不承担任何责任
5、所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其内容的准确性、可靠性、正当性、安全性、合法性等负责,亦不承担任何法律责任
6、所有作品仅供您个人学习、研究或欣赏,不得用于商业或者其他用途,否则,一切后果均由您自己承担,我们对此不承担任何法律责任
7、如涉及侵犯版权等问题,请您及时通知我们,我们将立即采取措施予以解决
8、联系人Email:admin@iyunv.com 网址:www.yunweiku.com

所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其承担任何法律责任,如涉及侵犯版权等问题,请您及时通知我们,我们将立即处理,联系人Email:kefu@iyunv.com,QQ:1061981298 本贴地址:https://www.iyunv.com/thread-310875-1-1.html 上篇帖子: 应该在什么时候使用Hadoop 下篇帖子: 《Hadoop The Definitive Guide》ch11 Pig
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

扫码加入运维网微信交流群X

扫码加入运维网微信交流群

扫描二维码加入运维网微信交流群,最新一手资源尽在官方微信交流群!快快加入我们吧...

扫描微信二维码查看详情

客服E-mail:kefu@iyunv.com 客服QQ:1061981298


QQ群⑦:运维网交流群⑦ QQ群⑧:运维网交流群⑧ k8s群:运维网kubernetes交流群


提醒:禁止发布任何违反国家法律、法规的言论与图片等内容;本站内容均来自个人观点与网络等信息,非本站认同之观点.


本站大部分资源是网友从网上搜集分享而来,其版权均归原作者及其网站所有,我们尊重他人的合法权益,如有内容侵犯您的合法权益,请及时与我们联系进行核实删除!



合作伙伴: 青云cloud

快速回复 返回顶部 返回列表