设为首页 收藏本站
查看: 824|回复: 0

[经验分享] 搭建hadoop集群环境

[复制链接]

尚未签到

发表于 2016-12-4 09:10:34 | 显示全部楼层 |阅读模式
1)安装jdk
下载jdk-6u21-linux-i586.bin
然后修改/etc/profile:
export JAVA_HOME=/usr/local/jdk
export CLASSPATH=.:$JAVA_HOME/lib:$JRE_HOME/lib:$CLASSPATH
export PATH=$PATH:$JAVA_HOME/bin
保存,并执行source /etc/profile
2)配置host
Namenode的机器,需要配置集群中所有机器的ip
修改/etc/hosts
10.10.236.190   master
10.10.236.191   slave-A
10.10.236.193   slave-B

其他的datanode只需要配置namenode的机器ip和本机ip
10.10.236.190   master
10.10.236.191   slave-A

修改hostname
vi /proc/sys/kernel/hostname
3)建立ssh无密码登录
首先进到root目录下
root@master:~# $ssh-keygen  -t  rsa
进入.ssh目录
root@master:~/.ssh# cp id_rsa.pub authorized_keys

其余的datanode的机器
新建.ssh目录
root@slave-A:~# mkdir .ssh
在name(master)上远程拷贝
root@master:~/.ssh# scp authorized_keys slave-A:/root/.ssh/

测试ssh
chmod 600 authorized_keys
如果还是失败
vi /etc/ssh/sshd_config  
RSAAuthentication yes
PubkeyAuthentication yes
然后重启ssh服务  service sshd restart

4)安装hadoop
下载Hadoop 解压到每台服务器的/data/soft
解压root@master:/data/soft# tar zxvf hadoop-0.21.0.tar.gz
建立软连root@master:/data/soft# ln -s hadoop-0.21.0 hadoop
然后修改/etc/profile
export HADOOP_HOME=/data/soft/hadoop
export PATH=$PATH:$JAVA_HOME/bin:$HADOOP_HOME/bin

5)配置hadoop
1.修改conf/hadoop-env.sh,添加jdk支持
export JAVA_HOME=/usr/local/jdk

2.修改conf/core-site.xml,增加下面内容
        
<property>
<name>fs.default.name</name>  
<value>hdfs://master:54310</value> //这个才是真正决定namenode
</property>
<property>  
<name>hadoop.tmp.dir</name>  
<value>/data/hdfs/tmp</value>  //临时文件,有问题的时候,可以删除
<description>A base for other temporary directories.</description>
</property>


3.修改conf/hdfs-site.xml,增加下面内容
        
<property>
<name>dfs.name.dir</name>
<value>/data/hdfs/name</value> //namenode持久存储名字空间,事务日志的本地路径
</property>
<property>
<name>dfs.data.dir</name>
<value>/data/hdfs/data</value> //datanode存放数据的路径
</property>
<property>
<name>dfs.datanode.max.xcievers</name>
<value>4096</value>
</property>
<property>
<name>dfs.replication</name>
<value>1</value> //数据备份的个数,默认是3
</property>


3.修改conf/mapred-site.xml,增加下面内容
        
<property>
<name>mapred.job.tracker</name> //jobTracker的主机
<value>master:54311</value>
</property>
4. .修改conf/masters,这个决定那个是secondarynamenode
Master
5 .修改conf/slaves,这个是所有datanode的机器
6)将配置好的hadoop拷贝到所有的datanode
root@master:/data/soft/hadoop/conf# scp -rp /data/soft/hadoop-0.21.0 10.10.236.191:/data/soft/hadoop-0.21.0
在datanode上建立对应的软连
7)格式化hdfs文件系统的namenode
root@master:/data/soft/hadoop# bin/hadoop namenode –format
输入Y

8)启动hdfs

root@master:/data/soft/hadoop# bin/start-all.sh

9)Hdfs操作
建立目录
root@master:/data/soft/hadoop # bin/hadoop dfs -mkdir testdir

查看现有文件
root@master:/data/soft/hadoop # bin/hadoop dfs -ls

10)执行第一个java程序
1. root@master:/data/soft # echo "hello World Bye World" > file01
2. root@master:/data/soft# scho "hello Hadoop Goodbye Hadoop" > file02
3.创建目录
hadoop/bin/hadoop fs -mkdir input
4.将本来文件拷贝到分布式文件系统
root@master:/data/soft# hadoop/bin/hadoop fs -copyFromLocal /data/soft/file0* input
5.运行事例程序
root@master:/data/soft/hadoop# hadoop jar hadoop-mapred-examples-0.21.0.jar wordcount input output
查看运行结果
root@master:/data/soft/hadoop# hadoop fs -cat output/part-r-00000  


用户权限

1.添加组cloud
groupadd cloud
2.添加用户hadoop,并添加到组cloud
useradd -g cloud hadoop
3.修改hadoop的所有者
chown -R hadoop:cloud hadoop/
4.修改hadoop文件的权限
chmod -R 750 ./hadoop
hadoop上的用户名依赖与宿主计算机的登录用户
同样hadoop shell中也支持chown  chmod

运维网声明 1、欢迎大家加入本站运维交流群:群②:261659950 群⑤:202807635 群⑦870801961 群⑧679858003
2、本站所有主题由该帖子作者发表,该帖子作者与运维网享有帖子相关版权
3、所有作品的著作权均归原作者享有,请您和我们一样尊重他人的著作权等合法权益。如果您对作品感到满意,请购买正版
4、禁止制作、复制、发布和传播具有反动、淫秽、色情、暴力、凶杀等内容的信息,一经发现立即删除。若您因此触犯法律,一切后果自负,我们对此不承担任何责任
5、所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其内容的准确性、可靠性、正当性、安全性、合法性等负责,亦不承担任何法律责任
6、所有作品仅供您个人学习、研究或欣赏,不得用于商业或者其他用途,否则,一切后果均由您自己承担,我们对此不承担任何法律责任
7、如涉及侵犯版权等问题,请您及时通知我们,我们将立即采取措施予以解决
8、联系人Email:admin@iyunv.com 网址:www.yunweiku.com

所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其承担任何法律责任,如涉及侵犯版权等问题,请您及时通知我们,我们将立即处理,联系人Email:kefu@iyunv.com,QQ:1061981298 本贴地址:https://www.iyunv.com/thread-309355-1-1.html 上篇帖子: hadoop dfs 启动过程 下篇帖子: hadoop环境配置——(单机版)
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

扫码加入运维网微信交流群X

扫码加入运维网微信交流群

扫描二维码加入运维网微信交流群,最新一手资源尽在官方微信交流群!快快加入我们吧...

扫描微信二维码查看详情

客服E-mail:kefu@iyunv.com 客服QQ:1061981298


QQ群⑦:运维网交流群⑦ QQ群⑧:运维网交流群⑧ k8s群:运维网kubernetes交流群


提醒:禁止发布任何违反国家法律、法规的言论与图片等内容;本站内容均来自个人观点与网络等信息,非本站认同之观点.


本站大部分资源是网友从网上搜集分享而来,其版权均归原作者及其网站所有,我们尊重他人的合法权益,如有内容侵犯您的合法权益,请及时与我们联系进行核实删除!



合作伙伴: 青云cloud

快速回复 返回顶部 返回列表