设为首页 收藏本站
查看: 1036|回复: 0

[经验分享] Hadoop入门(二)——安装

[复制链接]

尚未签到

发表于 2016-12-4 11:11:22 | 显示全部楼层 |阅读模式
一、安装准备

1、所需软件

hadoop 0.20.2地址:http://www.apache.org/dist/hadoop/core/hadoop-0.20.2/

JDK版本:jdk-6u26-linux-i586.rpm.bin (必须是1.6)

操作系统:CentOS

三台机器:10.2.33.151(master),10.2.33.152(slave),10.2.33.153(slave)

二、安装操作

1、软件安装

拷贝以上文件到Linux的“/opt/”目录下。

安装JDK,此步省略……。

解压hdaoop:tar -zxvf hadoop-0.20.2.tar.gz

配置151机器可以通过SSH直接访问152和153。

2、系统SSH配置

在151、152、153三台机器上分别执行以下操作:

ssh-keygen -t dsa

直接回车,完成后会在~/.ssh/生成两个文件:id_dsa 和id_dsa.pub。这两个是成对出现,类似钥匙和锁。再把id_dsa.pub 追加到授权key 里面(当前并没有authorized_keys文件):

$ cat ~/.ssh/id_dsa.pub >> ~/.ssh/authorized_keys。

注:若想多台机器登陆一台机器,则将3台机器的id_dsa.pub合并为1authorized_keys,换行分割即可。

完成后可以实现无密码登录:

$ ssh root@IP

3、系统环境变量配置

JAVA_HOME=/usr/java/jdk1.6.0_26

CLASSPATH=.:$JAVA_HOME/lib/tools.jar:$JAVA_HOME/lib/dt.jar:$CLASSPATH

HADOOP_HOME=/opt/hadoop-0.20.2

PATH=$JAVA_HOME/bin:$HOME/bin:$HADOOP_HOME/bin:$HIVE_HOME/bin:$PATH

export PATH HADOOP_HOME CLASSPATH JAVA_HOME

最后记得source /etc/profile生效。

4、系统HOSTS配置

修改ect/hosts配置文件,内容如下:

127.0.0.1       localhost

10.2.33.151     test-01

10.2.33.152     test-02

10.2.33.153     test-03

注:以上hosts信息很重要,每台机器都要配置,test-01为服务器名

5Hadoop配置

修改/opt/hadoop-0.20.2/conf/目录下的master文件,内容如下:

10.2.33.151

修改/opt/hadoop-0.20.2/conf/目录下的slaves文件,内容如下:

10.2.33.152

10.2.33.153

修改/opt/hadoop-0.20.2/conf/hadoop-env.sh文件的环境变量:

# The java implementation to use.  Required.

export JAVA_HOME=/usr/java/jdk1.6.0_26

拷贝/opt/hadoop-0.20.2/src/core/core-default.xml到/opt/hadoop-0.20.2/conf/core-site.xml,修改部分内容如下:

<property>

  <name>hadoop.tmp.dir</name>

  <value>/hadoopdata</value>

</property>

<property>

  <name>fs.default.name</name>

  <value>hdfs://10.2.33.151:9000</value>

</property>

拷贝/opt/hadoop-0.20.2/src/hdfs/hdfs-default.xml到/opt/hadoop-0.20.2/conf/hdfs-site.xml配置文件,内容不变。

拷贝/opt/hadoop-0.20.2/src/mapred/mapred-default.xml到/opt/hadoop-0.20.2/conf/mapred-site.xml配置文件,修改部分内容如下:

<property>

  <name>mapred.job.tracker</name>

  <value>10.2.33.151:9001</value>

</property>

/opt/hadoop-0.20.2拷贝到10.2.33.15210.2.33.153对应的目录下。将/ect/profile/etc/hosts也拷贝到152153机器上。注意profile需要做生效操作。建议打包拷贝或者scp拷贝。

四、初始配置

1、格式化HDFS文件系统

进入/opt/hadoop-0.20.2/bin目录。执行:

hadoop namenode –format

2、启动/停止hadoop

启动hadoop。执行:

/opt/hadoop-0.20.2/bin/start-all.sh

停止hadoop。执行:

/opt/hadoop-0.20.2/bin/stop-all.sh

3、查看hadoop信息

在/opt/hadoop-0.20.2/bin目录下,执行:

hadoop fs -ls /

如果控制台返回结果,表示初始化成功。可以向里面录入数据。

通过WEB查看hadoop

查看集群状态:http://10.2.33.151:50070dfshealth.jsp

查看JOB状态:http://10.2.33.151:50030/jobtracker.jsp

五、注意事项

1、hadoop的安装千万计的修改/etc/hosts文件,而且要把所有master和slaves的内容都配置进去,所有机器的host配置,在hadoop方面是一样的。

2、master和slaves这2个配置文件可以不拷贝到152和153机器上,只在master上保存即可,保险起见,还是都拷贝下吧。

  3、通过web查看hadoop的时候,如果使用IE一些图形工具显示不出来,建议使用opera或是chrome。

运维网声明 1、欢迎大家加入本站运维交流群:群②:261659950 群⑤:202807635 群⑦870801961 群⑧679858003
2、本站所有主题由该帖子作者发表,该帖子作者与运维网享有帖子相关版权
3、所有作品的著作权均归原作者享有,请您和我们一样尊重他人的著作权等合法权益。如果您对作品感到满意,请购买正版
4、禁止制作、复制、发布和传播具有反动、淫秽、色情、暴力、凶杀等内容的信息,一经发现立即删除。若您因此触犯法律,一切后果自负,我们对此不承担任何责任
5、所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其内容的准确性、可靠性、正当性、安全性、合法性等负责,亦不承担任何法律责任
6、所有作品仅供您个人学习、研究或欣赏,不得用于商业或者其他用途,否则,一切后果均由您自己承担,我们对此不承担任何法律责任
7、如涉及侵犯版权等问题,请您及时通知我们,我们将立即采取措施予以解决
8、联系人Email:admin@iyunv.com 网址:www.yunweiku.com

所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其承担任何法律责任,如涉及侵犯版权等问题,请您及时通知我们,我们将立即处理,联系人Email:kefu@iyunv.com,QQ:1061981298 本贴地址:https://www.iyunv.com/thread-309502-1-1.html 上篇帖子: Hadoop操作手册 下篇帖子: Hbase+Hadoop环境搭建
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

扫码加入运维网微信交流群X

扫码加入运维网微信交流群

扫描二维码加入运维网微信交流群,最新一手资源尽在官方微信交流群!快快加入我们吧...

扫描微信二维码查看详情

客服E-mail:kefu@iyunv.com 客服QQ:1061981298


QQ群⑦:运维网交流群⑦ QQ群⑧:运维网交流群⑧ k8s群:运维网kubernetes交流群


提醒:禁止发布任何违反国家法律、法规的言论与图片等内容;本站内容均来自个人观点与网络等信息,非本站认同之观点.


本站大部分资源是网友从网上搜集分享而来,其版权均归原作者及其网站所有,我们尊重他人的合法权益,如有内容侵犯您的合法权益,请及时与我们联系进行核实删除!



合作伙伴: 青云cloud

快速回复 返回顶部 返回列表