设为首页 收藏本站
查看: 694|回复: 0

[经验分享] Hadoop的安装和部署

[复制链接]

尚未签到

发表于 2016-12-6 07:25:51 | 显示全部楼层 |阅读模式
1.       环境概述
系统:RedHat linux enterprise5

Jdkjdk1.6

HadoopHadoop-0.19.2

节点数目:两台(可自行扩充)

2.       匿名登录设置
设置机器的hosts
转换问root用户,修改/etc/hosts文件,内容如下:

# Do not remove the following line, or various programs

# that require network functionality will fail.

127.0.0.1       localhost.localdomain   localhost

::1     localhost6.localdomain6 localhost6

192.168.0.121   hwellzen-bj-1.compute   hwellzen-bj-1

192.168.0.122   hwellzen-bj-2.compute   hwellzen-bj-2

 

注意:以上的内容有回车符的时候才进行换行。将两台机器的hosts都设置问以上的内容,然后分别重启系统。

设置匿名登录
Ø  转换用户到你需要设置匿名登录的用户下,本安装用户为liuzj,执行
[liuzj@hwellzen-bj-1 ~]$ssh-keygen  -t  rsa

这个命令将为hwellzen-bj-1上的用户liuzj生成其密钥对,询问其保存路径时直接回车采用默认路径,当提示要为生成的密钥输入passphrase的时候,直接回车,也就是将其设定为空密码。生成的密钥对id_rsa,id_rsa.pub,默认存储在/home/liuzj/.ssh目录下。

执行命令:

cp id_rsa.pub authorized_keys

可以实现用户在本地匿名登录,现象为

    
[liuzj@hwellzen-bj-1 ~]$ssh hwellzen-bj-1

Last login: Tue Aug 11 09:31:49 2009 from 192.168.0.129

[liuzj@hwellzen-bj-1 ~]$



Ø  登录到另一台机器上执行相同的命令
[liuzj@hwellzen-bj-1 ~]$ssh-keygen  -t  rsa

Ø  现在两台机器的密钥都有了,现在激动人心 的时刻到了。设置hwellzen-bj-1hwellzen-bj-2的匿名登录:
hwellzen-bj-1的密钥id_rsa.pub拷贝到hwellzen-bj-2上,使用命令:
[liuzj@hwellzen-bj-1 ~]$ scp .ssh/id_rsa.pub hwellzen-bj-2:/home/liuzj

登录到hwellzen-bj-2,将hwellzen-bj-1的密钥加入到匿名的文件中
[liuzj@hwellzen-bj-2 ~]$ cat id_rsa.pub >> .ssh/authorized_keys

试试吧,登录到hwellzen-bj-1执行命令[liuzj@hwellzen-bj-1 ~]$ ssh hwellzen-bj-2
我这里的现象:

[liuzj@hwellzen-bj-1 ~]$ ssh hwellzen-bj-2

Last login: Tue Aug 11 09:31:49 2009 from 192.168.0.129

[liuzj@hwellzen-bj-2 ~]$

好了,最后用以上的方法自己设置,hwellzen-bj-2匿名登录到hwellzen-bj-1。
注意:生成设置匿名登录之前要把hosts设置好,然后重启。
3.       Jdk安装
Ø  将jdk-6u2-linux-i586.bin拷贝到hwellzen-bj-1。
Ø  转换为root用户,设置jdk-6u2-linux-i586.bin为可执行的文件,
Chmod u+x jdk-6u2-linux-i586.bin

Ø        创建目录/usr/local/java,并cd到该目录,将jdk-6u2-linux-i586.bin拷贝到该目录(装完删了),执行命令:
./ jdk-6u2-linux-i586.bin

文件安装完成

Ø  设置配置所有用户都可以用,编辑vi /etc/profile,在文件的最后添加以下内容
PATH=/usr/local/java/jdk1.6.0_02/bin:$PATH

JAVA_HOME=/usr/local/java/jdk1.6.0_02

export PATH JAVA_HOME

Ø  将设置生效执行命令:
source  /etc/profile

Ø  安装完啦,看看现在的java版本呗:
执行命令:java –version

[liuzj@hwellzen-bj-2 ~]$ java -version

java version "1.6.0_02"

Java(TM) SE Runtime Environment (build 1.6.0_02-b05)

Java HotSpot(TM) Client VM (build 1.6.0_02-b05, mixed mode, sharing)

[liuzj@hwellzen-bj-2 ~]$

                     

4.       Hadoop安装
Ø  解压hadoop文件
hadoop-0.19.2.tar.gz解压到,用户liuzj下使用的命令为

[liuzj@hwellzen-bj-2 ~]$ tar zxvf hadoop-0.19.2.tar.gz

最终解压后的目录为:

[liuzj@hwellzen-bj-2 hadoop-0.19.2]$ pwd

/home/liuzj/hadoop-0.19.2

注意:保证各台机器安装的目录机构都是相同的。

Ø  配置文件设置
需要配置的文件:hadoop-env.shslavesmastershadoop-site.xml

hadoop-env.sh配置javahome,内容为
# The java implementation to use.  Required.

 export JAVA_HOME=/usr/local/java/jdk1.6.0_02

slaves配置子节点,内容为
hwellzen-bj-2

hwellzen-bj-1

masters配置主节点,内容为
hwellzen-bj-1

hadoop-site.xml配置的内容比较多,内容为
<configuration>

<property>

   <name>fs.default.name</name>

   <value>hdfs://hwellzen-bj-1:4310/</value>

</property>

<property>

   <name>mapred.job.tracker</name>//

   <value>hdfs://hwellzen-bj-1:4311/</value>

</property>

<property>

   <name>dfs.replication</name>

   <value>2</value>

</property>

<property>

    <name>hadoop.tmp.dir</name>

    <value>/home/liuzj/hadoop-0.19.2/tmp</value>

</property>

<property>

  <name>dfs.name.dir</name>

  <value>/home/liuzj/hadoop-0.19.2/filesystem/name/</value>

</property>

<property>
  <name>dfs.data.dir</name>
  <value>/opt/hadoop-0.19.2/filesystem/data</value>
  <description>Determines where on the local filesystem an DFS data node should store its blocks. If this is a comma-delimited list of directories, then data will be stored in all named directories, typically on different devices. Directories that do not exist are ignored.</description>
</property>

<property>

   <name>mapred.child.java.opts</name>

   <value>-Xmx512m</value>

</property>

</configuration>

格式化dfs:

                       [liuzj@hwellzen-bj-1 hadoop-0.19.2]$ bin/hadoop namenode -format
 

 

启动hadoop

[liuzj@hwellzen-bj-1 hadoop-0.19.2]$ bin/start-all.sh

访问

 

http://192.168.0.121:50070/dfshealth.jsp

http://192.168.0.121:50030/jobtracker.jsp

 

  注意:保证hadoop的需要用的端口都是可以访问的,本人在配置的时候因为防火墙组织了端口的访问造成hadoop的启动失败,后来关闭的防火墙,启动成功。

运维网声明 1、欢迎大家加入本站运维交流群:群②:261659950 群⑤:202807635 群⑦870801961 群⑧679858003
2、本站所有主题由该帖子作者发表,该帖子作者与运维网享有帖子相关版权
3、所有作品的著作权均归原作者享有,请您和我们一样尊重他人的著作权等合法权益。如果您对作品感到满意,请购买正版
4、禁止制作、复制、发布和传播具有反动、淫秽、色情、暴力、凶杀等内容的信息,一经发现立即删除。若您因此触犯法律,一切后果自负,我们对此不承担任何责任
5、所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其内容的准确性、可靠性、正当性、安全性、合法性等负责,亦不承担任何法律责任
6、所有作品仅供您个人学习、研究或欣赏,不得用于商业或者其他用途,否则,一切后果均由您自己承担,我们对此不承担任何法律责任
7、如涉及侵犯版权等问题,请您及时通知我们,我们将立即采取措施予以解决
8、联系人Email:admin@iyunv.com 网址:www.yunweiku.com

所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其承担任何法律责任,如涉及侵犯版权等问题,请您及时通知我们,我们将立即处理,联系人Email:kefu@iyunv.com,QQ:1061981298 本贴地址:https://www.iyunv.com/thread-310145-1-1.html 上篇帖子: hadoop 配置机架感知 下篇帖子: Elasticsearch、MongoDB和Hadoop比较
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

扫码加入运维网微信交流群X

扫码加入运维网微信交流群

扫描二维码加入运维网微信交流群,最新一手资源尽在官方微信交流群!快快加入我们吧...

扫描微信二维码查看详情

客服E-mail:kefu@iyunv.com 客服QQ:1061981298


QQ群⑦:运维网交流群⑦ QQ群⑧:运维网交流群⑧ k8s群:运维网kubernetes交流群


提醒:禁止发布任何违反国家法律、法规的言论与图片等内容;本站内容均来自个人观点与网络等信息,非本站认同之观点.


本站大部分资源是网友从网上搜集分享而来,其版权均归原作者及其网站所有,我们尊重他人的合法权益,如有内容侵犯您的合法权益,请及时与我们联系进行核实删除!



合作伙伴: 青云cloud

快速回复 返回顶部 返回列表