设为首页 收藏本站
查看: 532|回复: 0

[经验分享] 单节点Hadoop安装过程

[复制链接]

尚未签到

发表于 2016-12-3 11:18:42 | 显示全部楼层 |阅读模式
  
1.1.1 环境准备
  本次由一台centos虚拟服务器搭建hadoop平台,机器信息如表1所示:
  
  表1 主机环境准备
  名称
  信息
  IP
  10.1.1.20
  hostname
  Master.hadoop

   为方便使用,现给出主机环境方面需要修改的地方:
  ● IP地址修改
  IP地址位于/etc/sysconfig/network-scripts/目录中,通过vi编辑ifcfg-eth0文件修改成如下所示结构即可:
  [iyunv@master network-scripts]# cd /etc/sysconfig/network-scripts/
  [iyunv@master network-scripts]# cat ifcfg-eth0
  DEVICE="eth0"
  ONBOOT=yes
  TYPE=Ethernet
  BOOTPROTO=none
  IPADDR=10.1.1.20
  PREFIX=24
  GATEWAY=10.1.1.1
  DEFROUTE=yes
  HWADDR=00:30:16:AF:00:D1
  
   ● hostname修改
  Hostname修改位于/etc/sysconfig/network文件中,其修改后的结果如下所示:
  [iyunv@master network-scripts]# cat /etc/sysconfig/network
  NETWORKING=yes
  HOSTNAME=master.hadoop
  
  ● DNS修改
  DNS位于/etc/hosts文件中,修改的结果如下所示:
  
  [iyunv@master network-scripts]# cat /etc/hosts
  10.1.1.20master.hadoop master
  127.0.0.1 localhost.localdomain localhost
  
  
  ● 环境测试
   通过ping测试master.hadoop是否畅通:
  [iyunv@master network-scripts]# ping master.hadoop
  PING master.hadoop (10.1.1.20) 56(84) bytes of data.
  64 bytes from master.hadoop (10.1.1.20): icmp_seq=1 ttl=64 time=0.040 ms
  64 bytes from master.hadoop (10.1.1.20): icmp_seq=2 ttl=64 time=0.016 ms
  --- master.hadoop ping statistics ---
  2 packets transmitted, 2 received, 0% packet loss, time 1467ms
  rtt min/avg/max/mdev = 0.016/0.028/0.040/0.012 ms
  
1.1.2Java安装与部署
  Hadoop需要java环境支持,通常需要java 1.6版本以上,因此可以通过去java官方网站下载JDK环境,下载地址为:
  http://www.oracle.com/technetwork/java/javase/downloads/jdk-6u25-download-346242.html
  从本链接中选择jdk-6u25-linux-x64-rpm.bin,在接受协议后方可下载到本地;
  ● Java安装
  将下载到后java文件传至master.hadoop主机/home目录中,下面可以进行对其进行安装:
  [iyunv@master home]# chmod u+x jdk-6u25-linux-x64-rpm.bin
  [iyunv@master home]# ./jdk-6u25-linux-x64-rpm.bin
  
  ● Java配置
    Java安装完毕后,可以对java目录信息进行环境变量配置,配置信息需增加至文件/etc/profile之中,具体如下所示:
  [iyunv@master home]#vi /etc/profile
  JAVA_HOME=/usr/java/jdk1.6.0_25
  CLASSPATH=.:$JAVA_HOME/lib
  PATH=$PATH:$JAVA_HOME/bin:$JAVA_HOME/jre/bin
   
  环境变量配置完毕后,通过命令进行检验并生效: 
  [iyunv@master jdk1.6.0_25]# source /etc/profile
  
1.1.3 SSH配置
  通过配置SSH实现基于公钥方式无密码登录,具体操作步骤为:创建一个新的hadoop帐户、生成这个帐户的SSH公钥、配置公钥授权文件、设置SSH服务登录方式等,下面给出具体方式:
  
  
   ● 创建hadoop帐户
  
  [iyunv@master jdk1.6.0_25]# useradd hadoop #创建帐号
  [iyunv@master jdk1.6.0_25]# passwd hadoop #配置密码
  
  ● 生成公钥
  [hadoop@master ~]$ ssh-keygen    #生成SSH认证公钥,连续回车即可
  Generating public/private rsa key pair.
  Enter file in which to save the key (/home/hadoop/.ssh/id_rsa):
  Enter passphrase (empty for no passphrase):
  Enter same passphrase again:
  Your identification has been saved in /home/hadoop/.ssh/id_rsa.
  Your public key has been saved in /home/hadoop/.ssh/id_rsa.pub.
  The key fingerprint is:
  86:b5:d9:6a:ea:03:4e:5a:97:e5:24:5b:1f:65:41:89 hadoop@master.hadoop
  The key's randomart image is:
  +--[ RSA 2048]----+
  | ooo |
  | E + |
  | . o |
  | .o++. |
  | .OS... |
  | + +.... |
  | = o o |
  | . . .o |
  | .o. |
  +-----------------+
  [hadoop@master ~]$ cd .ssh/
  [hadoop@master .ssh]$ ls
  id_rsa id_rsa.pub
  
  ● 配置授权
  [hadoop@master ~]$ cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys
  [hadoop@master ~]$ chmod 700 ~/.ssh
  [hadoop@master ~]$ chmod 600 ~/.ssh/authorized_keys
  
  
  测试
  [hadoop@master jdk1.6.0_25]$ ssh master.hadoop
  Last login: Wed Jun 13 18:29:29 2012 from master.hadoop
  
  
1.1.4 Hadoop安装与配置
  使用的Hadoop版本是hadoop-0.20.2.tar.gz,下载地址为:
  http://mirror.bit.edu.cn/apache/hadoop/common/hadoop-0.20.2/hadoop-0.20.2.tar.gz
  ● Hadoop安装
  [iyunv@master home]# tar xzvf hadoop-0.20.2.tar.gz
  [iyunv@master home]# mv hadoop-0.20.2 /usr/local
  [iyunv@master home]# cd /usr/local
  [iyunv@master local]# ls
  bin etc games hadoop-0.20.2 include lib lib64 libexec sbin share src
  [iyunv@master local]# mv hadoop-0.20.2/ hadoop
  [iyunv@master local]# ls
  bin etc games hadoop include lib lib64 libexec sbin share src
  [iyunv@master local]# chown -R hadoop:hadoop /usr/local/hadoop/ #修改权限
  ● 环境变量配置
  跟配置JAVA一样配置hadoop环境变量,编辑文件/etc/profile,同时也要修改hadoop内部环境变量/hadoop/conf/hadoop_env.sh,具体细节如下所示:
  [iyunv@master local]# vi /etc/profile
  HADOOP_HOME=/usr/local/hadoop
  HADOOP_CONF_DIR=$HADOOP_HOME/conf
  CLASSPAH=.:$JAVA_HOME/lib:$HADOOP_HOME/lib
  PATH=$PATH:$JAVA_HOME/bin:$JAVA_HOME/jre/bin:$HADOOP_HOME/bin
  "/etc/profile" 73L, 1660C written
  [iyunv@master local]# source /etc/profile
  [iyunv@master conf]# vi hadoop-env.sh
  export JAVA_HOME=$JAVA_HOME
export HADOOP_CLASSPATH="$HADOOP_CLASSPATH"
export HADOOP_HEAPSIZE=2048
export HADOOP_LOG_DIR=/var/local/logs
export HADOOP_PID_DIR=/var/local/pids

  [iyunv@master bin]# export JAVA_HOME
  [iyunv@master bin]# export HADOOP_HOME
  [iyunv@master bin]# export HADOOP_CONF_DIR
  ● hadoop文件配置
  配置三个xml文件,分别为:core-site.xml、hdfs-site.xml、mapred-site.xml,配置效果如下所示:
  文件:core-site.xml
  [iyunv@master conf]# vi core-site.xml
  <?xml version="1.0"?>
  <?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
  
  <!-- Put site-specific property overrides in this file. -->
  
  <configuration>
   <property>
   <name>fs.default.name</name>
   <value>hdfs://localhost:9000</value>
   </property>
  </configuration>
  
  文件:hdfs-site.xml
  [iyunv@master conf]# vi hdfs-site.xml
  <?xml version="1.0"?>
  <?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
  
  <!-- Put site-specific property overrides in this file. -->
  
  <configuration>
  <property>
   <name>dfs.replication</name>
   <value>1</value>
   </property>
  
  </configuration>
  文件:mapred-site.xml
  [iyunv@master conf]# vi mapred-site.xml
  <?xml version="1.0"?>
  <?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
  
  <!-- Put site-specific property overrides in this file. -->
  
  <configuration>
  <property>
   <name>mapred.job.tracker</name>
   <value>localhost:9001</value>
   </property>
  
  </configuration>
  ● hadoop格式化文件系统
  切换到bin目录,找到可执行文件hadoop,执行文件系统格式化操作:
  [iyunv@master bin]# hadoop namenode -format
  
  ● 启动hadoop
  [iyunv@master bin]# ./start-all.sh
  starting namenode, logging to /var/local/logs/hadoop-root-namenode-master.hadoop.out
  localhost: starting datanode, logging to /var/local/logs/hadoop-root-datanode-master.hadoop.out
  localhost: starting secondarynamenode, logging to /var/local/logs/hadoop-root-secondarynamenode-master.hadoop.out
  starting jobtracker, logging to /var/local/logs/hadoop-root-jobtracker-master.hadoop.out
  localhost: starting tasktracker, logging to /var/local/logs/hadoop-root-tasktracker-master.hadoop.out
  
1.1.5Hadoop测试
  [iyunv@master hadoop]# jps
  2459 JobTracker
  2284 DataNode
  2204 NameNode
  2860 Jps
  2382 SecondaryNameNode
  2575 TaskTracker
  

运维网声明 1、欢迎大家加入本站运维交流群:群②:261659950 群⑤:202807635 群⑦870801961 群⑧679858003
2、本站所有主题由该帖子作者发表,该帖子作者与运维网享有帖子相关版权
3、所有作品的著作权均归原作者享有,请您和我们一样尊重他人的著作权等合法权益。如果您对作品感到满意,请购买正版
4、禁止制作、复制、发布和传播具有反动、淫秽、色情、暴力、凶杀等内容的信息,一经发现立即删除。若您因此触犯法律,一切后果自负,我们对此不承担任何责任
5、所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其内容的准确性、可靠性、正当性、安全性、合法性等负责,亦不承担任何法律责任
6、所有作品仅供您个人学习、研究或欣赏,不得用于商业或者其他用途,否则,一切后果均由您自己承担,我们对此不承担任何法律责任
7、如涉及侵犯版权等问题,请您及时通知我们,我们将立即采取措施予以解决
8、联系人Email:admin@iyunv.com 网址:www.yunweiku.com

所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其承担任何法律责任,如涉及侵犯版权等问题,请您及时通知我们,我们将立即处理,联系人Email:kefu@iyunv.com,QQ:1061981298 本贴地址:https://www.iyunv.com/thread-309099-1-1.html 上篇帖子: hadoop中的问题总结 下篇帖子: 图画hadoop -- 生态圈
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

扫码加入运维网微信交流群X

扫码加入运维网微信交流群

扫描二维码加入运维网微信交流群,最新一手资源尽在官方微信交流群!快快加入我们吧...

扫描微信二维码查看详情

客服E-mail:kefu@iyunv.com 客服QQ:1061981298


QQ群⑦:运维网交流群⑦ QQ群⑧:运维网交流群⑧ k8s群:运维网kubernetes交流群


提醒:禁止发布任何违反国家法律、法规的言论与图片等内容;本站内容均来自个人观点与网络等信息,非本站认同之观点.


本站大部分资源是网友从网上搜集分享而来,其版权均归原作者及其网站所有,我们尊重他人的合法权益,如有内容侵犯您的合法权益,请及时与我们联系进行核实删除!



合作伙伴: 青云cloud

快速回复 返回顶部 返回列表