设为首页 收藏本站
查看: 688|回复: 0

[经验分享] hadoop 2.3.0 搭建指南

[复制链接]

尚未签到

发表于 2016-12-4 10:35:55 | 显示全部楼层 |阅读模式

一. 准备工作(搭建环境:Ubuntu 12.04)

  假设我们有三台机器。一台做master,另外两台做slave。所有的操作都先只在master上操作,然后scp同步到slaves。


1、创建hadoop用户,建立master到两台slaves的信任关系(如何建立,可以百度一下)


[plain] view plaincopyprint?





  • adduser hadoop  
  • usermod hadoop -G sudo -a       # 添加到超级管理员用户组  



adduser hadoop
usermod hadoop -G sudo -a       # 添加到超级管理员用户组


2、下载&解压 hadoop 2.3.0 压缩包

  到这里 找一个镜像,然后下载 hadoop 2.3.0 压缩包:
  http://www.apache.org/dyn/closer.cgi/hadoop/common/
  这里我们解压到 /home/hadoop/hadoop
  目录结构如下:

[plain] view plaincopyprint?





  • hadoop@master:~/hadoop$ pwd  
  • /home/hadoop/hadoop  
  • hadoop@master:~/hadoop$ ls  
  • bin  etc  include  lib  libexec  LICENSE.txt  logs  NOTICE.txt  README.txt  sbin  share  



hadoop@master:~/hadoop$ pwd
/home/hadoop/hadoop
hadoop@master:~/hadoop$ ls
bin  etc  include  lib  libexec  LICENSE.txt  logs  NOTICE.txt  README.txt  sbin  share


3、下载jdk

  直接到这里下载 jdk:
  http://www.oracle.com/technetwork/java/javase/downloads/jdk7-downloads-1880260.html
  挑选对应自己操作系统的版本,只需要解压到任意目录,不需要执行任何操作。
  这里我们解压到/usr/local/jdk

[plain] view plaincopyprint?





  • hadoop@master:/usr/local/jdk$ pwd  
  • /usr/local/jdk  
  • hadoop@master:/usr/local/jdk$ ls  
  • bin        db       jre  LICENSE  README.html  src.zip                             THIRDPARTYLICENSEREADME.txt  
  • COPYRIGHT  include  lib  man      release      THIRDPARTYLICENSEREADME-JAVAFX.txt  



hadoop@master:/usr/local/jdk$ pwd
/usr/local/jdk
hadoop@master:/usr/local/jdk$ ls
bin        db       jre  LICENSE  README.html  src.zip                             THIRDPARTYLICENSEREADME.txt
COPYRIGHT  include  lib  man      release      THIRDPARTYLICENSEREADME-JAVAFX.txt


4、修改各种配置文件

  /etc/hostname:
  master 上的这个文件就写master,两个slaves上的这个文件分别写 node1、  node2
  /etc/hosts(ip地址根据自己的情况修改)

[plain] view plaincopyprint?





  • 127.0.0.1       localhost  
  •   
  • 192.168.204.128 master  
  • 192.168.204.129 node1  
  • 192.168.204.130 node2  



127.0.0.1       localhost
192.168.204.128 master
192.168.204.129 node1
192.168.204.130 node2
  /etc/profile(在最后面添加):

[plain] view plaincopyprint?





  • #hadoop  
  • export JAVA_HOME=/usr/local/jdk  
  • export PATH=$JAVA_HOME/bin:$JAVA_HOME/jre/bin:$PATH  
  • export CLASSPATH=.:$JAVA_HOME/lib:$JAVA_HOME/jre/lib  
  • export HADOOP_ROOT=/home/hadoop  
  • export HADOOP_HOME=$HADOOP_ROOT/hadoop  
  • export PATH=$HADOOP_ROOT/hadoop/bin:$HADOOP_ROOT/hadoop/sbin:$PATH  



#hadoop
export JAVA_HOME=/usr/local/jdk
export PATH=$JAVA_HOME/bin:$JAVA_HOME/jre/bin:$PATH
export CLASSPATH=.:$JAVA_HOME/lib:$JAVA_HOME/jre/lib
export HADOOP_ROOT=/home/hadoop
export HADOOP_HOME=$HADOOP_ROOT/hadoop
export PATH=$HADOOP_ROOT/hadoop/bin:$HADOOP_ROOT/hadoop/sbin:$PATH
  打开hadoop配置目录(/home/hadoop/hadoop/etc/hadoop)
  core-site.xml:

[plain] view plaincopyprint?





  • <configuration>  
  •     <property>  
  •         <name>fs.defaultFS</name>  
  •         <value>hdfs://master</value>  
  •     </property>  
  • </configuration>  



<configuration>
<property>
<name>fs.defaultFS</name>
<value>hdfs://master</value>
</property>
</configuration>
  hdfs-site.xml:

[plain] view plaincopyprint?





  • <configuration>  
  • <property>  
  •     <name>dfs.namenode.name.dir</name>  
  •     <value>/data1/hadoop-nn</value>  
  • </property>  
  • <property>  
  •   <name>fs.defaultFS</name>  
  •   <value>hdfs://master/</value>  
  • </property>  
  • <property>  
  •   <name>dfs.replication</name>  
  •   <value>2</value>  
  • </property>  
  • <property>  
  •    <name>dfs.hosts.exclude</name>  
  •    <value>/home/hadoop/hadoop/etc/hadoop/dfs.exclude</value>  
  • </property>  
  • <property>  
  •     <name>dfs.datanode.data.dir</name>  
  •     <value>/data1/hadoop-dn,/data2/hadoop-dn</value>  
  • </property>  
  •   
  • </configuration>  



<configuration>
<property>
<name>dfs.namenode.name.dir</name>
<value>/data1/hadoop-nn</value>
</property>
<property>
<name>fs.defaultFS</name>
<value>hdfs://master/</value>
</property>
<property>
<name>dfs.replication</name>
<value>2</value>
</property>
<property>
   <name>dfs.hosts.exclude</name>
   <value>/home/hadoop/hadoop/etc/hadoop/dfs.exclude</value>
</property>
<property>
<name>dfs.datanode.data.dir</name>
<value>/data1/hadoop-dn,/data2/hadoop-dn</value>
</property>
</configuration>
  从上面的配置文件可以看出,我们把namenode的数据存储目录定位 /data1/hadoop-nn
  datanode的存储目录定位为 /data1/hadoop-dn, /data2/hadoop-dn
  所以要保证这两个目录正常存在,并且有空闲硬盘挂在上面。
  slaves:

[plain] view plaincopyprint?





  • node1  
  • node2  



node1
node2


5、同步各种配置文件到slaves上



二. 启动hdfs



1、在namenode上执行:


[plain] view plaincopyprint?





  • hadoop-daemon.sh  --script hdfs start namenode  



hadoop-daemon.sh  --script hdfs start namenode


2、在两个datanode上分别执行:


[plain] view plaincopyprint?





  • hadoop-daemon.sh  --script hdfs start datanode  



hadoop-daemon.sh  --script hdfs start datanode
  




三.测试hdfs



在任意一台server上执行


[plain] view plaincopyprint?





  • hadoop fs -ls /  



hadoop fs -ls /

[plain] view plaincopyprint?





  • hadoop fs -put ./test /  



hadoop fs -put ./test /
  hadoop新老版本下载URL:http://archive.apache.org/dist/hadoop/core/

运维网声明 1、欢迎大家加入本站运维交流群:群②:261659950 群⑤:202807635 群⑦870801961 群⑧679858003
2、本站所有主题由该帖子作者发表,该帖子作者与运维网享有帖子相关版权
3、所有作品的著作权均归原作者享有,请您和我们一样尊重他人的著作权等合法权益。如果您对作品感到满意,请购买正版
4、禁止制作、复制、发布和传播具有反动、淫秽、色情、暴力、凶杀等内容的信息,一经发现立即删除。若您因此触犯法律,一切后果自负,我们对此不承担任何责任
5、所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其内容的准确性、可靠性、正当性、安全性、合法性等负责,亦不承担任何法律责任
6、所有作品仅供您个人学习、研究或欣赏,不得用于商业或者其他用途,否则,一切后果均由您自己承担,我们对此不承担任何法律责任
7、如涉及侵犯版权等问题,请您及时通知我们,我们将立即采取措施予以解决
8、联系人Email:admin@iyunv.com 网址:www.yunweiku.com

所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其承担任何法律责任,如涉及侵犯版权等问题,请您及时通知我们,我们将立即处理,联系人Email:kefu@iyunv.com,QQ:1061981298 本贴地址:https://www.iyunv.com/thread-309458-1-1.html 上篇帖子: Hadoop exception(Could not obtain block) 下篇帖子: Hadoop-环境搭建
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

扫码加入运维网微信交流群X

扫码加入运维网微信交流群

扫描二维码加入运维网微信交流群,最新一手资源尽在官方微信交流群!快快加入我们吧...

扫描微信二维码查看详情

客服E-mail:kefu@iyunv.com 客服QQ:1061981298


QQ群⑦:运维网交流群⑦ QQ群⑧:运维网交流群⑧ k8s群:运维网kubernetes交流群


提醒:禁止发布任何违反国家法律、法规的言论与图片等内容;本站内容均来自个人观点与网络等信息,非本站认同之观点.


本站大部分资源是网友从网上搜集分享而来,其版权均归原作者及其网站所有,我们尊重他人的合法权益,如有内容侵犯您的合法权益,请及时与我们联系进行核实删除!



合作伙伴: 青云cloud

快速回复 返回顶部 返回列表