设为首页 收藏本站
查看: 821|回复: 0

[经验分享] Hadoop学习笔记 1

[复制链接]

尚未签到

发表于 2016-12-4 11:09:11 | 显示全部楼层 |阅读模式
  1、 搭建linux环境
  我准备的环境是VM RedHat Linux 6.5 64bit
    设置固定IP    
              vim /etc/sysconfig/network-scripts/ifcfg-eth0
  将IP地址设定为192.168.38.128
  修改主机名: vim /etc/hosts
  将主机名改为 itbuilder1
  2、安装JDK
  配置好JDK的环境变量
  3、安装hadoop环境
  从Apache官网下载2.7.1版本的hadoop核心包
  地址:http://archive.apache.org/dist/hadoop/core/stable2/hadoop-2.7.1.tar.gz
  3.1  将安装包解压到制定目录下
  首先创建一个目录: mkdir /usr/local/hadoop
  将文件解压到/usr/local/hadoop目录下:tar -zxvf hadoop-2.7.1.tar.gz -C /usr/local/hadoop
  3.2 修改配置文件
  hadoop2.7.1版本需要修改5个配置文件,如下
  1、hadoop-env.sh
  2、core-site.xml
  3、hdfs-site.xml
  4、mapred-site.xml(mapred-site.xml.template)
  5、yarn-site.xml
  这5个文件都在hadoop木下的etc中,具体目录为: /usr/local/hadoop/hadoop-2.7.1/etc/hadoop/
  3.2.1 修改环境变量(hadoop-env.sh)
  使用vim命令打开 hadoop-env.sh文件
  在指定JavaHome的地方设置好JDK的根目录,如下图:
DSC0000.png
     export JAVA_HOME=/usr/java/jdk1.8.0_20

  3.2.2  core-site.xml 配置,指定HDFS的namenode以及临时文件地址
  <configuration>
        <!--指定HDFS的老大 (NameNode)的地址-->
            <property>
                    <name>fs.defaultFS</name>
                    <value>hdfs://itbuilder1:9000</value>
            </property>
        <!--指定hadoop运行时产生文件的存放目录-->
            <property>
                    <name>hadoop.tmp.dir</name>
                    <value>/usr/local/hadoop/hadoop-2.7.1/tmp</value>
            </property>
       </configuration>
  3.2.3 hdfs-site.xml (指定副本数量)
  <!--制定HDFS保存数据副本的数量-->
        <configuration>
           <property>
                <name>dfs.replication</name>
                <value>1</value>
            </property>
        </configuration>
  3.2.4 mapred-site.xml  告诉hadoop以后MR运行在yarn上
  <configuration>
                 <property>
                       <name>mapreduce.framework.name</name>
                        <value>yarn</value>
                  </property>
            </configuration>
  3.2.5 yarn-site.xml
  <configuration>
                  <!--告诉 nodemanager 获取数据的方式是shuffle的方式 -->
                   <property>
                               <name>yarn.nodemanager.aux-services</name>
                                <value>mapreduce_shuffle</value>
                     </property>
  <!--制定yarn的老大(ResourceManager)的地址 -->
                    <property>
                              <name>yarn.resourcemanager.hostname</name>
                                <value>itbuilder1</value>
                    </property>
  </configuration>
  4、将hadoop添加到环境变量中
  vim /etc/profile

export JAVA_HOME=/usr/java/jdk1.8.0_20
export HADOOP_HOME=/usr/local/hadoop/hadoop-2.7.1
export PATH=$PATH:$JAVA_HOME/bin:$HADOOP_HOME/bin
  #刷新一下/etc/profile
 source /etc/profile
  5、初始化(格式化)文件系统(HDFS)
    #hadoop namenode -format (已经过时了)
     hdfs namenode -format  (最新的 等待时间较长)
  6、启动hadoop (hdfs yarn)
./start-all.sh(过时了,需要多次确认并且输入linux密码) 以后改用一下两个命令
./start-hdfs.sh
./start-yarn.sh
  通过jps 命令查看当前打开的进程
  [iyunv@itbuilder1 ~]# jps
3461 ResourceManager
3142 DataNode
3751 NodeManager
3016 NameNode
5034 Jps
3307 SecondaryNameNode


  访问管理界面:
http://192.168.38.128:50070 (hdfs管理界面)
http://192.168.38.128:8088 (mr管理界面)
  这两个界面打开,说明安装成功
  7、测试hdfs
 上传文件
  hadoop fs -put /usr/jdk-8u20-linux-x64.tar.gz  hdfs://itbuilder1:9000/itbuilder1
 下载文件
 hadoop fs -get hdfs://itbuilder1:9000/itbuilder1 /usr/jdk
 
8、 运行一个例子
创建一个文本,上传到hdfs
vi words
hadoop fs -put words hdfs://itbuilder1:9000/words
hadoop jar hadoop-mapreduce-examples-2.7.1.jar wordcount  hdfs://itbuilder1:9000/words  hdfs://itbuilder1:9000/wcount


9、 设置SSH个免登陆 (hadoop启动时免登陆密码)
进入/root/.ssh里
使用ssh-keygen -t rsa 创建一个秘钥 (生成一个私钥与一个公钥)
将公钥保存到authorized_kes中  cp id_rsa.pub  authorized_keys

运维网声明 1、欢迎大家加入本站运维交流群:群②:261659950 群⑤:202807635 群⑦870801961 群⑧679858003
2、本站所有主题由该帖子作者发表,该帖子作者与运维网享有帖子相关版权
3、所有作品的著作权均归原作者享有,请您和我们一样尊重他人的著作权等合法权益。如果您对作品感到满意,请购买正版
4、禁止制作、复制、发布和传播具有反动、淫秽、色情、暴力、凶杀等内容的信息,一经发现立即删除。若您因此触犯法律,一切后果自负,我们对此不承担任何责任
5、所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其内容的准确性、可靠性、正当性、安全性、合法性等负责,亦不承担任何法律责任
6、所有作品仅供您个人学习、研究或欣赏,不得用于商业或者其他用途,否则,一切后果均由您自己承担,我们对此不承担任何法律责任
7、如涉及侵犯版权等问题,请您及时通知我们,我们将立即采取措施予以解决
8、联系人Email:admin@iyunv.com 网址:www.yunweiku.com

所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其承担任何法律责任,如涉及侵犯版权等问题,请您及时通知我们,我们将立即处理,联系人Email:kefu@iyunv.com,QQ:1061981298 本贴地址:https://www.iyunv.com/thread-309500-1-1.html 上篇帖子: Hadoop平台搭建步骤 下篇帖子: Hadoop操作手册
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

扫码加入运维网微信交流群X

扫码加入运维网微信交流群

扫描二维码加入运维网微信交流群,最新一手资源尽在官方微信交流群!快快加入我们吧...

扫描微信二维码查看详情

客服E-mail:kefu@iyunv.com 客服QQ:1061981298


QQ群⑦:运维网交流群⑦ QQ群⑧:运维网交流群⑧ k8s群:运维网kubernetes交流群


提醒:禁止发布任何违反国家法律、法规的言论与图片等内容;本站内容均来自个人观点与网络等信息,非本站认同之观点.


本站大部分资源是网友从网上搜集分享而来,其版权均归原作者及其网站所有,我们尊重他人的合法权益,如有内容侵犯您的合法权益,请及时与我们联系进行核实删除!



合作伙伴: 青云cloud

快速回复 返回顶部 返回列表