顺德公农庄 发表于 2017-12-17 23:34:19

VMware 虚拟机安装 hadoop 2.6.0 完全分布式集群

  最近连着搭了两次hadoop的集群,搭建的时候也碰到了一些问题,因为之前对linux 不熟悉,经常遇到各种问题和命令忘记写,幸亏有度娘谷哥,这里做一个记录 下次使用的时候用的上
  计算机的配置
  

       计算机:  G3440
3.3G 双核  8G内存
  虚拟机:
  vmware workstation
12 pro  系统:
  centos6.
5  节点:
192.168.133.33    master.hadoop192.168.1.151    slave1.hadoop192.168.1.151    slave2.hadoop  

  分布式安装的主要的几个步骤就是
  1、安装虚拟机
  2、安装操作系统
  3、配置静态ip(为了避免局域网ip冲突,用nat方式) 修改hosthostname 文件
  4、安装java
  5、ssh 免密码登录
  6、安装hadoop
  7、启动调试
  1、VMware 安装

  很简单下载完成以后一路next 就ok 了,最好不要把这个软件和以后的安装系统安装到系统盘
  2、linux安装
  这里选装的是centos6.5,准备好安装文件以后,文件-》新建虚拟机


  这里有个注意点,因为大数据比较耗费空间,每台虚拟机的空间最好大一些,我选的是40G

  一路下一步点下去以后就可以等待安装重启了linux 了
  3、为虚拟机配置静态ip
  需要为每天机器设定固定ip,因为是公司的局域网为了不ip冲突影响其他同事,使用nat 连接方式,采用 192.168.133 网段
  选择VMnet8 然后把使用本地dhcp 去掉

  点击 nat设置 修改网关

  以上是vmware的设置,设置完成以后,需要进入虚拟机进行设置,进入centos1 虚拟机 进行设置步骤如下(其他机器类似)
  1)给yhw 赋予sudo 权限

  

vim /etc/sudoers  

  在root 下面增加一行和root 一样的配置用户名为yhw(这个以后是我们的hadoop操作账户)

  修改成如图所示 ,wq 退出
  2)sudo vim /etc/sysconfig/network

  将hostname 修改一下。
  因为我们的集群设置成1个master 2个slaver所以 centos1 就用master.hadoop 来表示 其他用 slaver1.hadoop和 slaver2.hadoop 表示,ip对应关系如下
  

192.168.133.33master.hadoop  

192.168.133.34 slaver1.hadoop  

192.168.133.35 slaver2.hadoop  

  3)修改网卡配置


  红圈表示处为必须填写项目
  设置完毕使用一下命令重启服务
  

service network restart  

  然后用ifconfig 查看ip 地址
  这样就可以上网并且是静态ip
  按照上面的步骤我安装了3个虚拟机 计算机名称为 centos1 centos2 centos3用户名为 yhw   ip地址
  

192.168.133.33master.hadoop  
192.168.133.34 slaver1.hadoop
  
192.168.133.35 slaver2.hadoop
  

  设置完以上的步骤,就可以使用shell 来进行管理了
  下载lzrz方便以后上传安装包
  

yum -y install lrzsz   #lrzsz 是一个上传下载软件 rz 是上传 sz 是下载  


  4、安装java
  

yum -y install java-1.8.0-openjdk*  


  安静的等待安装成功,安装完毕以后用 java -version 查看安装正确与否

  为了以后方便还需要在/etc/profile 里面增加java_home 的配置
  

export JAVA_HOME=/usr/lib/jvm/java-1.8.0-openjdk-1.8.0.121-0.b13.el6_8.x86_64  
export PATH
=$JAVA_HOME/bin:$PATH  

  这里有个注意点就是 如果不习惯用 yum 安装,可以直接上传下载的安装包进行安装
  如何确定yum 安装 的java 的路径是在
  /usr/lib/jvm
  下面 也可以用 whereisjavac 来确定 ,具体可以参考
  http://www.tuicool.com/articles/yQn2iy

  按照上面的步骤把其他两台也安装好(因为之前是做windows 平台开发的, 不太熟悉linux 有没有同步安装的方法,安装完一台其他的只要复制就ok了)
  5、ssh 免密登陆
  因为集群是要互相访问的,所以要设置免密ssh 登陆,防止被拒绝,导致服务起不来
  原理就是 做一个 公钥 存入到相互访问的机器里面authorized_keys 里面
  我们以后将 yhw 用户作为hadoop的专用用户,我们要把身份切换到 yhw:su yhw
  因为centos6.5 已经预装了 ssh 了(如果没有安装的可以系在安装一下) 所以我们直接生成秘钥就可以了,输入
  

ssh-keygen -t rsa  

  然后陆续回车就可以了 如下图所示

  导航到 /home/yhw/.ssh 目录下面 可以看到文件,用
  

cp>  

  复制到authorized_keys 中

  测试一下效果 在测试之前还需要 修改一下硬解
  

sudo /etc/hosts  

  增加每天机器的硬解配置

  这里有一点是要注意 不要写成127.0.0.1 master.hadoop
  这样hadoop 集群的时候 容易出问题
  完成以后使用
  

ssh master.hadoop  

  测试登陆效果

  可以看到登陆成功了
  同样要在其他机器上按照上述步骤生成秘钥
  使用
  

scp authorized_keys master.hadoop:/home/yhw/.ssh/slaver1#slaver1 的命令  

scp authorized_keys master.hadoop:/home/yhw/.ssh/slaver2#slaver2 的命令  

  命令把slaver1和slaver2上的文件复制到 master 上
  在用
  

cat slaver1 >> authorized_keys  

cat slaver2 >> authorized_keys  

  将slaver1和 salver2的公钥 都放到authorized_keys 里面
  最后authorized_keys文件里面的内容效果如下

  把这个文件用 copy 到 slaver1 和 slaver2机器上
  

scp authorized_keys slaver1.hadoop:/home/yhw/.ssh/authorized_keys  

  

scp authorized_keys slaver2.hadoop:/home/yhw/.ssh/authorized_keys  

  另外还要注意的是权限的问题 .ssh目录的权限为700authorized_keys文件的权限是600 因为登陆后会有known_hosts 文件生成
  按照以上步骤生成完以后,三台机器就能互相登录了
  6、安装单机版的hadoop (由于公司的版本是2.6.0,安装3.0 和这个有一点区别但是区别不大)
  从以下地址下载安装文件
  http://archive.apache.org/dist/hadoop/core/hadoop-2.6.0/
  利用之前的rzsz 工具上传,因为程序包里面有特殊字符另外比较大 建议使用
  

sudo rz -be   

  上传文件
  上传完毕以后 ,将其安装到 /usr/haddop
  

sudo tar -zxvf hadoop-2.6.0.tar.gz  



  这里要注意的一点就是权限的问题,如果为了方便 可以对 usr 增加写权限
  修改javahome配置
  

vim etc/hadoop/hadoop-env.sh  


  如果是单机版的基本上搞定了 ,现在可以做个试验了
  

mkdir ./input#建立设定一个输入文件夹  

  

cp ./etc/hadoop/*.xml ./input#将要被查询的数据一股脑的放到input 中  

  
sudo bin/hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-2.6.0.jar grep ./input ./output '+'#运行任务
  

  cat output/*#输出数据
  

  不出意外的话应该能出结果了

  如果是 3.0.0 版本的 有的机器可能会出现 java 加载native 方面的错误,这个我认为最好的办法是用源码编译一下

  Unable to load native-hadoop library for your platform... using builtin-java>  Starting namenodes on
  具体的编译步骤可以参考
  http://www.cnblogs.com/yjmyzz/p/compile-hadoop-2_6_0-source-code-in-centos_x64.html
  分布式部署:
  需要修改etc 下面的 6个文件,分别是
  $HADOOP_HOME/etc/hadoop/yarn-env.sh
  $HADOOP_HOME/etc/hadoop/core-site.xml
  $HADOOP_HOME/etc/hadoop/hdfs-site.xml
  $HADOOP_HOME/etc/hadoop/mapred-site.xml
  $HADOOP_HOME/etc/hadoop/yarn-site.xml
  $HADOOP_HOME/etc/hadoop/slaves(在3.0里面叫workers)
  修改yarn-env.sh
  

export JAVA_HOME=/usr/lib/jvm/java-1.8.0-openjdk-1.8.0.121-0.b13.el6_8.x86_64  


  修改core-site.xml
  

<!--fs.default.name - 这是一个描述集群中NameNode结点的URI(包括协议、主机名称、端口号),集群里面的每一台机器都需要知道NameNode的地址。  DataNode结点会先在NameNode上注册,这样它们的数据才可以被使用。独立的客户端程序通过这个URI跟DataNode交互,以取得文件的块列表。-->
  <!—hadoop.tmp.dir 是hadoop文件系统依赖的基础配置,很多路径都依赖它。
  如果hdfs-site.xml中不配置namenode和datanode的存放位置,默认就放在这个路径中-->
  <configuration>
  
<property><name>fs.defaultFS </name><value>hdfs://master.hadoop:9000</value></property>
  
<property><name>hadoop.tmp.dir</name><value>/usr/hadoop-2.6.0/tmp</value></property>
  
</configuration>
  


  完整参考目录
  http://hadoop.apache.org/docs/r2.6.0/hadoop-project-dist/hadoop-common/core-default.xml
  修改hdfs-site.xml
  

<!-- dfs.replication -它决定着 系统里面的文件块的数据备份个数。对于一个实际的应用,它 应该被设为3(这个 数字并没有上限,但更多的备份可能并没有作用,而且会占用更多的空间)。  少于三个的备份,可能会影响到数据的可靠性(系统故障时,也许会造成数据丢失)-->
  

  

  

  
<configuration>
  
<property> <name>dfs.replication</name> <value>2</value> </property>
  
</configuration>
  



dfs.replication表示数据副本数,一般不大于datanode的节点数。如果有两台slaver那就写2
hdfs-site.xml的完整参数请参考  http://hadoop.apache.org/docs/r2.6.0/hadoop-project-dist/hadoop-hdfs/hdfs-default.xml
  修改mapred-site.xml
  将mapred-site.xml.template 复制为 mapred-site.xml
  

<configuration>  <property>
  <name>mapreduce.framework.name</name>
  <value>yarn</value>
  </property>
  
</configuration>
  


  mapred-site.xml的完整参数请参考
  http://hadoop.apache.org/docs/r2.6.0/hadoop-mapreduce-client/hadoop-mapreduce-client-core/mapred-default.xml
  修改 yarn-site.xml
  

<configuration>  <property>
  <name>yarn.nodemanager.aux-services</name>
  <value>mapreduce_shuffle</value>
  </property>
  
</configuration>
  


  yarn-site.xml的完整参数请参考
  http://hadoop.apache.org/docs/r2.6.0/hadoop-yarn/hadoop-yarn-common/yarn-default.xml
  修改 slavers (3.0 版本叫workers)

  

slaver1.hadoop  
slaver2.hadoop
  

  将master.hadoop 上的hadoop复制到slaver1 和slaver2
  

scp -r/usr/hadoop-2.6.0 slaver1.hadoop:/usr/  

scp -r/usr/hadoop-2.6.0 slaver2.hadoop:/usr/  


  需要注意的就是 如果使用默认的配置 需要在各个主机上hadoop根目录新建 tmp 目录,dfs 目录dfs 下简历 name 和 data目录
  7 验证
  master节点上,重新启动
  在hadoop根目录
  

bin/hadoop namenode -format  


  出现如下图所示

  则表示成功
  

sbin/start-all.sh  


  如果顺利的话 在 master 节点会看到以下进程
  使用 jps命令查看

  在slaver1上查看

  同时 在 master.hadoop:50070 可以访问到节点情况

  在配置过程中,遇到了几个问题
  1、 nodes 节点和主机连接不上,在master的nodes 节点上线上不出来

  这个一般清一下防火墙就行

  2、clusterid 不对

  这个是由于重新格式化造成的 若要重新格式化,请先清空各datanode上的data目录(最好连tmp目录也一起清空),否则格式化完成后,启动dfs时,datanode会启动失败
页: [1]
查看完整版本: VMware 虚拟机安装 hadoop 2.6.0 完全分布式集群