设为首页 收藏本站
查看: 1912|回复: 0

[经验分享] hadoop+hbase+zookeeper完全分布安装(1)

[复制链接]

尚未签到

发表于 2018-10-31 11:22:18 | 显示全部楼层 |阅读模式
版本选择
  选择 Hadoop 版本对HBase部署很关键。下表显示不同HBase支持的Hadoop版本信息。基于HBase版本,应该选择合适的Hadoop版本。
HBase-0.92.xHBase-0.94.xHBase-0.96Hadoop-0.20.205SXXHadoop-0.22.xSXXHadoop-1.0.xSSSHadoop-1.2.xNTSSHadoop-0.23.xXSNTHadoop-2.xXSS  S = supported and tested,支持
  X = not supported,不支持
  NT = not tested enough.可以运行但测试不充分
  一.准备工作
  1.选择合适的配套软件。本文所使用的软件包分别为
  hadoop-1.2.1-bin.tar.gz
  hbase-0.94.10.tar.gz
  jdk-6u20-linux-i586.bin
  zookeeper-3.4.6.tar.gz
  2.环境准备,本实验是已三台机器做一个集群,1个master,2个slave。
  1)每台机器上安装openssl,rsync
  2)每台机器上建立用户hadoop,并且在/etc/sysconfig/network修改主机名,
  和在/etc/hosts里加入如下映射
  192.168.10.1 master
  192.168.10.2 slave1
  192.168.10.3 slave2
  注: DNS映射的这3主机不能有其它的dns映射名。否则 建好集群准备建表的hbase会非常奇葩的报错
org.apache.hadoop.hbase.PleaseHoldException: Master is initializing   
  导致 建表和写入
  3) 安装JDK
  创建文件夹/usr/java ,将jdk-6u20-linux-i586.bin移到此文件夹后执行
  将java路径加入 /etc/profile
  export JAVA_HOME=/usr/java/jdk1.6.0_45
  export JRE_HOME=/usr/java/jdk1.6.0_45/jre
  export PATH=$JAVA_HOME/bin:$JRE_HOME/bin:$PATH

  export>  二 . 安装hadoop
  1.master 与两台slave机间相互建立ssh无密码登录(出于安全考虑最好是通过hadoop用户来建立)
  1)首先所有机切换到hadoop 用户 输入
  ssh-keygen -t rsa

  这样就会在hadoop用户主目录下生成 ~/.ssh/ 一对公私匙>  2) 然后在master机上将id_rsa.pub的内容追加到同一目录的授权key authorized_keys文件里(没有就创建一 个)
  cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys
  这样就实现了 ssh 无密码自登陆,可以试试 命令 ssh localhost 登录 看是否需要密码

  3) 将文件>
  scp>
  scp>  然后一样的将里面的内容追加到key authorized_keys里
  cat ~/id_rsa.pub >> ~/.ssh/authorized_keys
  这样maser机就能够无密码的登录这两台slave了
  4)照上面的做法,依次将slave1和slave2的id_rsa.pub内容追加到 master上的authorized_keys里
  达到master与slave相互之间无密码ssh登录。
  5) 注意 一定要用主机名相互登录一次。否则后面启动hadoop时候会出现 ssh报错 导致启动失败
  2.将hadoop压缩包解压,并放到/usr/local/hadoop目录下,添加一个目录tmp ,
  并将整个目录的所有者改为hadoop
  tar zxvf  hadoop-1.2.1-bin.tar.gz
  mv hadoop-1.2.1/ /usr/local/hadoop
  mkdir /usr/local/hadoop/tmp
  chown -R hadoop:hadoop /usr/local/hadoop
  3.修改hadoop的配置文件,一般想让hadoop正常启动起来,最少需要配置修改4个配置文件
  分别是
  1) 修改配置文件 /usr/local/hadoop/conf/hadoop-env.sh
  在文件的末尾处加上
  export JAVA_HOME=/usr/java/jdk1.6.0_45
  2) 修改配置文件 /usr/local/hadoop/conf/core-site.xml 内容如下
  
  
  hadoop.tmp.dir  配置tmp存储目录
  /usr/local/hadoop/tmp
  
  
  fs.default.name
  hdfs://master:9000  配置HDFS的地址和端口号
  
  
  3) 修改配置文件/usr/local/hadoop/conf/hdfs-site.xml 内容如下
  
  
  dfs.name.dir
  ${hadoop.tmp.dir}/dfs/name
  
  
  dfs.data.dir
  /usr/local/hadoop/data
  
  
  dfs.replication
  1
  
  
  4.修改配置文件/usr/local/hadoop/conf/mapred-site.xml
  
  
  mapred.job.tracker
  hbase1:9001
  
  
  5.在/etc/profile中里添加hadoop的路径
  export HADOOP_HOME=/usr/local/hadoop
  export PATH=$HADOOP_HOME/bin:$PATH
  使之生效
  source /etc/profile
  这样master的hadoop已经安装好了
  6.使用scp将 文件夹/usr/local/hadoop 传到两台slave机上相同的路径
  scp -r /usr/local/hadoop root@192.168.10.2:/usr/local
  scp -r /usr/local/hadoop root@192.168.10.3:/usr/local
  修改所有者
  chown -R hadoop:hadoop /usr/local/hadoop
  在 /etc/profile 添加如下变量
  export HADOOP_HOME=/usr/local/hadoop
  export PATH=$HADOOP_HOME/bin:$PATH
  使之生效
  source /etc/profile
  三。 启动分布式文件系统hadoop
  首先 ,在第一次启动时要在master上 ,su切换到hadoop用户执行以下命令
  hadoop namenode -format
  出现 sucessfully formatted 就说明格式化成功了
  然后用hadoop用户 运行脚本文件 start-all.sh 即可启动
  四。 验证hadoop
  启动后 使用命令jsp 来查看进程。
  一般来说 正常的master下会有如下几个进程
  JobTracker
  NameNode
  SecondaryNameNode
  正常的slave下有以下2个
  JobTracker
  NameNode
  这样hadoop就安装成功了


运维网声明 1、欢迎大家加入本站运维交流群:群②:261659950 群⑤:202807635 群⑦870801961 群⑧679858003
2、本站所有主题由该帖子作者发表,该帖子作者与运维网享有帖子相关版权
3、所有作品的著作权均归原作者享有,请您和我们一样尊重他人的著作权等合法权益。如果您对作品感到满意,请购买正版
4、禁止制作、复制、发布和传播具有反动、淫秽、色情、暴力、凶杀等内容的信息,一经发现立即删除。若您因此触犯法律,一切后果自负,我们对此不承担任何责任
5、所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其内容的准确性、可靠性、正当性、安全性、合法性等负责,亦不承担任何法律责任
6、所有作品仅供您个人学习、研究或欣赏,不得用于商业或者其他用途,否则,一切后果均由您自己承担,我们对此不承担任何法律责任
7、如涉及侵犯版权等问题,请您及时通知我们,我们将立即采取措施予以解决
8、联系人Email:admin@iyunv.com 网址:www.yunweiku.com

所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其承担任何法律责任,如涉及侵犯版权等问题,请您及时通知我们,我们将立即处理,联系人Email:kefu@iyunv.com,QQ:1061981298 本贴地址:https://www.iyunv.com/thread-628906-1-1.html 上篇帖子: hadoop JobTracker和TaskTracker-Wz10000000000 下篇帖子: hadoop常见错误及处理方法
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

扫码加入运维网微信交流群X

扫码加入运维网微信交流群

扫描二维码加入运维网微信交流群,最新一手资源尽在官方微信交流群!快快加入我们吧...

扫描微信二维码查看详情

客服E-mail:kefu@iyunv.com 客服QQ:1061981298


QQ群⑦:运维网交流群⑦ QQ群⑧:运维网交流群⑧ k8s群:运维网kubernetes交流群


提醒:禁止发布任何违反国家法律、法规的言论与图片等内容;本站内容均来自个人观点与网络等信息,非本站认同之观点.


本站大部分资源是网友从网上搜集分享而来,其版权均归原作者及其网站所有,我们尊重他人的合法权益,如有内容侵犯您的合法权益,请及时与我们联系进行核实删除!



合作伙伴: 青云cloud

快速回复 返回顶部 返回列表