设为首页 收藏本站
查看: 547|回复: 0

[经验分享] Hbase+Hadoop环境搭建

[复制链接]

尚未签到

发表于 2016-12-4 11:12:33 | 显示全部楼层 |阅读模式
前言

每一颗璀璨的钻石,都曾被泥土和杂草埋没过,但正是因为这些,它才显得弥足珍贵。——我自己。
本文不打算介绍HBase的任何资料,旨在通过简洁明了的叙述,在最短时间内搭建一个可以运行的伪分布式环境。

下载HBase

从Apache官网下载hbase-0.92.1,解压到linux用户目录中。并且设置权限
tar -zxvf /mnt/hgfs/PublicData/hbase-0.92.1.tar.gz -C~/hadoop-data

chmod -R 777 ~/hbase-0.92.1

配置HBase



  • 修改~/.bashrc文件,添加(可能需要去掉HIVE相关的部分)

    export JAVA_HOME=/usr/java/jdk1.7.0_51
    export HADOOP_HOME=/home/hadoop/hadoop-0.20.2
    export HIVE_HOME=/home/hadoop/hive-0.6.0
    export HBASE_HOME=/home/hadoop/hbase-0.92.1
    export PATH=$HIVE_HOME/bin/:$HBASE_HOME/bin/:$HADOOP_HOME/bin:$JAVA_HOME/bin:$PATH
    export CLASSPATH=$HADOOP_HOME:$HADOOP_HOME/lib:$HBASE_HOME:$HBASE_HOME/lib:$CLASSPATH

  • 复制$HADOOP_HOME下的hadoop-0.20.2-core.jar到$HBASE_HOME/lib下。并且删除(覆盖)原来的hadoop的版本。

  • 修改$HBASE_HOME/conf/hbase-env.sh,添加如下内容:

    # The java implementation to use. Java 1.6 required.
    export JAVA_HOME=/usr/java/jdk1.7.0_51
    # Extra Java CLASSPATH elements. Optional.
    export HBASE_CLASSPATH=/home/hadoop/hadoop-0.20.2/conf
    # Tell HBase whether it should manage it's own instance of Zookeeper or not.
    export HBASE_MANAGES_ZK=true
    上面的红色字体为你的HADOOP_HOME路径


  • 在HDFS中创建HBase的数据存放目录:

    hadoop fs –mkdir ~/hadoop-data/data/hbase
    hadoop fs -chmod -R 777 ~/hadoop-data/data/hbase


  • 修改(文件若不存在则自己添加)$HBASE_HOME/conf下的hbase-site.xml为如下内容:



    <configuration>
    <property>
    <name>hbase.rootdir</name>
    <value>hdfs://hadoop:9000/home/hadoop/hadoop-data/data/hbase</value>
    <description>这里是HBase的数据文件存放地址,需要预先在hadoop中创建</description>
    </property>
    <property>
    <name>hbase.cluster.distributed</name>
    <value>true</value>
    </property>
    <property>
    <name>hbase.zookeeper.quorum</name>
    <value>hadoop</value>
    <description>本机名</description>
    </property>
    </configuration>

启动HBase

启动HBase需要首先启动Hadoop,并且退出HDFS的安全模式。
$HADOOP_HOME/bin/start-all.sh
$HADOOP_HOME/bin/hadoop dfsadmin -safemode leave
$HBASE_HOME/bin/start-hbase.sh
启动成功后,进入HBase的Shell进行操作(这里是创建一张'test'表,用以测试HBase的安装成功与否):
$HBASE_HOME/bin/hbase shell
Create 'test','cf1','cf2'
如果看到了和我一样的结果,恭喜你,享受你的HBase之旅吧。
DSC0000.jpg

在Eclipse中运行HBase程序


  • 复制$HBASE_HOME/lib中的所有jar到工程下(或者扩展添加方式)
  • 复制$HBASE_HOME/confx/hbase-site.xml到src下。

  • 如下代码:



    package org.xiaom.hadoop.hbase;
    import java.io.IOException;
    /**
    * 从HBase的'test'中读取数据,处理后存放到'word_count'中。
    * @authorhadoop
    *
    */
    publicclass ReadHBaseAndWriteToHDFS implements Tool {
    private Configuration conf = new Configuration();
    publicstaticclass Mapper extends TableMapper<ImmutableBytesWritable, Text>{
    protectedvoid map(ImmutableBytesWritable key, org.apache.hadoop.hbase.client.Result value, org.apache.hadoop.mapreduce.Mapper<ImmutableBytesWritable,org.apache.hadoop.hbase.client.Result,ImmutableBytesWritable,Text>.Context context) throws java.io.IOException ,InterruptedException {
    Iterator<byte[]> it=value.getMap().keySet().iterator();
    System.out.println(key.toString());
    while(it.hasNext()){
    System.out.println("\t"+new String(it.next())+":"+value.getMap().get(it.next()));
    }
    };
    }
    publicstaticclass SearchMapper extends TableMapper<ImmutableBytesWritable, Text> {
    protectedvoid map(ImmutableBytesWritable key, Result value,
    Context context) throws InterruptedException, IOException {
    System.out.println(value.toString());
    }
    }
    @Override
    publicvoid setConf(Configuration conf) {
    this.conf = conf;
    }
    @Override
    public Configuration getConf() {
    returnthis.conf;
    }
    @Override
    publicint run(String[] args) throws Exception {
    conf.set(TableInputFormat.INPUT_TABLE, "student");
    conf.set(TableOutputFormat.OUTPUT_TABLE, "test");
    conf.set("hbase.zookeeper.quorum", "hadoop");
    Job job=new Job(this.getConf());
    job.setJobName("read-write-hbase");
    job.setJarByClass(ReadHBaseAndWriteToHDFS.class);
    job.setInputFormatClass(TableInputFormat.class);
    job.setOutputFormatClass(TableOutputFormat.class);
    job.setMapOutputKeyClass(Text.class);
    job.setMapOutputValueClass(IntWritable.class);
    job.setOutputKeyClass(ImmutableBytesWritable.class);
    job.setOutputValueClass(ImmutableBytesWritable.class);
    job.setMapperClass(SearchMapper.class);
    // InitTestData.initData(conf);
    // return 0;
    return job.waitForCompletion(true)?1:0;
    }
    publicstaticvoid main(String[] args) throws Exception {
    System.exit(new ReadHBaseAndWriteToHDFS().run(args));
    }
    }
  • 直接尼玛run as java application

一些小提示



  • 这是我的hosts文件,这个东西配置不恰当会导致Eclipse的Hadoop插件无法连接HDFS


    DSC0001.jpg


  • 这是我的~/.bashrc文件,我把JDK、Hadoop、Hive、HBase的启动路径都添加到了PATH里面,这样以后就可以在终端中直接运行这些命令了。

    DSC0002.jpg

  • 遇到问题一定要看$HBASE_HOME/logs下的日志记录。

运维网声明 1、欢迎大家加入本站运维交流群:群②:261659950 群⑤:202807635 群⑦870801961 群⑧679858003
2、本站所有主题由该帖子作者发表,该帖子作者与运维网享有帖子相关版权
3、所有作品的著作权均归原作者享有,请您和我们一样尊重他人的著作权等合法权益。如果您对作品感到满意,请购买正版
4、禁止制作、复制、发布和传播具有反动、淫秽、色情、暴力、凶杀等内容的信息,一经发现立即删除。若您因此触犯法律,一切后果自负,我们对此不承担任何责任
5、所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其内容的准确性、可靠性、正当性、安全性、合法性等负责,亦不承担任何法律责任
6、所有作品仅供您个人学习、研究或欣赏,不得用于商业或者其他用途,否则,一切后果均由您自己承担,我们对此不承担任何法律责任
7、如涉及侵犯版权等问题,请您及时通知我们,我们将立即采取措施予以解决
8、联系人Email:admin@iyunv.com 网址:www.yunweiku.com

所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其承担任何法律责任,如涉及侵犯版权等问题,请您及时通知我们,我们将立即处理,联系人Email:kefu@iyunv.com,QQ:1061981298 本贴地址:https://www.iyunv.com/thread-309503-1-1.html 上篇帖子: Hadoop入门(二)——安装 下篇帖子: Hadoop的实时分析之路
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

扫码加入运维网微信交流群X

扫码加入运维网微信交流群

扫描二维码加入运维网微信交流群,最新一手资源尽在官方微信交流群!快快加入我们吧...

扫描微信二维码查看详情

客服E-mail:kefu@iyunv.com 客服QQ:1061981298


QQ群⑦:运维网交流群⑦ QQ群⑧:运维网交流群⑧ k8s群:运维网kubernetes交流群


提醒:禁止发布任何违反国家法律、法规的言论与图片等内容;本站内容均来自个人观点与网络等信息,非本站认同之观点.


本站大部分资源是网友从网上搜集分享而来,其版权均归原作者及其网站所有,我们尊重他人的合法权益,如有内容侵犯您的合法权益,请及时与我们联系进行核实删除!



合作伙伴: 青云cloud

快速回复 返回顶部 返回列表