设为首页 收藏本站
查看: 719|回复: 0

[经验分享] 《Hadoop The Definitive Guide》ch12 HBase

[复制链接]

尚未签到

发表于 2016-12-9 06:48:15 | 显示全部楼层 |阅读模式
  1. 关于HBase的介绍,http://www.searchtb.com/2011/01/understanding-hbase.html很不错。
  HBase – Hadoop Database,是一个高可靠性、高性能、面向列、可伸缩的分布式存储系统,利用HBase技术可在廉价PC Server上搭建起大规模结构化存储集群。


HBase是Google Bigtable的开源实现,类似Google Bigtable利用GFS作为其文件存储系统,HBase利用Hadoop HDFS作为其文件存储系统;Google运行MapReduce来处理Bigtable中的海量数据,HBase同样利用Hadoop MapReduce来处理HBase中的海量数据;Google Bigtable利用 Chubby作为协同服务,HBase利用Zookeeper作为对应。

  (HBase感觉更像是一个上学时学的分布式数据库)
  2. HBase安装的版本要和Hadoop的版本对应起来,刚开始下了最新的hbase-0.94.0,但是Hadoop的版本是hadoop-0.20.203.0,在启动HBase的时候,总是有问题。重新下载了hbase-0.90.6之后,一次就启动成功了。

[ate: /local/nomad2 ]
>> /local/nomad2/hbase/hbase-0.94.0/bin/start-hbase.sh
starting master, logging to /local/nomad2/hbase/hbase-0.94.0/bin/../logs/hbase-nomad2-master-ate.out
SLF4J: Class path contains multiple SLF4J bindings.
SLF4J: Found binding in [jar:file:/local/nomad2/hbase/hbase-0.94.0/lib/slf4j-log4j12-1.5.8.jar!/org/slf4j/impl/StaticLoggerBinder.class]
SLF4J: Found binding in [jar:file:/local/nomad2/hadoop/hadoop-0.20.203.0/lib/slf4j-log4j12-1.4.3.jar!/org/slf4j/impl/StaticLoggerBinder.class]
SLF4J: See http://www.slf4j.org/codes.html#multiple_bindings for an explanation.


解决办法,去掉hbase下面的lib。
>> hbase classpath | tr ":" "\n" | grep -i slf4j
  3. 设置环境变量

export HBASE_INSTALL=/local/nomad2/hbase/hbase-0.90.6
export PATH=$PATH:$HBASE_INSTALL/bin


4. 启动HBase
[ate: /local/nomad2/hbase/hbase-0.90.6/bin ]
>> start-hbase.sh
starting master, logging to /local/nomad2/hbase/hbase-0.90.6/bin/../logs/hbase-nomad2-master-ate.out
[ate: /local/nomad2/hbase/hbase-0.90.6/bin ]
>> hbase shell
HBase Shell; enter 'help<RETURN>' for list of supported commands.
Type "exit<RETURN>" to leave the HBase Shell
Version 0.90.6, r1295128, Wed Feb 29 14:29:21 UTC 2012
hbase(main):001:0> create 'test', 'data'
0 row(s) in 1.4430 seconds
hbase(main):002:0> list
TABLE                                                                                                            
test                                                                                                              
1 row(s) in 0.0420 seconds

hbase(main):003:0> put 'test', 'row1', 'data:1', 'value1'
0 row(s) in 0.1500 seconds
hbase(main):005:0> put 'test', 'row2', 'data:2', 'value2'
0 row(s) in 0.0230 seconds
hbase(main):006:0> put 'test', 'row3', 'data:3', 'value3'
0 row(s) in 0.0220 seconds
hbase(main):007:0> scan 'test'
ROW                          COLUMN+CELL                                                                       
row1                        column=data:1, timestamp=1341662081734, value=value1                              
row2                        column=data:2, timestamp=1341662107606, value=value2                              
row3                        column=data:3, timestamp=1341662122336, value=value3                              
3 row(s) in 0.0640 seconds
hbase(main):008:0> disable 'test'
0 row(s) in 2.0590 seconds
hbase(main):011:0> drop 'test'
0 row(s) in 1.1650 seconds
hbase(main):012:0> list
TABLE                                                                                                         
0 row(s) in 0.0190 seconds



5. 导入数据(书上的例子)
hbase(main):013:0> create 'stations', {NAME => 'info', VERSIONS => 1}
0 row(s) in 1.1100 seconds
hbase(main):014:0> create 'observations', {NAME => 'data', VERSIONS => 1}
0 row(s) in 1.1060 seconds
hbase(main):015:0> list
TABLE                                                                                                         
observations                                                                                                   
stations                                                                                                      
2 row(s) in 0.0210 seconds

>> export HBASE_CLASSPATH=$HBASE_CLASSPATH:ch13.jar
>> hbase HBaseTemperatureImporter input/ncdc/all  


导入完成后,从http://ate:60010查看数据表。
DSC0000.png

运维网声明 1、欢迎大家加入本站运维交流群:群②:261659950 群⑤:202807635 群⑦870801961 群⑧679858003
2、本站所有主题由该帖子作者发表,该帖子作者与运维网享有帖子相关版权
3、所有作品的著作权均归原作者享有,请您和我们一样尊重他人的著作权等合法权益。如果您对作品感到满意,请购买正版
4、禁止制作、复制、发布和传播具有反动、淫秽、色情、暴力、凶杀等内容的信息,一经发现立即删除。若您因此触犯法律,一切后果自负,我们对此不承担任何责任
5、所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其内容的准确性、可靠性、正当性、安全性、合法性等负责,亦不承担任何法律责任
6、所有作品仅供您个人学习、研究或欣赏,不得用于商业或者其他用途,否则,一切后果均由您自己承担,我们对此不承担任何法律责任
7、如涉及侵犯版权等问题,请您及时通知我们,我们将立即采取措施予以解决
8、联系人Email:admin@iyunv.com 网址:www.yunweiku.com

所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其承担任何法律责任,如涉及侵犯版权等问题,请您及时通知我们,我们将立即处理,联系人Email:kefu@iyunv.com,QQ:1061981298 本贴地址:https://www.iyunv.com/thread-311535-1-1.html 上篇帖子: Hadoop 文件追加(断点继传) 下篇帖子: hadoop hdfs JAVA API 基本文件操作
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

扫码加入运维网微信交流群X

扫码加入运维网微信交流群

扫描二维码加入运维网微信交流群,最新一手资源尽在官方微信交流群!快快加入我们吧...

扫描微信二维码查看详情

客服E-mail:kefu@iyunv.com 客服QQ:1061981298


QQ群⑦:运维网交流群⑦ QQ群⑧:运维网交流群⑧ k8s群:运维网kubernetes交流群


提醒:禁止发布任何违反国家法律、法规的言论与图片等内容;本站内容均来自个人观点与网络等信息,非本站认同之观点.


本站大部分资源是网友从网上搜集分享而来,其版权均归原作者及其网站所有,我们尊重他人的合法权益,如有内容侵犯您的合法权益,请及时与我们联系进行核实删除!



合作伙伴: 青云cloud

快速回复 返回顶部 返回列表