设为首页 收藏本站
查看: 1172|回复: 0

[经验分享] hadoop测试worldcount

[复制链接]

尚未签到

发表于 2016-12-3 11:16:54 | 显示全部楼层 |阅读模式
hadoop测试worldcount,统计每个单词出现的个数
一、首先创建新目录testFiles,并在目录下创建两个测试数据文本文件如下:
[iyunv@SC-026 hadoop-1.0.3]# mkdir testFiles
[iyunv@SC-026 hadoop-1.0.3]# cd testFiles/
[iyunv@SC-026 testFiles]# echo "hello world, bye bye, world." > file1.txt
[iyunv@SC-026 testFiles]# echo "hello hadoop, how are you? hadoop." > file2.txt

二、将本地文件系统上的./testFiles目录拷贝到HDFS的根目录下,目录名为input。
遇到问题,报错信息如下:
[iyunv@SC-026 hadoop-1.0.3]# bin/hadoop dfs -put ./testFiles input
put: org.apache.hadoop.hdfs.server.namenode.SafeModeException: Cannot create directory /user/root/input. Name node is in safe mode.
问题说明hadoop的namenode处在安全模式下,通过以下方式就可以离开安全模式,再次执行拷贝就成功了:
[iyunv@SC-026 hadoop-1.0.3]# bin/hadoop dfsadmin -safemode leave
Safe mode is OFF
[iyunv@SC-026 hadoop-1.0.3]# bin/hadoop dfs -put ./testFiles input

三、执行测试任务,输出到output:
[iyunv@SC-026 hadoop-1.0.3]# bin/hadoop jar hadoop-examples-1.0.3.jar wordcount input output
12/08/31 09:21:34 INFO input.FileInputFormat: Total input paths to process : 2
12/08/31 09:21:34 INFO util.NativeCodeLoader: Loaded the native-hadoop library
12/08/31 09:21:34 WARN snappy.LoadSnappy: Snappy native library not loaded
12/08/31 09:21:35 INFO mapred.JobClient: Running job: job_201208310909_0001
12/08/31 09:21:36 INFO mapred.JobClient:  map 0% reduce 0%
12/08/31 09:21:57 INFO mapred.JobClient:  map 50% reduce 0%
12/08/31 09:22:00 INFO mapred.JobClient:  map 100% reduce 0%
12/08/31 09:22:12 INFO mapred.JobClient:  map 100% reduce 100%
12/08/31 09:22:16 INFO mapred.JobClient: Job complete: job_201208310909_0001
12/08/31 09:22:16 INFO mapred.JobClient: Counters: 29
12/08/31 09:22:16 INFO mapred.JobClient:   Job Counters
12/08/31 09:22:16 INFO mapred.JobClient:     Launched reduce tasks=1
12/08/31 09:22:16 INFO mapred.JobClient:     SLOTS_MILLIS_MAPS=27675
12/08/31 09:22:16 INFO mapred.JobClient:     Total time spent by all reduces waiting after reserving slots (ms)=0
12/08/31 09:22:16 INFO mapred.JobClient:     Total time spent by all maps waiting after reserving slots (ms)=0
12/08/31 09:22:16 INFO mapred.JobClient:     Launched map tasks=2
12/08/31 09:22:16 INFO mapred.JobClient:     Data-local map tasks=2
12/08/31 09:22:16 INFO mapred.JobClient:     SLOTS_MILLIS_REDUCES=14460
12/08/31 09:22:16 INFO mapred.JobClient:   File Output Format Counters
12/08/31 09:22:16 INFO mapred.JobClient:     Bytes Written=78
12/08/31 09:22:16 INFO mapred.JobClient:   FileSystemCounters
12/08/31 09:22:16 INFO mapred.JobClient:     FILE_BYTES_READ=136
12/08/31 09:22:16 INFO mapred.JobClient:     HDFS_BYTES_READ=278
12/08/31 09:22:16 INFO mapred.JobClient:     FILE_BYTES_WRITTEN=64909
12/08/31 09:22:16 INFO mapred.JobClient:     HDFS_BYTES_WRITTEN=78
12/08/31 09:22:16 INFO mapred.JobClient:   File Input Format Counters
12/08/31 09:22:16 INFO mapred.JobClient:     Bytes Read=64
12/08/31 09:22:16 INFO mapred.JobClient:   Map-Reduce Framework
12/08/31 09:22:16 INFO mapred.JobClient:     Map output materialized bytes=142
12/08/31 09:22:16 INFO mapred.JobClient:     Map input records=2
12/08/31 09:22:16 INFO mapred.JobClient:     Reduce shuffle bytes=142
12/08/31 09:22:16 INFO mapred.JobClient:     Spilled Records=22
12/08/31 09:22:16 INFO mapred.JobClient:     Map output bytes=108
12/08/31 09:22:16 INFO mapred.JobClient:     CPU time spent (ms)=3480
12/08/31 09:22:16 INFO mapred.JobClient:     Total committed heap usage (bytes)=411828224
12/08/31 09:22:16 INFO mapred.JobClient:     Combine input records=11
12/08/31 09:22:16 INFO mapred.JobClient:     SPLIT_RAW_BYTES=214
12/08/31 09:22:16 INFO mapred.JobClient:     Reduce input records=11
12/08/31 09:22:16 INFO mapred.JobClient:     Reduce input groups=10
12/08/31 09:22:16 INFO mapred.JobClient:     Combine output records=11
12/08/31 09:22:16 INFO mapred.JobClient:     Physical memory (bytes) snapshot=447000576
12/08/31 09:22:16 INFO mapred.JobClient:     Reduce output records=10
12/08/31 09:22:16 INFO mapred.JobClient:     Virtual memory (bytes) snapshot=1634324480
12/08/31 09:22:16 INFO mapred.JobClient:     Map output records=11

四、查看结果:
[iyunv@SC-026 hadoop-1.0.3]# bin/hadoop dfs -cat output/*
are     1
bye     1
bye,    1
hadoop, 1
hadoop. 1
hello   2
how     1
world,  1
world.  1
you?    1
cat: File does not exist: /user/root/output/_logs

将结果从HDFS复制到本地再查看:
[iyunv@SC-026 hadoop-1.0.3]# bin/hadoop dfs -get output output
[iyunv@SC-026 hadoop-1.0.3]# cat output/*
cat: output/_logs: 是一个目录
are     1
bye     1
bye,    1
hadoop, 1
hadoop. 1
hello   2
how     1
world,  1
world.  1
you?    1

备注:bin/hadoop dfs –help 可以了解各种 HDFS命令的使用。

运维网声明 1、欢迎大家加入本站运维交流群:群②:261659950 群⑤:202807635 群⑦870801961 群⑧679858003
2、本站所有主题由该帖子作者发表,该帖子作者与运维网享有帖子相关版权
3、所有作品的著作权均归原作者享有,请您和我们一样尊重他人的著作权等合法权益。如果您对作品感到满意,请购买正版
4、禁止制作、复制、发布和传播具有反动、淫秽、色情、暴力、凶杀等内容的信息,一经发现立即删除。若您因此触犯法律,一切后果自负,我们对此不承担任何责任
5、所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其内容的准确性、可靠性、正当性、安全性、合法性等负责,亦不承担任何法律责任
6、所有作品仅供您个人学习、研究或欣赏,不得用于商业或者其他用途,否则,一切后果均由您自己承担,我们对此不承担任何法律责任
7、如涉及侵犯版权等问题,请您及时通知我们,我们将立即采取措施予以解决
8、联系人Email:admin@iyunv.com 网址:www.yunweiku.com

所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其承担任何法律责任,如涉及侵犯版权等问题,请您及时通知我们,我们将立即处理,联系人Email:kefu@iyunv.com,QQ:1061981298 本贴地址:https://www.iyunv.com/thread-309095-1-1.html 上篇帖子: hadoop 修改replication 下篇帖子: hadoop oozie 报错
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

扫码加入运维网微信交流群X

扫码加入运维网微信交流群

扫描二维码加入运维网微信交流群,最新一手资源尽在官方微信交流群!快快加入我们吧...

扫描微信二维码查看详情

客服E-mail:kefu@iyunv.com 客服QQ:1061981298


QQ群⑦:运维网交流群⑦ QQ群⑧:运维网交流群⑧ k8s群:运维网kubernetes交流群


提醒:禁止发布任何违反国家法律、法规的言论与图片等内容;本站内容均来自个人观点与网络等信息,非本站认同之观点.


本站大部分资源是网友从网上搜集分享而来,其版权均归原作者及其网站所有,我们尊重他人的合法权益,如有内容侵犯您的合法权益,请及时与我们联系进行核实删除!



合作伙伴: 青云cloud

快速回复 返回顶部 返回列表