设为首页 收藏本站
查看: 948|回复: 0

[经验分享] hadoop wordCount 第二步迈出去了 ^_^

[复制链接]

尚未签到

发表于 2016-12-6 11:20:51 | 显示全部楼层 |阅读模式
开始不理解 hadoop fs -put input1.txt in
所以在/data 下新建了 in 文件夹,结果运行测试程序都不对。
hadoop 是个文件系统,它有自己的管理方式和存储方式.你在本地文件系统是找不到这个相同的目录的如果你能看见,那就变成 linux文件系统了,还能叫hadoop文件系统吗

[hadoop@localhost data]$ touct input1.txt

[hadoop@localhost data]$ vi input1.txt
input1.txt文件内容
hello   world
hello   ray
hello   Hadoop
[hadoop@localhost data]$ hadoop fs -mkdir /in


[hadoop@localhost data]$ hadoop fs -put input1.txt in

[hadoop@localhost data]$ hadoop fs -put input1.txt /in

[hadoop@localhost mapreduce]$ hadoop jar hadoop-mapreduce-examples-2.2.0.jar wordcount /in /output2
14/07/27 18:31:18 INFO client.RMProxy: Connecting to ResourceManager at localhost/127.0.0.1:5271
14/07/27 18:31:19 INFO input.FileInputFormat: Total input paths to process : 1
14/07/27 18:31:19 INFO mapreduce.JobSubmitter: number of splits:1
14/07/27 18:31:19 INFO Configuration.deprecation: user.name is deprecated. Instead, use mapreduce.job.user.name
14/07/27 18:31:19 INFO Configuration.deprecation: mapred.jar is deprecated. Instead, use mapreduce.job.jar
14/07/27 18:31:19 INFO Configuration.deprecation: mapred.output.value.class is deprecated. Instead, use mapreduce.job.output.value.class
14/07/27 18:31:19 INFO Configuration.deprecation: mapreduce.combine.class is deprecated. Instead, use mapreduce.job.combine.class
14/07/27 18:31:19 INFO Configuration.deprecation: mapreduce.map.class is deprecated. Instead, use mapreduce.job.map.class
14/07/27 18:31:19 INFO Configuration.deprecation: mapred.job.name is deprecated. Instead, use mapreduce.job.name
14/07/27 18:31:19 INFO Configuration.deprecation: mapreduce.reduce.class is deprecated. Instead, use mapreduce.job.reduce.class
14/07/27 18:31:19 INFO Configuration.deprecation: mapred.input.dir is deprecated. Instead, use mapreduce.input.fileinputformat.inputdir
14/07/27 18:31:19 INFO Configuration.deprecation: mapred.output.dir is deprecated. Instead, use mapreduce.output.fileoutputformat.outputdir
14/07/27 18:31:19 INFO Configuration.deprecation: mapred.map.tasks is deprecated. Instead, use mapreduce.job.maps
14/07/27 18:31:19 INFO Configuration.deprecation: mapred.output.key.class is deprecated. Instead, use mapreduce.job.output.key.class
14/07/27 18:31:19 INFO Configuration.deprecation: mapred.working.dir is deprecated. Instead, use mapreduce.job.working.dir
14/07/27 18:31:19 INFO mapreduce.JobSubmitter: Submitting tokens for job: job_1406456184794_0006
14/07/27 18:31:19 INFO impl.YarnClientImpl: Submitted application application_1406456184794_0006 to ResourceManager at localhost/127.0.0.1:5271
14/07/27 18:31:19 INFO mapreduce.Job: The url to track the job: http://localhost:8088/proxy/application_1406456184794_0006/
14/07/27 18:31:19 INFO mapreduce.Job: Running job: job_1406456184794_0006
14/07/27 18:31:28 INFO mapreduce.Job: Job job_1406456184794_0006 running in uber mode : false
14/07/27 18:31:28 INFO mapreduce.Job:  map 0% reduce 0%
14/07/27 18:31:34 INFO mapreduce.Job:  map 100% reduce 0%
14/07/27 18:31:41 INFO mapreduce.Job:  map 100% reduce 100%
14/07/27 18:31:41 INFO mapreduce.Job: Job job_1406456184794_0006 completed successfully
14/07/27 18:31:41 INFO mapreduce.Job: Counters: 43
File System Counters
FILE: Number of bytes read=53
FILE: Number of bytes written=157577
FILE: Number of read operations=0
FILE: Number of large read operations=0
FILE: Number of write operations=0
HDFS: Number of bytes read=144
HDFS: Number of bytes written=31
HDFS: Number of read operations=6
HDFS: Number of large read operations=0
HDFS: Number of write operations=2
Job Counters
Launched map tasks=1
Launched reduce tasks=1
Data-local map tasks=1
Total time spent by all maps in occupied slots (ms)=4245
Total time spent by all reduces in occupied slots (ms)=4384
Map-Reduce Framework
Map input records=4
Map output records=6
Map output bytes=59
Map output materialized bytes=53
Input split bytes=100
Combine input records=6
Combine output records=4
Reduce input groups=4
Reduce shuffle bytes=53
Reduce input records=4
Reduce output records=4
Spilled Records=8
Shuffled Maps =1
Failed Shuffles=0
Merged Map outputs=1
GC time elapsed (ms)=67
CPU time spent (ms)=1230
Physical memory (bytes) snapshot=384798720
Virtual memory (bytes) snapshot=1753681920
Total committed heap usage (bytes)=273678336
Shuffle Errors
BAD_ID=0
CONNECTION=0
IO_ERROR=0
WRONG_LENGTH=0
WRONG_MAP=0
WRONG_REDUCE=0
File Input Format Counters
Bytes Read=44
File Output Format Counters
Bytes Written=31
[hadoop@localhost mapreduce]$ hadoop fs -ls /output2
Found 2 items
-rw-r--r--   1 hadoop supergroup          0 2014-07-27 18:31 /output2/_SUCCESS
-rw-r--r--   1 hadoop supergroup         31 2014-07-27 18:31 /output2/part-r-00000
[hadoop@localhost mapreduce]$ hadoop fs -cat /output2/_SUCCESS
[hadoop@localhost mapreduce]$ hadoop fs -cat /output2/part-r-00000
Hadoop1
hello3
ray1
world1
第二步迈出去了 ^_^
* 文件操作
* 查看目录文件
* $ hadoop fs -ls /user/cl
*
* 创建文件目录
* $ hadoop fs -mkdir /user/cl/temp
*
* 删除文件
* $ hadoop fs -rm /user/cl/temp/a.txt
*
* 删除目录与目录下所有文件
* $ hadoop fs -rmr /user/cl/temp
*
* 上传文件
* 上传一个本机/home/cl/local.txt到hdfs中/user/cl/temp目录下
* $ hadoop fs -put /home/cl/local.txt /user/cl/temp
*
* 下载文件
* 下载hdfs中/user/cl/temp目录下的hdfs.txt文件到本机/home/cl/中
* $ hadoop fs -get /user/cl/temp/hdfs.txt /home/cl
*
* 查看文件
* $ hadoop fs –cat /home/cl/hdfs.txt
*
* Job操作
* 提交MapReduce Job, Hadoop所有的MapReduce Job都是一个jar包

* $ hadoop jar <local-jar-file> <java-class> <hdfs-input-file> <hdfs-output-dir>

* $ hadoop jar sandbox-mapred-0.0.20.jar sandbox.mapred.WordCountJob /user/cl/input.dat /user/cl/outputdir
*
* 杀死某个正在运行的Job
* 假设Job_Id为:job_201207121738_0001
* $ hadoop job -kill job_201207121738_0001

运维网声明 1、欢迎大家加入本站运维交流群:群②:261659950 群⑤:202807635 群⑦870801961 群⑧679858003
2、本站所有主题由该帖子作者发表,该帖子作者与运维网享有帖子相关版权
3、所有作品的著作权均归原作者享有,请您和我们一样尊重他人的著作权等合法权益。如果您对作品感到满意,请购买正版
4、禁止制作、复制、发布和传播具有反动、淫秽、色情、暴力、凶杀等内容的信息,一经发现立即删除。若您因此触犯法律,一切后果自负,我们对此不承担任何责任
5、所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其内容的准确性、可靠性、正当性、安全性、合法性等负责,亦不承担任何法律责任
6、所有作品仅供您个人学习、研究或欣赏,不得用于商业或者其他用途,否则,一切后果均由您自己承担,我们对此不承担任何法律责任
7、如涉及侵犯版权等问题,请您及时通知我们,我们将立即采取措施予以解决
8、联系人Email:admin@iyunv.com 网址:www.yunweiku.com

所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其承担任何法律责任,如涉及侵犯版权等问题,请您及时通知我们,我们将立即处理,联系人Email:kefu@iyunv.com,QQ:1061981298 本贴地址:https://www.iyunv.com/thread-310501-1-1.html 上篇帖子: hadoop eclipse插件编译(1.2.1) 下篇帖子: Hadoop 0.21.0 Eclipse plugin相关
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

扫码加入运维网微信交流群X

扫码加入运维网微信交流群

扫描二维码加入运维网微信交流群,最新一手资源尽在官方微信交流群!快快加入我们吧...

扫描微信二维码查看详情

客服E-mail:kefu@iyunv.com 客服QQ:1061981298


QQ群⑦:运维网交流群⑦ QQ群⑧:运维网交流群⑧ k8s群:运维网kubernetes交流群


提醒:禁止发布任何违反国家法律、法规的言论与图片等内容;本站内容均来自个人观点与网络等信息,非本站认同之观点.


本站大部分资源是网友从网上搜集分享而来,其版权均归原作者及其网站所有,我们尊重他人的合法权益,如有内容侵犯您的合法权益,请及时与我们联系进行核实删除!



合作伙伴: 青云cloud

快速回复 返回顶部 返回列表