设为首页 收藏本站
查看: 1153|回复: 0

Spark shell 词频统计和统计PV心得

[复制链接]
YunVN网友  发表于 2018-8-20 10:28:20 |阅读模式
  所有过程按本人实验
  并以本人能够接受的方式理解的,大家可以参考,如有问题请留言指正。
  样本数据
  [hadoop@h201 ~]$ cat hh.txt
  hello,world
  hello,hadoop
  hello,oracle
  hadoop,oracle
  hello,world
  hello,hadoop
  hello,oracle
  hadoop,oracle
  词频统计,及其按单词数量倒序排序过程及其详解
  1.将文件加载成RDD
  Scala>  var file=sc.textFile(“hdfs://h201:9000/hh.txt”)
  2.将每行按逗号拆分,结果装载到一个数组中,每次提取一个单词, _代表每次输入内容的占位符
  Scala>  val  h1=file.flatMap(_.split(“,”))
  3. 将数组中的每个元素装载到map方法中执行统一的处理任务,将输入的每个单词返回成k,v 键值对,reduceByKey()方法只对value只运行括号内的方法进行迭代计算_+_ 代表累加,返回的是k和进行过迭代计算的v 键值对
  Scala>  val  h2=h1.map(x=>(x,1)).reduceByKey(_+_)
  4. 再用第二个map接收上一步的k,v键值对进行交换位置输出例如:
  输入的是(“hello”,5)变成(5,”hello”)
  Scala>  val  h3=h2.map(_.2,_.1)
  5. 将结果按key值排序
  Scala>  val  h4=h4.sortByKey(false)      false=倒序 true=升序
  6. 在使用map函数将拍好序的键值对进行交换例如:
  (5,”hello”) (4,”hadoop”)   变成(“hello”,5)(“hadoop”,4)
  Scala> val  h5=h4.map(_.2,_.1)
  7. 到此已经完成了词频统计并按照单词数量的降序进行了排列已经完成下一步可以将结果输出到文件夹中,注意是一个目录
  Scala>  h5.saveAsTextFile("hdfs://h201:9000/output1")
  上述所有操作拆分为了方便理解,可以将所有操作合成一条代码:如下
  Scala > val wc = file.flatMap(_.split(",")).map(x=>(x,1)).reduceByKey(_+_).map(x=>(x._2,x._1)).sortByKey(false).map(x=>(x._2,x._1)).saveAsTextFile(“hdfs://h201:9000/output1”)
  
  flatMap() 与 map() 的区别
  flatMap() 与 map() 都是对输入的每行内容做同样的操作但是产生的结果不相同;
  例如样本:
  hello,world
  hello,hadoop
  hello,oracle
  将文件导入成RDD  =》var file=sc.textFile(“hdfs://xxx:9000/xx.txt”)
  同样是用split方法按逗号分隔
  Var fm=file.flatMap(_.split(“,”))   每行按逗号分隔后产生的结果解将每个单词放在一个集合中,下面如果使用fm中的内容是每次只会导入一个单词:
  用java表示就是{‘hello’,’world’,’hello’,’hadoop’,’hello’,’oracle’} 相当于一维数组
  Var m=file.map(_.split(“,”))   每行按逗号分隔后产生的结果是将每行的变成一个字符串数组,再放到一个大的结果集中,下面如果使用m中的内容每次导入一个数组:
  用java表示就是{{‘hello’,’world’},{‘hello’,’hadoop’},{‘hello’,’oracle’}} 相当于二维数组
  这在使用Apache日志统计PV时很有用例如日志格式如下:
  123.23.4.5 - - xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
  23.12.4.5 - - xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
  我们只需要取出按空格分隔的第一个列即可 这是使用flatMap就不合适了我们可以用map
  Salca > var file=sc.textFile(“hdfs://h201:9000/access.log”)
  Salca> var h1=file.map(_.split(“ ”,2))      #按空格分隔最多两列
  Salca> var h2=h1.map(x=>(x(0),1))       #输入的数组去第0列,即可取出IP
  Salca> var h3=h2.reduceByKey(_+_)      #统计每个链接的登录次数
  下面就是排序和保存在这里就不在重复了。


运维网声明 1、欢迎大家加入本站运维交流群:群②:261659950 群⑤:202807635 群⑦870801961 群⑧679858003
2、本站所有主题由该帖子作者发表,该帖子作者与运维网享有帖子相关版权
3、所有作品的著作权均归原作者享有,请您和我们一样尊重他人的著作权等合法权益。如果您对作品感到满意,请购买正版
4、禁止制作、复制、发布和传播具有反动、淫秽、色情、暴力、凶杀等内容的信息,一经发现立即删除。若您因此触犯法律,一切后果自负,我们对此不承担任何责任
5、所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其内容的准确性、可靠性、正当性、安全性、合法性等负责,亦不承担任何法律责任
6、所有作品仅供您个人学习、研究或欣赏,不得用于商业或者其他用途,否则,一切后果均由您自己承担,我们对此不承担任何法律责任
7、如涉及侵犯版权等问题,请您及时通知我们,我们将立即采取措施予以解决
8、联系人Email:admin@iyunv.com 网址:www.yunweiku.com

所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其承担任何法律责任,如涉及侵犯版权等问题,请您及时通知我们,我们将立即处理,联系人Email:kefu@iyunv.com,QQ:1061981298 本贴地址:https://www.iyunv.com/thread-554170-1-1.html 上篇帖子: shell脚本之全库热备份 下篇帖子: shell中自定义函数
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

扫码加入运维网微信交流群X

扫码加入运维网微信交流群

扫描二维码加入运维网微信交流群,最新一手资源尽在官方微信交流群!快快加入我们吧...

扫描微信二维码查看详情

客服E-mail:kefu@iyunv.com 客服QQ:1061981298


QQ群⑦:运维网交流群⑦ QQ群⑧:运维网交流群⑧ k8s群:运维网kubernetes交流群


提醒:禁止发布任何违反国家法律、法规的言论与图片等内容;本站内容均来自个人观点与网络等信息,非本站认同之观点.


本站大部分资源是网友从网上搜集分享而来,其版权均归原作者及其网站所有,我们尊重他人的合法权益,如有内容侵犯您的合法权益,请及时与我们联系进行核实删除!



合作伙伴: 青云cloud

快速回复 返回顶部 返回列表