gdrocket 发表于 2018-8-25 13:51:20

来谈谈关于Shell中效率的问题

  今天没什么事就总结一下Shell中很多操作关于效率的问题
  不说别的没有用的
  就是来点干的
  最开始那自然就是算数运算
  这里我最推荐的就是用$(()) 这样的方法进行简单的运算
  因为无论是expr 还是bc之类的计算器肯定都没有linux的内置的快
  总结起来也就是一句话
  那就是能用内置的变量就不要用外部命令
  然后就是有关于变量截取的问题
  比如一般的变量都可以用sed来搞定
  但是的吧,sed说实话效率真不是很高,有时候等一个文件输出
  要等很久
  可以用 ${}中的一些内置的变量截取
  当然如果就几十个文件搞的话没那么费劲
  随意、会用哪个用哪个。
  但是当你处理好几千个好几万数据的话,那个时间就不是盖的了
  也不用就完全的都整的特别明白
  知道什么时候用得着可以查的到就可以了
  比如百度什么关键词就能找到对应的解决办法
  还有就是能用工具搞定的东西,不用非得自己写一个脚本去处理
  毕竟工具经历了这么多年的洗礼
  不好用的工具肯定就被淘汰了
  还有挺重要的就是嵌套循环、我只想说
  除非数据非常少
  不然你就等吧
  能处理数据就处理数据
  一次只干成一件事
  比如今天有人问一个问题
  就是有一个200G的文本文件
  想要打印出大概两千行的内容
  两千行的行号在一个文本文件里
  他给出的解法是用for循环那个行号文件,然后用sed来取
  我就简单的估计了一下,这JB不扯淡呢吗
  for循环的话、得循环2000多遍,然后sed是遍历那200G的文件
  我给了一个解法、但是比较复杂,接下来我就说一下我的方法
  仅仅提供参考,肯定有比我更好的解法
  首先就是sed不能分行过滤,因为那2000行是不连续的,sed我搞不定
  也许哪个sed大神说可以搞定,我办不到,我给出一个大众的解法
  我用的就是awk,awk的话 关键的用法就是这个
  awk ‘/{if(NR==LINE)print}/’ file
  就是用NR来判断行号,那么只需要遍历一遍文件就可以
  重要的就是把NR==LINE的问题搞定就可以了
  因为awk支持 (NR==23||NR==25)
  像这样的,它可以多选
  那么把那个行号文件用tr和sed处理过后就能整出来()中间的那种类型的一行文本
  直接复制过去给awk就哦了
  我做过实验,肯定搞得定,我已经搞定了
  不过代码那阵关机以后就在历史记录里了
  我也懒的翻了
  就总结这么多了,不多说了,准备洗洗睡了

页: [1]
查看完整版本: 来谈谈关于Shell中效率的问题