wskickahn 发表于 2018-8-25 08:39:13

shell脚本(正则表达+sed+awk)

  一、 正则表达式:
  
  正则表达式(或称Regular Expression,简称RE)就是由普通字符(例如字符 a 到 z)以及特殊字符(称为元字符)组成的文字模式。
  该模式描述在查找文字主体时待匹配的一个或多个字符串。
  正则表达式作为一个模板,将某个字符模式与所搜索的字符串进行匹配。简单的说,正则表示式就是处理字符串的方法,它是以行为单位来进行字符串的处理行为, 正则表示式通过一些特殊符号的辅助,可以让使用者轻易的达到搜寻/删除/取代某特定字符串的处理程序。vim、grep、find、awk、sed等命令都支持正则表达式。
  常用正则表达式:
  1、.代表任意单个字符, 如:/l..e/与包含一个l,后跟两个字符,然后跟一个e的行相匹配
  grep ‘l..e’ test
  awk ‘/l..e/’ test
  cat test(查看文件)
  leeet
  laat
  lae
  2、^代表行的开始。 ^love 如:与所有love开头的行匹配
  3、$代表行的结束。love$ 如:与所有love结尾的行匹配
  那么‘^$’ 就表示空行
  4、[…]匹配括号中的字符之一
        匹配单个字符a或b或c
        匹配单个字符1或2或3
        匹配小写字母a-z之一
      匹配任意英文字母之一
  匹配任意英文字母或数字之一
  注意:上面标红色的单个和之一,不管[]里面多复杂,它的结果都是一个字符!
  grep ‘le’ test
  awk ‘/le/’ test
  可以用^标记做[]内的前缀,表示除[]内的字符之外的字符。比如 搜索oo前没有g的字符串的行. 应用 '[^g]oo' 作搜索字符串,^符号如果出现在[]的起始位置表示否定,但是在[]的其他位置是普通字符。[^ab^c] 匹配b或^或c或不是a的任意单个字符
  5、* 用于修饰前导字符,表示前导字符出现0次或任意多次
  如:'a*grep'匹配所有0个或多个a后紧跟grep的行。“.*”表示任意字符串
  6、\? 用于修饰前导字符,表示前导字符出现0或1次
  a\? 匹配0或1个a
  7、\+ 用于修饰前导字符,表示前导字符出现1或多次
  a\+ 匹配1或多个a
  8、\{n,m\}用于修饰前导字符,表示前导字符出现n至m次 (n和m都是整数,且n test1(先生成test1文件)
  10、|表示或如: a|b|c 匹配a或b或c。如:grep|sed匹配grep或sed
  如:egrep‘grep|sed’test
  11、(),将部分内容合成一个单位组,比如 要搜索 glad 或 good 可以如下 'g(la|oo)d'
  如:egrep ‘g(la|oo)d’ test
  综合举例1:
  1 Christian Scott lives here and will put on a Christmas party.
  2 There are around 30 to 35 people invited.
  3 They are:
  4Tom
  5 Dan
  6Rhonda Savage
  7 Nicky and Kimerly.
  8 Steve, Suzanne, Ginger and Larry.
  ^..$
  搜索行以A至Z的一个字母开头,然后跟两个任意字母,然后跟一个换行符的行。将找到第5行。
  ^*3
  搜索以一个大写字母开头,后跟0个或多个小写字母,再跟数字3,再跟0—5之间的一个数字。无法找到匹配行(改成^*.*3可找到第2行)
  ^ *$
  搜索以0个或多个空格开头,跟一个大写字母,两个小写字母和一个换车符。将找到第4行的TOM(整行匹配)和第5行。注意,*前面有一个空格。
  ^*[^,]*$
  将查找以0个或多个大写或小写字母开头,不跟逗号,然后跟0个或多个大写或小写字母,然后跟一个换车符。将找到第4和5行。
  综合举例2:
  # ls -l/bin | grep   '^...s'
  上面的命令是用来查找suid文件的;
  # ls -lR /usr | grep   '^...s..s'
  上面的命令是用来查找suid和guid的。
  二、grep命令的用法
  grep (global search regular expression(RE) and print out the line,全面搜索正则表达式并把行打印出来)是一种强大的文本搜索工具,它能使用正则表达式搜索文本,并把匹配的行打印出来.
  参数:
  1. -A NUM,--after-context=NUM   除了列出符合行之外,并且列出后NUM行。
  如:   $ grep –A 1 panda file(从file中搜寻有panda样式的行,并显示该行的后1行)
  2. -B NUM,--before-context=NUM与 -A NUM 相对,但这此参数是显示除符合行之外并显示在它之前的NUM行。如:    (从file中搜寻有panda样式的行,并显示该行的前1行)
  $ grep -B 1 panda file
  3、 -C , -NUM, --context[=NUM]列出符合行之外并列出上下各NUM行,默认值是2。
  如:    (列出file中除包含panda样式的行外并列出其上下2行)(若要改变默认值,直接改变NUM即可)
  $ grep -C panda file
  4、 -c, --count不显示符合样式行,只显示符合的总行数。若再加上-v,--invert-match,参数显示不符合的总行数
  5、-i,--ignore-case 忽略大小写差别
  6、-n,--line-number 在匹配的行前面打印行号
  7、-v,--revert-match反检索,只显示不匹配的行
  8、精确匹配:
  例如在抽取字符串“ 48”,返回结果包含诸如484和483等包含“48”的其他字符串,实际上应精确抽取只包含48的各行。
  使用grep抽取精确匹配的一种有效方式是在抽取字符串前加\。假定现在精确抽取48,
  方法如下:
  #grep '\' filename
  9、-s 不显示不存在或无匹配文本的错误信息
  如:执行命令grep "root" /etc/password,因为password文件不存在,所以在屏幕上输出错误信息,若使用grep命令-s开关,可屏蔽错误信息
  要用好grep这个工具,其实就是要写好正则表达式,所以这里不对grep的所有功能进行实例讲解,只列几个例子,讲解一个正则表达式的写法。
  $ ls -l | grep'^d'
  通过管道过滤ls -l输出的内容,只显示以d开头的行。
  $ grep'test'd*
  显示所有以d开头的文件中包含test的行。
  $ grep'test'aabbcc
  显示在aa,bb,cc文件中匹配test的行。
  $ grep'\{5,\}'aa
  显示所有包含每个字符串至少有5个连续小写字符的字符串的行。
  $grep‘tst’filename
  显示包含test或tast的所有行。
  $grep'\.$'filename
  显示以.为结尾的所有行。
  三、sed命令的用法
  sed是一种在线编辑器,它一次处理一行内容。处理时,把当前处理的行存储在临时缓冲区中,称为“模式空间”(pattern space),接着用sed命令处理缓冲区中的内容,处理完成后,把缓冲区的内容送往屏幕。接着处理下一行,这样不断重复,直到文件末尾。文件内容并没有改变,除非你使用重定向存储输出。
  sed的基本命令:
  1.替换: s命令
  1.1 基本用法
  如: sed 's/day/night/' new
  该例子将文件 old 中的每一行第一次出现的 day 替换成 night, 将结果输出到文件 new
  s            " 替换 " 命令
  /../../      分割符 (Delimiter)
  day          搜索字符串
  night      替换字符串
  其实 , 分割符 "/" 可以用别的符号代替 , 比如 ",", "|" 等 .
  如:sed 's/\/usr\/local\/bin/\/common\/bin/'new
  等价于 sed 's_/usr/local/bin_/common/bin_' new
  显然 , 此时用 "_" 作分割符比 "/" 好得多
  1.2 用 & 表示匹配的字符串
  有时可能会想在匹配到的字符串周围或附近加上一些字符 .
  如: sed 's/abc/(abc)/' new
  该例子在找到的 abc 前后加上括号 .
  该例子还可以写成 sed 's/abc/(&)/' new
  下面是更复杂的例子 :
  sed 's/*/(&)/' new
  sed 默认只替换搜索字符串的第一次出现 , 利用 /g 可以替换搜索字符串所有
  $ sed 's/test/mytest/g' example-----在整行范围内把test替换为mytest。如果没有g标记,则只有每行第一个匹配的test被替换成mytest。
  $ sed 's/^192.168.0.1/&localhost/' example-----&符号表示替换字符串中被找到的部份。所有以192.168.0.1开头的行都会被替换成它自已加 localhost,变成192.168.0.1localhost。
  $ sed 's#10#100#g' example-----不论什么字符,紧跟着s命令的都被认为是新的分隔符,所以,“#”在这里是分隔符,代替了默认的“/”分隔符。表示把所有10替换成100。
  如果需要对同一文件或行作多次修改,可以使用 "-e" 选项

  取得eth0网卡IP地址:

  2.删除行:d命令
  从某文件中删除包含 "how" 的所有行

  将/etc/passwd的内容显示并找印行号,同时将2~5删除

  附:nl命令在linux系统中用来计算文件中行号。nl 可以将输出的文件内容自动的加上行号
  如果只要删除第2行,可以使用nl /etc/passwd | sed '2d' 来达成,至于若是要删除第 3 到最后一行,则是nl /etc/passwd | sed '3,$d'的啦。
  3.增加行:a命令(在指定的行后新增)或i命令(在指定的行前新增)
  a的后面可以接字符串,而这些字符串会在新的一行出现
  在/etc/passwd的第二行后增加“XXXXX”字样的新行

  在/etc/passwd的第二行前增加“XXXXX”字样的新行

  如果要同时新增多行,则每行之间要用反斜杠\来进行新行的添加

  4、取代行:c命令
  c的后面可以接字符串,这些字符串可以取代n1,n2之间的行

  5、打印:p命令
  sed '/north/p' datafile 默认输出所有行,找到north的行重复打印
  sed–n '/north/p' datafile 禁止默认输出,只打印找到north的行
  nl /etc/passwd | sed -n '5,7p' 仅列出/etc/passwd文件中的第5~7行内容
  注:sed 的-i选项可以直接修改文件中的内容

  四、awk命令:
  awk也是一个数据处理工具!相较于 sed 常常作用于一整个行的处理, awk 则比较倾向于一行当中分成数个字段来处理。
  .awk语言的最基本功能是在文件或字符串中基于指定规则来分解抽取信息,也可以基于指定的规则来输出数据。
  1.命令格式
  awk[-F field-separator]'commands'input-files
  其中,[-F域分隔符]是可选的,因为awk使用空格或tab键作为缺省的域分隔符,因此如果要浏览域间有空格的文本,不必指定这个选项,如果要浏览诸如passwd文件,此文件各域以冒号作为分隔符,则必须指明-F选项,如:awk -F: 'commands' input-file。
  注:在linux系统中用环境变量IFS存储分隔符,但根据实际应用也可以改变IFS的值.
  例如:

  脚本执行结果如下:

  commands 是真正awk命令, input-files 是待处理的文件。
  iput_files可以是多于一个文件的文件列表,awk将按顺序处理列表中的每个文件。
  在awk中,文件的每一行中,由域分隔符分开的每一项称为一个域。通常,在不指名-F域分隔符的情况下,默认的域分隔符是空格或tab键。
  awk的模式和动作
  任何awk语句都由模式和动作组成(awk_pattern { actions })。
  在一个awk脚本中可能有许多语句。
  模式部分决定动作语句何时触发及触发事件。处理即对数据进行的操作。如果省略模式部分,动作将时刻保持执行状态。即省略时不对输入记录进行匹配比较就执行相应的actions。
  模式可以是任何条件语句或正则表达式等。awk_pattern可以是以下几种类型:
  1) 正则表达式用作awk_pattern: /regexp/
  例如:awk '/ ^/' input_file
  2) 布尔表达式用作awk_pattern,表达式成立时,触发相应的actions执行。
  ① 表达式中可以使用变量(如字段变量$1,$2等)和/regexp/
  ② 布尔表达式中的操作符:
  关系操作符: < > = == !=
  匹配操作符: value ~ /regexp/ 如果value匹配/regexp/,则返回真
  value !~ /regexp/ 如果value不匹配/regexp/,则返回真
  例如: awk '$2 > 10 {print "ok"}' input_file
  awk '$3 ~ /^d/ {print "ok"}' input_file
  ③ &&(与) 和 ||(或) 可以连接两个/regexp/或者布尔表达式,构成混合表达式。!(非) 可以用于布尔表达式或者/regexp/之前。
  例如: awk '($1 < 10 ) && ($2 > 10) {print "ok"}' input_file
  awk '/^d/ || /x$/ {print "ok"}' input_file
  模式包括两个特殊字段 BEGIN和END。使用BEGIN语句设置计数和打印头。BEGIN语句使用在任何文本浏览动作之前,之后文本浏览动作依据输入文本开始执行。END语句用来在awk完成文本浏览动作后打印输出文本总数和结尾状态标志。
  实际动作在大括号{ }内指明。动作大多数用来打印,但是还有些更长的代码诸如i f和循环语句及循环退出结构。如果不指明采取动作,awk将打印出所有浏览出来的记录。
  awk执行时,其浏览域标记为$1,$2...$n。这种方法称为域标识。使用这些域标识将更容易对域进行进一步处理。
  使用$1 , $3表示参照第1和第3域,注意这里用逗号做域分隔。如果希望打印一个有5个域
  的记录的所有域,不必指明$1 , $2 , $3 , $4 , $5,可使用$0,意即所有域。
  为打印一个域或所有域,使用print命令。这是一个awk动作
  awk的运行过程:
  ① 如果BEGIN 区块存在,awk执行它指定的actions。
  ②awk从输入文件中读取一行,称为一条输入记录。(如果输入文件省略,将从标准输入读取)
  ③awk将读入的记录分割成字段,将第1个字段放入变量$1中,第2个字段放入$2,以此类推。$0表示整条记录。
  ④把当前输入记录依次与每一个awk_cmd中awk_pattern比较,看是否匹配,如果相匹配,就执行对应的actions。如果不匹配,就跳过对应的actions,直到比较完所有的awk_cmd。
  ⑤当一条输入记录比较了所有的awk_cmd后,awk读取输入的下一行,继续重复步骤③和④,这个过程一直持续,直到awk读取到文件尾。
  ⑥当awk读完所有的输入行后,如果存在END,就执行相应的actions。
  入门实例:
  例1:显示/etc/passwd文件中的用户名和登录shell

  如果只是显示/etc/passwd的账户和账户对应的shell,而账户与shell之间以tab键分割

  如果只是显示/etc/passwd文件中的用户名和登录shell, 而账户与shell之间以逗号分割

  注:awk的总是输出到标准输出,如果想让awk输出到文件,可以使用重定向。
  例2:显示/etc/passwd文件中的UID大于500的所有用户的用户名和登录shell

  例3:如果只是显示/etc/passwd文件中的UID大于500的用户名和登录shell,而账户与shell之间以逗号分割,而且在所有行添加列名name,shell,在最后一行添加"blue,/bin/nosh"。

  注:
  1.awk 后面接两个单引号并加上大括号 {} 来设定想要对数据进行的处理动作
  2.awk工作流程是这样的:先执行BEGING,然后读取文件,读入有\n换行符分割的一条记录,然后将记录按指定的域分隔符划分域,填充域,$0则表示所有域,$1表示第一个域,$n表示第n个域,随后开始执行模式所对应的动作。接着开始读入第二条记录······直到所有的记录都读完,最后执行END操作。
  思考题:如何打印所有记录(以/etc/passwd中的内容为例)

  例4:搜索/etc/passwd有root关键字的所有行

  这种是pattern(模式)的使用示例,匹配了pattern(这里是root)的行才会执行action(没有指定action,默认输出每行的内容)。
  搜索支持正则表达式,例如找root开头的:

  搜索/etc/passwd有root关键字的所有行,并显示对应的shell

  这里指定了action是{print $7}
  awk内置变量
  awk有许多内置变量用来设置环境信息,下面给出了最常用的一些变量。
  FILENAMEawk浏览的文件名
  FS   设置输入域分隔符,等价于命令行-F选项
  NF   浏览记录的域个数(每一行($0)拥有的字段总数)
  NR   已读的记录数(awk所处理的是第几行数据)
  例5:统计/etc/passwd:文件名,每行的行号,每行的列数,对应的完整行内容:

  显示所有账户的记录,并带有其记录号,并在END部分打印输入文件名

  除了awk的内置变量,awk还可以自定义变量
  例6:统计/etc/passwd的账户人数

  count是自定义变量。之前的action{}里都是只有一个print,其实print只是一个语句,而action{}可以有多个语句,以;号隔开。
  这里没有初始化count,虽然默认是0,但是妥当的做法还是初始化为0:

  例7:统计某个文件夹下的文件占用的字节数

  如果以M为单位显示:

  注意:以上统计没有包括子目录中的文件。
  如果想快速查看所有文件的长度及其总和,但要排除子目录,如何实现:

  五、函数及脚本的综合应用
  
  1、shell函数:shell允许将一组命令集或语句形成一个可用块,这些块称为shell函数。
  函数由两部分组成:函数标题、函数体。
  标题是函数名。函数体是函数内的命令集合。
  标题名应该唯一;如果不是,将会混淆结果,因为脚本在查看调用脚本前将首先搜索函数调用相应的shell。
  2、定义函数的格式为:
  函数名(){
  命令1
  ...
  }
  如果愿意,可在函数名前加上关键字function,这取决于使用者。
  function函数名()
  {
  命令1
  ...
  }
  3、举例:
  例1:删除文件中的空行
  这个脚本(脚本名为del.lines)可以处理一个或多个文件。每个文件在用sed删除空行之前要先核实是否存在。
  sed的输出被导入一个文件名中含有$ $的临时文件,最后这个临时文件又被移回到原来的文件中。
  该脚本使用shift命令取得所有的文件名,用while循环逐个处理所有的文件,直至处理完
  为止。可以使用del.lines --help获得一个简短的帮助


  保存后给脚本文件增加执行权限:chmod +x del.lines
  执行脚本进行测试:

  注:
  1、basename命令能够从路径中分离出文件名。通常用于shell脚本中
  2、shift语句用于迁移位置变量,将 $1~$9 依次向左传递
  例如,若当前脚本程序获得的位置变量如下:
  $1=file1、$2=file2、$3=file3、$4=file4
  则执行一次shift命令后,各位置变量为:
  $1=file2、$2=file3、$3=file4
  再次执行shift命令后,各位置变量为:
  $1=file3、$2=file4
  例2:如果某些日志文件超过了特定的长度(如8K),那么它的内容将被倒换到另一个文件中,并清除原有文件中的内容.
  系统中的有些日志文件增长十分迅速,每天手工检查这些日志文件的长度并倒换这些日志文件(通常是给文件名加个时间戳)是非常乏味的。可以编写一个脚本来自动完成这项工作。该脚本将提交给cron进程来运行,如果某个日志文件超过了特定的长度,那么它的内容将被倒换到另一个文件中,并清除原有文件中的内容。
  该脚本中日志文件的长度限制是由变量BLOCK_LIMIT设定的。这一数字代表了块数目,在本例中是8(块大小默认为4K)。可以按照自己的需求把这一数字设得更高。所有要检查的日志文件名都保存在变量LOGS中。
  这里使用了一个for循环来依次检查每一个日志文件,使用du命令来获取日志文件长度。
  如果相应的文件长度大于BLOCK_LIMIT变量所规定的值,那么该文件将被拷贝到一个文件
  名含有时间戳的文件中,原先的文件长度将被截断为0。

  注:du 并不是显示文件的实际大小,而是显示文件所占用的 block 大小,默认linux系统分区的 block size 是4k,也就是说即使文件只有1个字节,也会占用4k.
  ls -l则是文件的实际大小。

页: [1]
查看完整版本: shell脚本(正则表达+sed+awk)