zgdy 发表于 2018-11-15 12:11:44

nginx慢查询

  当服务器压力比较大,跑起来很费力时候。我们经常做站点页面优化,会去查找那些页面访问次数比较多,而且比较费时。 找到那些访问次数高,并且比较耗时的地址,就行相关优化,会取得立竿见影的效果的。 下面是我在做优化时候,经常用到的一段shell 脚本。 这个也可以算是,统计web页面的slowpage 慢访问页面,象mysql slowquery 。
  以下是我的:nginx 配制
  log_formatmain'$remote_addr - $remote_user [$time_local] $request '
  '"$status" $body_bytes_sent "$http_referer" '
  '"$http_user_agent" "$http_x_forwarded_for" $request_time';
  access_log/var/log/nginx/access.logmain buffer=32k;
  从上面配置,可以看到:ip在 第一列,页面耗时是在最后一列,中间用空格分隔。 因此在awk 中,分别可以用:$1
  $NF 读取到当前值。 其中NF是常量,代表整个列数。
  下面是分析代码的shell文件,可以存为slow.sh
  #!/bin/sh
  export PATH=/usr/bin:/bin:/usr/local/bin:/usr/X11R6/bin;
  export LANG=zh_CN.GB2312;
  function usage()
  {
  echo "$0 filelogoptions";
  exit 1;
  }
  function slowlog()
  {
  #set -x;
  field=$2;
  files=$1;
  end=2;
  msg="";
  [[ $2 == '1' ]] && field=1&&end=2&&msg="总访问次数统计";
  [[ $2 == '2' ]] && field=3&&end=4&&msg="平均访问时间统计";
  echo -e "\r\n\r\n";
  echo -n "$msg";
  seq -s '#' 30 | sed -e 's/*//g';
  awk '{split($7,bbb,"?");arr]=arr]+$NF; arr2]=arr2]+1; } END{for ( i in arr ) { print i":"arr2":"arr":"arr/arr2}}' $1 | sort-t: +$field -$end -rn |grep "pages" |head -30 | sed 's/:/\t/g'
  }
  [[ $# < 2 ]] && usage;
  slowlog $1 $2;
  只需要执行:slow.sh 日志文件1或者2
  1:三十条访问最平凡的页面
  2:三十条访问最耗时的页面
  执行结果如下:
  chmod +x ./slow.sh
  chmod +x slow.sh
  ./slow.sh /var/log/nginx/
  ./slow.sh /var/log/nginx/access.log 2
  平均访问时间统计#############################
  /pages/########1.php      4       120.456 30.114
  /pages/########2.php 1       16.16116.161
  /pages/########3.php 212   1122.49 5.29475
  /pages/########4.php   6       28.6454.77417
  ..................
http://img.zemanta.com/pixy.gif?x-id=fb9edff2-9ba3-803e-bf58-b3b88cf3dcb3
  希望以上脚本对大家会有一定帮助。

页: [1]
查看完整版本: nginx慢查询