设为首页 收藏本站
查看: 638|回复: 0

[经验分享] nginx 整合 tomcat 做负载均衡

[复制链接]

尚未签到

发表于 2016-12-26 07:16:05 | 显示全部楼层 |阅读模式
  http://tengine.taobao.org/book/index.html
  
我的测试环境是:windows7 32bit / jdk1.6 / tomcat6.0 /nginx 1.08

1、解压tomcat ,复制成2份,修改server.xml 里的端口设置,使得两个tomcat不冲突。请确保两个tomcat可以访问到你的应用:http://localhost:8080 和 http://localhost:8081

2、修改nginx 的配置(在conf/nginx.conf):

a.在 #gzip on; 下面添加下面代码

upstream backend {
                   server localhost:8080;
                   server localhost:8081;
                   #ip_hash;  #这个好像是记录访问session的,同一session会发往同一个服务器处理,貌似这样,一开始我开启这个选项,我用浏览器狂刷新,一直访问的是第一个tomcat,后来我注释掉这行,于是访问被分散到了各tomcat中。
         }

b.修改第一个 server{} 配置中的 listen  80; 改为新的端口号,如果有必要的话
并将:

location / {
            root   html;
            index  index.html index.htm;
}

修改为:
location / {
            root   html;
            index  index.html index.htm;
           proxy_pass                  http://backend
           proxy_redirect              off;
           proxy_set_header            Host $host;
           proxy_set_header            X-Real-IP $remote_addr;
           proxy_set_header            X-Forwarded-For $proxy_add_x_forwarded_for;
           client_max_body_size        10m;
           client_body_buffer_size     128k;
           proxy_connect_timeout       90;
           proxy_send_timeout          90;
           proxy_read_timeout          90;
           proxy_buffer_size           4k;
           proxy_buffers               4 32k;
           proxy_busy_buffers_size     64k;
           proxy_temp_file_write_size  64k;
}

如此即以通过最简单方式配置完成,启动nginx 和tomcat ,即可通过  nginx 访问后端的 tomcat 集群了。

nginx 在windows下双击,窗口一闪而过,但其实可能已经开启成功,可通过查看端口来检查或者通过访问nignix来验证。
也可在 cmd 里运行  nginx.exe 来启动,这样如果启动不成功,会有提示。
nginx 的关闭,cmd 中:  nginx.exe -s stop

 

 

解决访问路径要加斜杠问题

 location ~ ^/WEB {
            #root   html;
            #index  index.html index.htm;
            proxy_pass                  http://backend;
            proxy_redirect              off;
            proxy_set_header            Host $host:89;
            proxy_set_header            X-Real-IP $remote_addr;
            proxy_set_header            X-Forwarded-For $proxy_add_x_forwarded_for;
            client_max_body_size        10m;
            client_body_buffer_size     128k;
            proxy_connect_timeout       90;
            proxy_send_timeout          90;
            proxy_read_timeout          90;
            proxy_buffer_size           4k;
            proxy_buffers               4 32k;
            proxy_busy_buffers_size     64k;
            proxy_temp_file_write_size  64k;
        if (-d $request_filename)
            {
                rewrite ^/(.*)([^/])$ http://$host/$1$2/ permanent;
            }
        }

 

 

  1、轮询(默认)
  每个请求按时间顺序逐一分配到不同的后端服务器,如果后端服务器down掉,能自动剔除。
  2、weight
指定轮询几率,weight和访问比率成正比,用于后端服务器性能不均的情况。
例如:
  upstream bakend {
server 192.168.159.10 weight=10;
server 192.168.159.11 weight=10;
}
  
3、ip_hash
每个请求按访问ip的hash结果分配,这样每个访客固定访问一个后端服务器,可以解决session的问题。
例如:
  upstream resinserver{
ip_hash;
server 192.168.159.10:8080;
server 192.168.159.11:8080;
}
  
4、fair(第三方)
按后端服务器的响应时间来分配请求,响应时间短的优先分配。
  upstream resinserver{
server server1;
server server2;
fair;
}
  
5、url_hash(第三方)
  按访问url的hash结果来分配请求,使每个url定向到同一个后端服务器,后端服务器为缓存时比较有效。
  例:在upstream中加入hash语句,server语句中不能写入weight等其他的参数,hash_method是使用的hash算法
  
upstream resinserver{
server squid1:3128;
server squid2:3128;
hash $request_uri;
hash_method crc32;
}
  tips:
  upstream resinserver{#定义负载均衡设备的Ip及设备状态
ip_hash;
server 127.0.0.1:8000 down;
server 127.0.0.1:8080 weight=2;
server 127.0.0.1:6801;
server 127.0.0.1:6802 backup;
}
  在需要使用负载均衡的server中增加
  proxy_pass http://resinserver/;
  
每个设备的状态设置为:
1.down 表示单前的server暂时不参与负载
2.weight 默认为1.weight越大,负载的权重就越大。
3.max_fails :允许请求失败的次数默认为1.当超过最大次数时,返回proxy_next_upstream 模块定义的错误
4.fail_timeout:max_fails次失败后,暂停的时间。
5.backup: 其它所有的非backup机器down或者忙的时候,请求backup机器。所以这台机器压力会最轻。
  nginx支持同时设置多组的负载均衡,用来给不用的server来使用。
  client_body_in_file_only 设置为On 可以讲client post过来的数据记录到文件中用来做debug
client_body_temp_path 设置记录文件的目录 可以设置最多3层目录
location 对URL进行匹配.可以进行重定向或者进行新的代理 负载均衡
 

 

运维网声明 1、欢迎大家加入本站运维交流群:群②:261659950 群⑤:202807635 群⑦870801961 群⑧679858003
2、本站所有主题由该帖子作者发表,该帖子作者与运维网享有帖子相关版权
3、所有作品的著作权均归原作者享有,请您和我们一样尊重他人的著作权等合法权益。如果您对作品感到满意,请购买正版
4、禁止制作、复制、发布和传播具有反动、淫秽、色情、暴力、凶杀等内容的信息,一经发现立即删除。若您因此触犯法律,一切后果自负,我们对此不承担任何责任
5、所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其内容的准确性、可靠性、正当性、安全性、合法性等负责,亦不承担任何法律责任
6、所有作品仅供您个人学习、研究或欣赏,不得用于商业或者其他用途,否则,一切后果均由您自己承担,我们对此不承担任何法律责任
7、如涉及侵犯版权等问题,请您及时通知我们,我们将立即采取措施予以解决
8、联系人Email:admin@iyunv.com 网址:www.yunweiku.com

所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其承担任何法律责任,如涉及侵犯版权等问题,请您及时通知我们,我们将立即处理,联系人Email:kefu@iyunv.com,QQ:1061981298 本贴地址:https://www.iyunv.com/thread-319316-1-1.html 上篇帖子: django+fcgi+nginx+memcache安装笔记 下篇帖子: nginx的location和proxy_pass正则
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

扫码加入运维网微信交流群X

扫码加入运维网微信交流群

扫描二维码加入运维网微信交流群,最新一手资源尽在官方微信交流群!快快加入我们吧...

扫描微信二维码查看详情

客服E-mail:kefu@iyunv.com 客服QQ:1061981298


QQ群⑦:运维网交流群⑦ QQ群⑧:运维网交流群⑧ k8s群:运维网kubernetes交流群


提醒:禁止发布任何违反国家法律、法规的言论与图片等内容;本站内容均来自个人观点与网络等信息,非本站认同之观点.


本站大部分资源是网友从网上搜集分享而来,其版权均归原作者及其网站所有,我们尊重他人的合法权益,如有内容侵犯您的合法权益,请及时与我们联系进行核实删除!



合作伙伴: 青云cloud

快速回复 返回顶部 返回列表