设为首页 收藏本站
查看: 837|回复: 0

[经验分享] LB(load balance)负载均衡集群之LVS

[复制链接]

尚未签到

发表于 2019-1-3 10:36:57 | 显示全部楼层 |阅读模式
  LBC(load balance cluster)负载均衡集群
  一、LB介绍
  原理:当用户的请求过来,会直接发送到分发器上(Director Server),然后它把用户的请求根据预先设置好的算法,智能均衡的分发到后端真是的服务器上(real server)。如果不同的机器,可能请求的数据不一样,为了避免这样的情况发生,使用共享存储,保证所有的用户请求的数据是一样的。
  
常用的负载均衡开源软件有: lvs,keepalived,haproxy,nginx,apache,heartbeat
  商业的硬件负载设备: F5,Netscaler,Radware,A10

  

  二、LVS的3种工作方式8种类调度算法
  LVS是linux virtual server的简写,是一个虚拟的服务器集群系统,LVS是一个可以在unix/linux平台下实现负载均衡集群的开源项目,LVS架构从逻辑上分为调度层(Director Server)、集群层(real server)和共享存储
  
  1、LVS有下面三种工作模式:
  (1)NAT模式
  调度器将请求的目标ip即vip地址修改为Real server的ip,返回的数据也经过调度器,调度器再把源地址修改为vip

  (2)TUN模式

  调度器将请求来的数据包封装加密通过ip隧道转发到后端的real server上,而real server会直接把数据返回给客户端,而不再经过调度器
  (3)DR模式
  调度器将请求来的数据包的目标mac地址修改为real server的mac地址,返回的时候也不经过调度器,直接返回给客户端

先说明几个ip的定义:
dip(director ip)分发器ip,NAT模式必须有公网IP
vip(virtual ip)虚拟IP,用在TUN和DR模式中,需要同时配置再分发器和后端的真实服务器上
rip(Real ip)后端真是IP,在TUN和DR模式中,rip为公网ip
  

  2、要想把用户的请求调度给后端的RS,是需要经过调度算法来实现,LVS常用以下几种调度算法:
  固定调度算法:rr,wrr,dh,sh
  动态调度算法:wlc,lc,lblc,lblcr
  

  (1)rr 轮叫调度(Round Robin),这种算法是最简单的,不管RS的后端配置和处理能力,均衡的分发下去
  

  (2)wrr 加权轮叫(Weight Round Robin),比上面的算法多了一个权重的概念,可以给RS设置权重,权重越高,那么分发的请求数越多,权重取值范围0-100
  

  (3)LC最少链接(least connection),这个算法会根据后端的RS的连接数来决定把请求发给谁,比如RS1连接数比RS2连接数少,那么请求优先发给RS1
  

  (4)WLC 加权最少链接(Weighted Least Connecttion)比最少链接算法多了一个权重
  

  (5)Dh 目的地址哈希调度(destination hashing)以目的地址为关键字查找一个静态hash表来获得需要的RS
  (6)SH 源地址哈希调度(source hashing)以源地址为关键字查找一个静态hash表来获得需要的RS
  

  (7)lblc 最小连接数调度(least-connection),IPVS表存储了所有活动的连接。LB会比较将连接请求发送到当前连接最少的RS
  

  (8)Lblcr  带复制的基于本地的最少连接:是LBLC算法的改进
  

  三、安装和配置LVS/NAT模式
  1、配置网络
  三台服务器一台作为director, 两台作为real server
Director 有一个外网ip (192.168.101.230) 和一个内网ip(192.168.104.230), 两个real server上只有内网ip(192.168.104.231)和(192.168.104.232) 并且需要把两个real server的内网网关设置为director的内网ip(192.168.104.230)
rs回去的数据包经过dir,需要设置rs1和rs2的网关为的vip192.168.101.230


[root@rs1 ~]# vim /etc/sysconfig/network-scripts/ifcfg-eth0
GATEWAY=192.168.104.230
[root@rs1 ~]# ifdown eth0;ifup eth0
同样方法添加rs2的网关


  这里的NAT自定义的子网,192.168.104.0/24,三台服务器的104网段IP互通,与101.230也可以ping通
  下图为vmware的设置,网关是192.168.104.1

  
  2、更改hostnanme(这其实只是临时更改的方法)
  dir 192.168.101.230/192.168.104.230
  [root@daixuan ~]# hostname dir
  [root@daixuan ~]# bash
  [root@dir ~]#
  相同方法更改rs1和rs2
  rs1 192.168.104.231
  rs2 192.168.104.232
  

  3、Director上安装ipvsadm,并写防火墙规则

  
  [root@dir ~]# yum install -y  ipvsadm
  
  [root@dir ~]# vim /usr/local/sbin/lvs_nat.sh
  #!/bin/bash
  #Director服务器上开启路由转发功能
  echo 1 > /proc/sys/net/ipv4/ip_forward
  # 关闭icmp的重定向
  echo 0 > /proc/sys/net/ipv4/conf/all/send_redirects
  echo 0 > /proc/sys/net/ipv4/conf/default/send_redirects
  echo 0 > /proc/sys/net/ipv4/conf/eth0/send_redirects
  echo 0 > /proc/sys/net/ipv4/conf/eth1/send_redirects
  # director 设置nat防火墙
  iptables -t nat -F
  iptables -t nat -X
  iptables -t nat -A POSTROUTING -s 192.168.104.0/24  -j MASQUERADE
  # director设置ipvsadm
  IPVSADM='/sbin/ipvsadm'
  $IPVSADM -C
  $IPVSADM -A -t 192.168.101.230:80 -s rr 300
  $IPVSADM -a -t 192.168.101.230:80 -r 192.168.104.231:80 -m -w 1
  $IPVSADM -a -t 192.168.101.230:80 -r 192.168.104.232:80 -m -w 1
  直接运行这个脚本就可以完成lvs/nat的配置了:
  
  [root@dir ~]# sh /usr/local/sbin/lvs_nat.sh
  查看防火墙的路由规则:
  [root@dir ~]# ipvsadm -ln
  IP Virtual Server version 1.2.1 (size=4096)
  Prot LocalAddress:Port Scheduler Flags
  -> RemoteAddress:Port           Forward Weight ActiveConn InActConn
  TCP  192.168.101.230:80 rr
  -> 192.168.104.231:80           Masq    1      0          0
  -> 192.168.104.232:80           Masq    1      0          0
  

  4、两个real server 上都安装nginx:
  [root@rs1 ~]# yum install -y nginx
  [root@rs1 ~]# /etc/init.d/nginx start
  

  5、通过浏览器测试两台机器上的web内容,为了区分开,我们可以把nginx的默认页修改一下:
rs1上: echo "rs1rs1" >/usr/share/nginx/html/index.html
rs2上: echo "rs2rs2" >/usr/share/nginx/html/index.html
  

  6、测试
  [root@dir ~]# curl 192.168.101.230
  rs1rs1
  [root@dir ~]# curl 192.168.101.230
  rs2rs2
  [root@dir ~]# curl 192.168.101.230
  rs1rs1
  [root@dir ~]# curl 192.168.101.230
  rs2rs2
  浏览器访问,刷新,rs1rs1和rs2rs2轮流切换
  

  7、更改权重,测试结果是两次rs1,一次rs2
  

  [root@dir ~]# vim /usr/local/sbin/lvs_nat.sh
  
  $IPVSADM -A -t 192.168.101.230:80 -s wrr
  $IPVSADM -a -t 192.168.101.230:80 -r 192.168.104.231:80 -m -w 2
  $IPVSADM -a -t 192.168.101.230:80 -r 192.168.104.232:80 -m -w 1
  [root@dir ~]# sh !$
  sh /usr/local/sbin/lvs_nat.sh
  [root@dir ~]# curl 192.168.101.230
  rs1rs1
  [root@dir ~]# curl 192.168.101.230
  rs1rs1
  [root@dir ~]# curl 192.168.101.230
  rs2rs2
  [root@dir ~]# curl 192.168.101.230
  rs1rs1
  [root@dir ~]# curl 192.168.101.230
  rs1rs1
  [root@dir ~]# curl 192.168.101.230
  rs2rs2
  

  四、安装和配置LVS/DR模式
  1、首先清空ipvsadm规则和iptables的规则
  [root@dir ~]# ipvsadm -C
  [root@dir ~]# iptables -t nat -F
  把指定的网关修改回来

  

  2、配置网络
  每个rs都必须要有一个独立的公网IP,因为处理结果直接通过公网返回到用户客户端,不经过dir
  另外需要添加虚拟vip,作为用户访问的ip,共计4个公网IP

  三台机器:
director(192.168.101.230, vip: 192.168.101.100)
real server1(rip: 192.168. 101.108, vip lo:0: 192.168.101.100)
real server2(rip: 192.168.101.109, vip lo:0: 192.168.101.100)
  

  3、编辑脚本
  dir server
  [root@dir ~]# vim /usr/local/sbin/lvs_dr.sh
  #! /bin/bash
  echo 1 > /proc/sys/net/ipv4/ip_forward
  ipv=/sbin/ipvsadm
  vip=192.168.101.100
  rs1=192.168.101.108
  rs2=192.168.101.109
  ifconfig eth0:0 $vip broadcast $vip netmask 255.255.255.255 up
  route add -host $vip dev eth0:0
  $ipv -C
  $ipv -A -t $vip:80 -s rr
  $ipv -a -t $vip:80 -r $rs1:80 -g -w 1
  $ipv -a -t $vip:80 -r $rs2:80 -g -w 1
  执行脚本:
  [root@dir ~]# sh /usr/local/sbin/lvs_dr.sh
  查看转发路由:
  [root@dir ~]# ipvsadm -ln
  IP Virtual Server version 1.2.1 (size=4096)
  Prot LocalAddress:Port Scheduler Flags
  -> RemoteAddress:Port           Forward Weight ActiveConn InActConn
  TCP  192.168.101.100:80 rr
  -> 192.168.101.108:80           Route   1      0          0
  -> 192.168.101.109:80           Route   1      0          0
  

  5、rs1 server上编辑脚本
  [root@rs1 ~]# vim /usr/local/sbin/lvs_dr_rs.sh
  #! /bin/bash
  vip=192.168.101.100
  ifconfig lo:0 $vip broadcast $vip netmask 255.255.255.255 up
  route add -host $vip lo:0
  echo "1" >/proc/sys/net/ipv4/conf/lo/arp_ignore
  echo "2" >/proc/sys/net/ipv4/conf/lo/arp_announce
  echo "1" >/proc/sys/net/ipv4/conf/all/arp_ignore
  echo "2" >/proc/sys/net/ipv4/conf/all/arp_announce
  [root@rs1 ~]# sh !$
  sh /usr/local/sbin/lvs_dr_rs.sh
  相同方法添加rs2上的脚本并执行
  

  6、使用ifconfig查看rs1和rs2都已经正常监听192.168.101.100
  [root@rs1 ~]# ifconfig
  lo:0      Link encap:Local Loopback
  inet addr:192.168.101.100  Mask:255.255.255.255
  UP LOOPBACK RUNNING  MTU:65536  Metric:1
  

  4、测试
  在第四台linux服务器上测试curl 192.168.101.100 结果为切换显示rs1rs1和rs2rs2
  实现了DR的负载均衡
  

  

  五、LVS/DR + keepalived配置
  如果服务器上rs1上面nginx服务停止了,则用户访问的结果如下,curl: (7) couldn't connect to host这肯定不行,那怎么解决呢?
[root@daixuan ~]# curl 192.168.101.100
curl: (7) couldn't connect to host
rs2rs2


  需要有一种机制用来检测real server的状态,这就是keepalived。它的作用除了可以检测rs状态外,还可以检测备用director的状态,也就是说keepalived可以实现ha高可用集群的功能,当然了也需要一台备用director,共四台机器dir,dir2,rs1,rs2
  dir 192.168.101.230
  dir2 192.168.101.232
  rs1 192.168.101.8
  rs2 192.168.101.9
  

  1、注意:前面虽然我们已经配置过一些操作,但是下面我们使用keepaliave操作和之前的操作是有些冲突的,所以若是之前配置过DR,请首先做如下操作:dr上执行:
$ipvsadm -C
ifconfig eth0:0  down

  

  2、dir上安装keepalived
  
  [root@dir ~]# yum install -y keepalived
  
  [root@dir2 ~]# yum install -y keepalived
  

  [root@dir ~]# > /etc/keepalived/keepalived.conf
  [root@dir ~]# vim /etc/keepalived/keepalived.conf
  vrrp_instance VI_1 {
  state MASTER   #备用服务器上为 BACKUP
  interface eth0
  virtual_router_id 51
  priority 100  #备用服务器上为90
  advert_int 1
  authentication {
  auth_type PASS
  auth_pass 1111
  }
  virtual_ipaddress {
  192.168.101.100
  }
  }
  virtual_server 192.168.101.100 80 {
  delay_loop 6                  #(每隔10秒查询realserver状态)
  lb_algo wlc                  #(lvs 算法)
  lb_kind DR                  #(Direct Route)
  persistence_timeout 60        #(同一IP的连接60秒内被分配到同一台realserver)
  protocol TCP                #(用TCP协议检查realserver状态)
  

  real_server 192.168.101.108 80 {
  weight 100               #(权重)
  TCP_CHECK {
  connect_timeout 10       #(10秒无响应超时)
  nb_get_retry 3
  delay_before_retry 3
  connect_port 80
  }
  }
  real_server 192.168.101.109 80 {
  weight 100
  TCP_CHECK {
  connect_timeout 10
  nb_get_retry 3
  delay_before_retry 3
  connect_port 80
  }
  }
  }
  以上为主director的配置文件,拷贝到从服务器上
  [root@dir ~]# scp /etc/keepalived/keepalived.conf 192.168.101.232:/etc/keepalived/keepalived.confstate
  从director服务器上的配置文件只需要修改
  MASTER -> state BACKUP
priority 100 -> priority 90

  

  3、配置完keepalived后,需要开启端口转发(主从都要做):
  [root@dir1 ~]# echo 1 > /proc/sys/net/ipv4/ip_forward
  [root@dir2 ~]# echo 1 > /proc/sys/net/ipv4/ip_forward
  

  4、两个rs上执行 /usr/local/sbin/lvs_dr_rs.sh 脚本
  [root@rs1 ~]# sh /usr/local/sbin/lvs_dr_rs.sh
  [root@rs2 ~]# sh /usr/local/sbin/lvs_dr_rs.sh
  

  5、两个director上启动keepalived服务(先主后从):

  [root@dir ~]# /etc/init.d/keepalived start
  [root@dir2 ~]# /etc/init.d/keepalived start
  注意:启动keepalived服务会自动生成vip和ipvsadm规则,不需要再去执行上面提到的/usr/local/sbin/lvs_dr.sh 脚本

  

  6、查看转发是否成功,ipvsadm -ln查看到rs1和rs2服务器地址,如果有,说明成功
  [root@dir ~]# ipvsadm -ln
  IP Virtual Server version 1.2.1 (size=4096)
  Prot LocalAddress:Port Scheduler Flags
  -> RemoteAddress:Port           Forward Weight ActiveConn InActConn
  TCP  192.168.101.100:80 wlc persistent 60
    -> 192.168.101.108:80           Route   100    0          0
    -> 192.168.101.109:80           Route   100    0          1
  

  7、测试keepalived
  在第五台linux机器上curl 192.168.101.100 一次结果rs1rs1一次rs2r2轮流切换
  

  rs1上的nginx服务stop,则在测试linux机器上访问的结果全部为rs2rs2,vip自动切换real server
  [root@rs1 ~]# service nginx stop
  停止 nginx:                        [确定]
  [root@test ~]# curl 192.168.101.100
  rs2rs2
  [root@test ~]# curl 192.168.101.100
  rs2rs2
  

  dir1主上停止keepalived服务,则原来主服务器监听的vip192.168.101.100自动切换到从服务器上监听,且vip可以正常访问,主服务的keepalived重新启动后,自动切换到dir1上面,切换回去,实现了ha的高可用功能
  [root@dir ~]# ip address
  inet 192.168.101.100/32 scope global eth0
  [root@dir ~]# /etc/init.d/keepalived stop
  [root@dir ~]# ip address
  无vip192.168.101.100的监听
  [root@dir2 ~]# ip address   已经切换到从上面
  link/ether 00:0c:29:cf:72:3e brd ff:ff:ff:ff:ff:ff
  inet 192.168.101.232/24 brd 192.168.101.255 scope global eth0
  inet 192.168.101.100/32 scope global eth0
  

  另外只有一个公网IP也可以做LVS/DR,可参考:
  http://storysky.blog.运维网.com/628458/338726
  





运维网声明 1、欢迎大家加入本站运维交流群:群②:261659950 群⑤:202807635 群⑦870801961 群⑧679858003
2、本站所有主题由该帖子作者发表,该帖子作者与运维网享有帖子相关版权
3、所有作品的著作权均归原作者享有,请您和我们一样尊重他人的著作权等合法权益。如果您对作品感到满意,请购买正版
4、禁止制作、复制、发布和传播具有反动、淫秽、色情、暴力、凶杀等内容的信息,一经发现立即删除。若您因此触犯法律,一切后果自负,我们对此不承担任何责任
5、所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其内容的准确性、可靠性、正当性、安全性、合法性等负责,亦不承担任何法律责任
6、所有作品仅供您个人学习、研究或欣赏,不得用于商业或者其他用途,否则,一切后果均由您自己承担,我们对此不承担任何法律责任
7、如涉及侵犯版权等问题,请您及时通知我们,我们将立即采取措施予以解决
8、联系人Email:admin@iyunv.com 网址:www.yunweiku.com

所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其承担任何法律责任,如涉及侵犯版权等问题,请您及时通知我们,我们将立即处理,联系人Email:kefu@iyunv.com,QQ:1061981298 本贴地址:https://www.iyunv.com/thread-658905-1-1.html 上篇帖子: LVS负载均衡之工作原理说明(原理篇) 下篇帖子: LVS中的DH(目的地址哈希调度)调度算法用例
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

扫码加入运维网微信交流群X

扫码加入运维网微信交流群

扫描二维码加入运维网微信交流群,最新一手资源尽在官方微信交流群!快快加入我们吧...

扫描微信二维码查看详情

客服E-mail:kefu@iyunv.com 客服QQ:1061981298


QQ群⑦:运维网交流群⑦ QQ群⑧:运维网交流群⑧ k8s群:运维网kubernetes交流群


提醒:禁止发布任何违反国家法律、法规的言论与图片等内容;本站内容均来自个人观点与网络等信息,非本站认同之观点.


本站大部分资源是网友从网上搜集分享而来,其版权均归原作者及其网站所有,我们尊重他人的合法权益,如有内容侵犯您的合法权益,请及时与我们联系进行核实删除!



合作伙伴: 青云cloud

快速回复 返回顶部 返回列表