设为首页 收藏本站
查看: 1292|回复: 0

[经验分享] LVS集群及其配置实例

[复制链接]

尚未签到

发表于 2015-11-21 07:01:40 | 显示全部楼层 |阅读模式
一、集群系统(Cluster)主要解决下面几个问题:
高可靠性(HA):  
  利用集群管理软件,当主服务器故障时,备份服务器能够自动接管主服务器的工作,
  并及时切换过去,以实现对用户的不间断服务。
高性能计算(HP):
  即充分利用集群中的每一台计算机的资源,实现复杂运算的并行处理,
  通常用于科学计算领域,比如基因分析,化学分析等。
负载平衡:
  即把负载压力根据某种算法合理分配到集群中的每一台计算机上,
  以减轻主服务器的压力,降低对主服务器的硬件和软件要求。

基于Linux的集群解决方案可谓百花齐放,具体请参见 (Linux 集群大全--哪种群集适合您?)。
在实际应用中,最常见的情况是利用集群解决负载平衡问题,比如用于提供WWW服务。
在这里主要展示如何使用LVS(Linux Virtial Server)来实现实用的WWW负载平衡集群系统。

二、LVS简介
LVS是章文嵩博士发起和领导的优秀的集群解决方案,
许多商业的集群产品,比如RedHat的Piranha,TurboLinux公司的Turbo Cluster等,都是基于LVS的核心代码的。
在现实的应用中,LVS得到了大量的部署,请参考 http://www.linuxvirtualserver.org/deployment.html
关于Linux LVS的工作原理和更详细的信息,请参考 http://www.linuxvirtualserver.org。

三、LVS配置实例
通过Linux LVS,实现WWW,Telnet服务的负载平衡。
这里实现Telnet集群服务仅为了测试上的方便。

LVS有三种负载平衡方式:
  NAT(Network Address Translation),
  DR(Direct Routing),
  IP Tunneling。

其中,最为常用的是DR方式,因此这里只说明DR(Direct Routing)方式的LVS负载平衡。
DSC0000.jpg
3.1. 网络拓扑结构。  
如图1所示,为测试方便,4台机器处于同一网段内,通过一交换机或者集线器相连。
实际的应用中,最好能够将虚拟服务器vs1和真实服务器rs1, rs2置于于不同的网段上,
即提高了性能,也加强了整个集群系统的安全性。


3.2. 服务器的软硬件配置
首先说明,虽然本文的测试环境中用的是3台相同配置的服务器,但LVS并不要求集群中的服务器规格划一,
相反,可以根据服务器的不同配置和负载情况,调整负载分配策略,充分利用集群环境中的每一台服务器。

这3台服务器中,vs1作为虚拟服务器(即负载平衡服务器),
负责将用户的访问请求转发到集群内部的rs1,rs2,然后由rs1,rs2分别处理。

client为客户端测试机器,可以为任意操作系统。

4台服务器的操作系统和网络配置分别为:
vs1: RedHat 6.2, Kernel 2.2.19
vs1: eth0 192.168.0.1
vs1: eth0:101 192.168.0.101

rs1: RedHat 6.2, Kernel 2.2.14
rs1: eth0 192.168.0.3
rs1: dummy0 192.168.0.101

rs2: RedHat 6.2, Kernel 2.2.14
rs2: eth0 192.168.0.4
rs2: dummy0 192.168.0.101


client: Windows 2000
client: eth0 192.168.0.200


其中,192.168.0.101是允许用户访问的IP。

3.3. 虚拟服务器的集群配置
大部分的集群配置工作都在虚拟服务器vs1上面,需要下面的几个步骤:

在配置之前,先检查内核是否打了LVS补丁:
如果你使用的是RedHat自带的内核或者从RedHat下载的内核版本,已经预先打好了LVS的补丁。
这可以通过查看
/usr/src/linux/net/
​目录下有没有几个ipvs开头的文件来判断:
如果有,则说明已经打过补丁。

Step1. 重新编译内核。
首先,下载最新的Linux内核,版本号为2.2.19,
下载地址为:http://www.kernel.org/,
解压缩后置于/usr/src/linux目录下。

其次需要下载LVS的内核补丁,地址为:http://www.linuxvirtualserver.org/software/ipvs-1.0.6-2.2.19.tar.gz。
这里注意,如果你用的Linux内核不是2.2.19版本的,请下载相应版本的LVS内核补丁。
将ipvs-1.0.6-2.2.19.tar.gz 解压缩后置于/usr/src/linux目录下。

然后,对内核打补丁,如下操作:
[iyunv@vs2 /root]# cd /usr/src/linux
[iyunv@vs2 linux]# patch -p1 < ipvs-1.0.6-2.2.19/ipvs-1.0.6-2.2.19.patch

下面就是重新配置和编译Linux的内核。
特别注意以下选项:
1 Code maturity level options--->
  *           
  • Prompt for development and/or incomplete code/drivers


    2 Networking 部分:
      
  • Kernel/User netlink socket
      
  • Routing messages
      <*> Netlink device emulation
    *   
  • Network firewalls
      
  • Socket Filtering
      <*> Unix domain sockets
    *   
  • TCP/IP networking
      
  • IP: multicasting
      
  • IP: advanced router
      [ ] IP: policy routing
      [ ] IP: equal cost multipath
      [ ] IP: use TOS value as routing key
      [ ] IP: verbose route monitoring
      [ ] IP: large routing tables
      [ ] IP: kernel level autoconfiguration
    *   
  • IP: firewalling
      [ ] IP: firewall packet netlink device
    *   
  • IP: transparent proxy support
    *   
  • IP: masquerading
      --- Protocol-specific masquerading support will be built as modules.
    *   
  • IP: ICMP masquerading
      --- Protocol-specific masquerading support will be built as modules.
    *   
  • IP: masquerading special modules support
    *   <M> IP: ipautofw masq support (EXPERIMENTAL)(NEW)
    *   <M> IP: ipportfw masq support (EXPERIMENTAL)(NEW)
    *   <M> IP: ip fwmark masq-forwarding support (EXPERIMENTAL)(NEW)
    *   
  • IP: masquerading virtual server support (EXPERIMENTAL)(NEW)
      
  •   IP Virtual Server debugging (NEW)  <--最好选择此项,以便观察LVS的调试信息
    *   (12) IP masquerading VS table size (the Nth power of 2) (NEW)
    *   <M> IPVS: round-robin scheduling (NEW)
    *   <M> IPVS: weighted round-robin scheduling (NEW)
    *   <M> IPVS: least-connection scheduling (NEW)
    *   <M> IPVS: weighted least-connection scheduling (NEW)
    *   <M> IPVS: locality-based least-connection scheduling (NEW)
    *   <M> IPVS: locality-based least-connection with replication scheduling (NEW)
    *   
  • IP: optimize as router not host
    *   <M> IP: tunneling
      <M> IP: GRE tunnels over IP
      
  • IP: broadcast GRE over IP
      
  • IP: multicast routing
      
  • IP: PIM-SM version 1 support
      
  • IP: PIM-SM version 2 support
    *   
  • IP: aliasing support
      [ ] IP: ARP daemon support (EXPERIMENTAL)
    *   
  • IP: TCP syncookie support (not enabled per default)
      --- (it is safe to leave these untouched)
      < > IP: Reverse ARP
      
  • IP: Allow large windows (not recommended if <16Mb of memory)
      < > The IPv6 protocol (EXPERIMENTAL)


    上面,带*号的为必选项。

    然后就是常规的编译内核过程,不再赘述,请参考 编译 Linux 教程

    step2. 编写LVS配置文件,
    ​实例中的配置文件如下:
    #lvs_dr.conf (C) Joseph Mack mack@ncifcrf.gov
    LVS_TYPE=VS_DR
    INITIAL_STATE=on
    VIP=eth0:101 192.168.0.101 255.255.255.0 192.168.0.0
    DIRECTOR_INSIDEIP=eth0 192.168.0.1 192.168.0.0 255.255.255.0 192.168.0.255
    SERVICE=t telnet rr rs1:telnet rs2:telnet
    SERVICE=t www rr rs1:www rs2:www
    SERVER_VIP_DEVICE=dummy0
    SERVER_NET_DEVICE=eth0
    #----------end lvs_dr.conf------------------------------------
    将该文件置于/etc/lvs目录下。

    step3. 使用LVS的配置脚本产生lvs.conf文件。
    该配置脚本可以从http://www.linuxvirtualserver.org/Joseph.Mack/configure-lvs_0.8.tar.gz 单独下载,
    在ipvs-1.0.6-2.2.19.tar.gz包中也有包含。
    脚本configure的使用方法:
    [iyunv@vs2 lvs]# configure lvs.conf
    这样会产生几个配置文件,这里我们只使用其中的rc.lvs_dr文件。

    step4. 修改/etc/rc.d/init.d/rc.local,
    ​增加如下几行:
    echo 1 > /proc/sys/net/ipv4/ip_forward
    echo 1 > /proc/sys/net/ipv4/ip_always_defrag
    # 显示最多调试信息
    echo 10 > /proc/sys/net/ipv4/vs/debug_level

    step5. 配置NFS服务。
    这一步仅仅是为了方便管理,不是必须的步骤。
    假设配置文件lvs.conf文件放在/etc/lvs目录下,则/etc/exports文件的内容为:
    /etc/lvs ro(rs1,rs2)

    然后使用exportfs命令输出这个目录:
    [iyunv@vs2 lvs]# exportfs

    如果遇到什么麻烦,可以尝试:
    [iyunv@vs2 lvs]# /etc/rc.d/init.d/nfs restart
    [iyunv@vs2 lvs]# exportfs

    这样,各个real server可以通过NFS获得rc.lvs_dr文件,
    方便了集群的配置:你每次修改lvs.conf中的配置选项,都可以即可反映在rs1,rs2的相应目录里。

    step6. 修改/etc/syslogd.conf,
    ​增加如下一行:
    kern.*           /var/log/kernel_log
    这样,LVS的一些调试信息就会写入/var/log/kernel_log文件中.

    3.4 real server的配置
    real server的配置相对简单,主要是是以下几点:
    1. 配置telnet和WWW服务。
       telnet服务没有需要特别注意的事项,
       但是对于www服务,需要修改httpd.conf文件,使得apache在虚拟服务器的ip地址上监听,
       如下所示: Listen 192.168.0.101:80

    2. 关闭real server上dummy0的arp请求响应能力。
       这是必须的,具体原因请参见ARP problem in LVS/TUN and LVS/DR(http://www.linuxvirtualserver.org/arp.html)。
       关闭dummy0的arp响应的方式有多种,比较简单地方法是,修改/etc/rc.d/rc.local文件,增加如下几行:
    echo 1 > /proc/sys/net/ipv4/conf/all/hidden
    ifconfig dummy0 up
    ifconfig dummy0 192.168.0.101 netmask 255.255.255.0 broadcast 192.168.0.0 up
    echo 1 > /proc/sys/net/ipv4/conf/dummy0/hidden

    3. 再次修改/etc/rc.d/rc.local,
    增加如下一行:(可以和步骤2合并)
    echo 1 > /proc/sys/net/ipv4/ip_forward


    四、LVS的测试
    好了,经过了上面的配置步骤,现在可以测试LVS了,
    步骤如下:
    1. 分别在vs1,rs1,rs2上运行/etc/lvs/rc.lvs_dr。
    注意,rs1,rs2上面的/etc/lvs目录是vs2输出的。
    如果您的NFS配置没有成功,也可以把vs1上的/etc/lvs/rc.lvs_dr复制到rs1,rs2上,然后分别运行。

    2. 确保rs1,rs2上面的apache已经启动并且允许telnet。

    3. 然后从client运行telnet 192.168.0.101,
    如果登录后看到如下输出就说明集群已经开始工作了:(假设以guest用户身份登录)
    [guest@rs1 guest]$-----------说明已经登录到服务器rs1上。

    再开启一个telnet窗口,登录后会发现系统提示变为:
    [guest@rs2 guest]$-----------说明已经登录到服务器rs2上。

    然后在vs2上运行如下命令:
    [iyunv@vs2 /root]ipvsadm

    运行结果应该为:
    IP Virtual Server version 1.0.6 (size=4096)
    Prot LocalAddress:Port Scheduler Flags
    -> RemoteAddress:Port             Forward Weight ActiveConn InActConn
    TCP  192.168.0.101:telnet rr
    -> rs2:telnet                     Route   1      1          0
    -> rs1:telnet                     Route   1      1          0
    TCP  192.168.0.101:www rr
    -> rs2:www                        Route   1      0          0
    -> rs1:www                        Route   1      0          0
    至此已经验证telnet的LVS正常。

    4. 然后测试一下WWW是否正常:
    用你的浏览器查看http://192.168.0.101/是否有什么变化?
    为了更明确的区别响应来自那个real server,可以在rs1,rs2上面分别放置如下的测试页面(test.html):
    <HTML>
    <BODY>
    我是real server #1 or #2
    </BODY>
    </HTML>

    然后刷新几次页面(http://192.168.0.101/test.html),
    如果你看到“我是real server #1”和“我是real server #2”交替出现,说明www的LVS系统已经正常工作了。

    但是由于Internet Explore 或者Netscape本身的缓存机制,你也许总是只能看到其中的一个。
    不过通过ipvsadm还是可以看出,页面请求已经分配到两个real server上了,
    如下所示:
    IP Virtual Server version 1.0.6 (size=4096)
    Prot LocalAddress:Port Scheduler Flags
    -> RemoteAddress:Port             Forward Weight ActiveConn InActConn
    TCP  192.168.0.101:telnet rr
    -> rs2:telnet                     Route   1      0          0
    -> rs1:telnet                     Route   1      0          0
    TCP  192.168.0.101:www rr
    -> rs2:www                        Route   1      0          5
    -> rs1:www                        Route   1      0          4

    或者,可以采用linux的lynx作为测试客户端,效果更好一些。
    如下运行命令: [iyunv@client /root]while true; do lynx -dump http://10.64.1.56/test.html; sleep 1; done

    这样,每隔1秒钟“我是realserver #1”和“我是realserver #2”就交替出现一次,
    清楚地表明响应分别来自两个不同的real server。

    五、调试技巧
    如果您的运气不好,在配置LVS的过程中也许会遇到一些困难,下面的技巧或许有帮助:
    1. 首先确定网络硬件没有问题,尤其是网线,ping工具就足够了。
    2. 使用netstat查看端口的活动情况。
    3. 使用tcpdump查看数据包的流动情况。
    4. 查看/var/log/kernel_log文件。

  • 运维网声明 1、欢迎大家加入本站运维交流群:群②:261659950 群⑤:202807635 群⑦870801961 群⑧679858003
    2、本站所有主题由该帖子作者发表,该帖子作者与运维网享有帖子相关版权
    3、所有作品的著作权均归原作者享有,请您和我们一样尊重他人的著作权等合法权益。如果您对作品感到满意,请购买正版
    4、禁止制作、复制、发布和传播具有反动、淫秽、色情、暴力、凶杀等内容的信息,一经发现立即删除。若您因此触犯法律,一切后果自负,我们对此不承担任何责任
    5、所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其内容的准确性、可靠性、正当性、安全性、合法性等负责,亦不承担任何法律责任
    6、所有作品仅供您个人学习、研究或欣赏,不得用于商业或者其他用途,否则,一切后果均由您自己承担,我们对此不承担任何法律责任
    7、如涉及侵犯版权等问题,请您及时通知我们,我们将立即采取措施予以解决
    8、联系人Email:admin@iyunv.com 网址:www.yunweiku.com

    所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其承担任何法律责任,如涉及侵犯版权等问题,请您及时通知我们,我们将立即处理,联系人Email:kefu@iyunv.com,QQ:1061981298 本贴地址:https://www.iyunv.com/thread-141660-1-1.html 上篇帖子: LVS两种实现方式 下篇帖子: 64位CentOS release 5.5下cacti监控LVS
    您需要登录后才可以回帖 登录 | 立即注册

    本版积分规则

    扫码加入运维网微信交流群X

    扫码加入运维网微信交流群

    扫描二维码加入运维网微信交流群,最新一手资源尽在官方微信交流群!快快加入我们吧...

    扫描微信二维码查看详情

    客服E-mail:kefu@iyunv.com 客服QQ:1061981298


    QQ群⑦:运维网交流群⑦ QQ群⑧:运维网交流群⑧ k8s群:运维网kubernetes交流群


    提醒:禁止发布任何违反国家法律、法规的言论与图片等内容;本站内容均来自个人观点与网络等信息,非本站认同之观点.


    本站大部分资源是网友从网上搜集分享而来,其版权均归原作者及其网站所有,我们尊重他人的合法权益,如有内容侵犯您的合法权益,请及时与我们联系进行核实删除!



    合作伙伴: 青云cloud

    快速回复 返回顶部 返回列表