st0627 发表于 2018-9-27 09:24:04

MySQL+Heartbeat+DRBD构建高可用MySQL环境

  Distributed Replicated Block Device(DRBD)是一个用软件实现的、无共享的、服务器之间镜像块设备内容的存储复制解决方案。数据镜像:实时、透明、同步(所有服务器都成功后返回)、异步(本地服务器成功后返回)
  DBRD的核心功能通过Linux的内核实现,最接近系统的IO栈,但它不能神奇地添加上层的功能比如检测到EXT3文件系统的崩溃。
  DBRD的位置处于文件系统以下,比文件系统更加靠近操作系统内核及IO栈。
  ------《百度百科》
  实验环境:
  主 192.168.43.128 drbd-M   CentOS 5.4 64bit
  从 192.168.43.129 drbd-S    CentOS5.4 64bit
  准备工作:
  Vim /etc/hosts
  192.168.43.129 drbd-M
  192.168.43.130 drbd-S
  修改hostname名,
  主:hostname drbd-M
  从:hostname drbd-S
  确保与uname -n输出一致。PS:很重要,后面的drbd和heartbeat都要依赖于主机名来通信。
  搭建环境,采用yum安装:
  


[*]# yum install -y drbd83 kmod-drbd83
[*]
[*]# yum search heartbeat*
[*]
[*]heartbeat所需的安装包主要有以下几个:
[*]
[*]heartbeat-devel-2.1.3-3.el5.centos
[*]
[*]heartbeat-stonith-2.1.3-3.el5.centos
[*]
[*]heartbeat-gui-2.1.3-3.el5.centos
[*]
[*]heartbeat-ldirectord-2.1.3-3.el5.centos
[*]
[*]heartbeat-pils-2.1.3-3.el5.centos
[*]
[*]heartbeat-2.1.3-3.el5.centos
  

  一 DRBD的安装使用
  加载安装drbd模块:
  


[*]# modprobe drbd
  

  检查是否加载成功:
  


[*]# modprobe drbd
[*]drbd                  2772722
  

  PS:一般使用yum安装的话系统会自动加载的,此步可以跳过,如果使用源码包编译就一定要记得这一步。
  添加一块硬盘,存放数据,主从服务器的硬盘大小可以不一致,但是如果数据超过小的硬盘,后果自己考虑吧!这里添加的是一块2G的硬盘,设备名称为/dev/sdb2,注意先别急着格式化。
  开始drbd的配置:
  drbd主配置文件,很重要:
  


[*]global {
[*]}
[*]common {
[*]syncer { rate 100M; }    //设置两个节点间的同步速率;
[*]}
[*]
[*]resource db {
[*]protocol C;   //定义当数据被写入块设备时候的一致性级别(数据同步协议),A、B、C三个级别,C为数据被确认写到本地磁盘和远程磁盘后返回,确认成功
[*]startup { wfc-timeout 0; degr-wfc-timeout 120; }
[*]disk { on-io-error detach; }
[*]syncer { rate 100M; }
[*]
[*]on drbd-M {//节点名称一定要与hostname保持一致;
[*]device /dev/drbd0;   //创建的虚拟磁盘
[*]disk   /dev/sdb2;      //物理分区
[*]address 192.168.43.129:7788;    //监听端口
[*]meta-disk internal;         //局域网类型
[*]
[*]}
[*]
[*]on drbd-S {
[*]   device /dev/drbd0;
[*]   disk   /dev/sdb2;
[*]   address 192.168.43.130:7788;
[*]   meta-disk internal;
[*]   }
[*] }
  

  检测配置文件:
  


[*]#drbdadm ajust db
  

  至此drbd已经配置完毕,以上步骤在主从服务器上都要做,而且drbd的配置文件要保持一致。
  主服务器和从服务器上创建matadata:
  


[*]# drbdadm create-md all
  

  主从服务器启动drbd:
  


[*]# /etc/init.d/drbd start
  

  此时主从服务器之间开始同步数据,第一次的话时间会稍微长一些。
  将drbd-M 设为主节点
  第一次的话要使用:
  


[*]# drbdsetup /dev/drbd0 primary -o
  

  以后可以使用drbdadmprimary all命令。
  将新创建的设备格式化并且挂载:
  


[*]# mkfs.ext3 /dev/drbd0//破坏文件系统:dd if=/dev/zero bs=1M of=/dev/sdb2;sync
[*]# mount /dev/drbd0 /data/
[*]# df –H
  


  在/data目录下创建文件进行测试:
  


[*]# cd /data/
[*]# mkdir linna
[*]# touch database
[*]# ls
[*]databaselinnalost+found
  

  下面进行测试:
  drbd-M:
  将主服务器降为从:
  先卸载设备:
  


[*]# umount /data/
[*]# drbdadm secondary all
  

  PS:临时切断节点之间的连接可以使用:#drbdadm connect all
  查看系统日志/var/log/message:

  Drbd-S:
  我们再将从服务器提升为主服务器看下数据能否同步过来:
  


[*]# drbdadm primary all
  


  


[*]# mount /dev/drbd0 /data
[*]# cd /data/
  


  看,数据已经同步过来了!
  我们可以通过查看/proc/drbd来监控主从节点间之间数据同步的过程:
  


[*]#Watch-n 10 ‘cat /proc/drbd’
  

  二 MySQL+Heartbeat+DRBD构建高可用环境

  图 MySQL+Heartbeat+DRBD构建高可用MySQL
  1 Heartbeat主配置文件/etc/ha.d/ha.cf:
  


[*]# cat /etc/ha.d/ha.cf
[*]logfacility local0       //定义日志,使用syslog;
[*]keepalive 2         //定义心跳频率;
[*]deadtime 15          //如果其他节点15S内没有回应,则确认其死   亡;
[*]warntime 5         //确认一个节点连接不上5S之后将警告信息写入日志;
[*]initdead 120          //在其他节点死掉之后,系统启动前需要等待的时间,一般为deadtime的两倍;
[*]udpport 694          // 用来通信的端口;
[*]bcast eth0            // 在eth0上进行心跳测试
[*]watchdog /dev/watchdog//可选项
[*]auto_failback off      // 设置当死亡节点恢复正常之后是否重新启用;容易发生数据不一致的情况,必须项,不然后面hb_standby命令无法使用;
[*]node drbd-M
[*]node drbd-S
[*]respawn hacluster /usr/lib64/heartbeat/ipfail
  

  2 设置两个节点之间的通信密钥:
  


[*]#cat authkeys
[*]auth 3
[*]3 md5 Hello!
  

  3 定义资源:
  


[*]# cat haresources
[*]drbd-M drbddisk Filesystem::/dev/drbd0::/data::ext3 mysqld 192.168.43.20
  

  drbd-M    //主节点;
  drbddiskFilesystem::/dev/drbd0::/data::ext3 mysqld   //定义Heartbeat需要管理的资源,并且每一部分在/etc/ha.d/haresources.d下有对应的脚本;如果主节点失效,备节点将通过执行这些脚本来启用资源;如果脚本有参数可以使用“::”来进行分割;
  drbddisk管理drbd资源的脚本;
  filesystem 管理文件系统资源的脚本,后面参数定义drbd设备,挂载点,文件系统类型
  mysqld管理mysql的脚本,需要从/etc/init.d/mysqld 拷贝
  192.168.43.20//VIP,用来连接MySQL的IP,当Heartbeat启用之后会自动分配;

  图 Resource.d 下的内容
  在主从节点上启动Heartbeat
  


[*]# /etc/init.d/heartbeat start
  

  查看下资源启动情况:
  先看下主节点drbd-M的日志:

  再看下drbd-S的日志,已经处在监听等待状态:

  虚拟IP已经启动:

  Drbd和MySQL的端口已经在监听:

  主节点/data目录下:

  我们切换到drbd-S来试一下,看资源能不能切换过来:
  使用/usr/lib64/heartbeat/hb_standby命令可以来模拟主节点死掉的情况。
  


[*]2011/07/18_20:49:53 Going standby .
  


  从服务器drbd-S日志:

  再看下资源是否已经抢占过来:

  /data目录下的文件:

  PS:Heartbeat启动之前必须保证drbd服务已经启动,并且主服务器已经设置为primary并成功挂载/dev/drbd0.不然主服务器Heartbeat在启动的时候会提示找不到/dev/drbd0设备,并造成其他的资源也无法启动的情况。

  PS:心跳探测和数据复制不建议在同一个网卡上进行,本实验只是为了方便采取了这样的方式。
  dopd进程:当主从节点之间的失去连接,那么主从节点之间的数据就无法同步,就会发生从节点的数据过期的情况(数据不一致的情况)。如果此时主服务器发生宕机的情况,那么dopd进程会阻止从服务器提升为主服务器。具体实现:
  1 修改/etc/ha.d/ha.cf 文件:
  


[*]respawnhacluster /usr/lib64/heartbeat/dopd
[*]apiauthdopd gid=haclient uid=hacluster
  

  2 修改/etc/drbd.conf 文件:
  


[*]common {
[*]handlers {
[*]         outdate-peer “/usr/lib64/heartbeat/drbd-peer-outdater”;
[*]      }
[*]}
[*]resource db {
[*]disk {
[*]Fencing resource-only;
[*]   }
[*]   }
  

  3 重新加载配置文件:
  


[*]# /etc/init.d/heartbeat reload
[*]#/drbdadm adjust all
  

  MySQL+Heartbeat+DRBD方案可以单独使用,也可以在构建MySQL主从架构时实现主服务器的高可用,在此不再详细实现,有兴趣的朋友可以尝试一下(完)!
  参考文章:MySQL and DRBD Guide
  本文出自 “諸葛草廬” 博客,请务必保留此出处http://lyp0909.blog.51cto.com/508999/691435


页: [1]
查看完整版本: MySQL+Heartbeat+DRBD构建高可用MySQL环境