设为首页 收藏本站
查看: 1775|回复: 0

[经验分享] MySQL高可用集群之MySQL-MMM

[复制链接]

尚未签到

发表于 2018-9-27 09:37:39 | 显示全部楼层 |阅读模式
  一、环境简述
  1、工作逻辑图
DSC0000.jpg

  2、MySQL-MMM优缺点
  优点:高可用性,扩展性好,出现故障自动切换,对于主主同步,在同一时间只提供一台数据库写操作,保证的数据的一致性。
  缺点:Monitor节点是单点,可以结合Keepalived实现高可用。
  3、MySQL-MMM工作原理
  MMM(Master-Master replication managerfor Mysql,Mysql主主复制管理器)是一套灵活的脚本程序,基于perl实现,用来对mysql replication进行监控和故障迁移,并能管理mysql Master-Master复制的配置(同一时间只有一个节点是可写的)。
  mmm_mond:监控进程,负责所有的监控工作,决定和处理所有节点角色活动。此脚本需要在监管机上运行。
  mmm_agentd:运行在每个mysql服务器上的代理进程,完成监控的探针工作和执行简单的远端服务设置。此脚本需要在被监管机上运行。
  mmm_control:一个简单的脚本,提供管理mmm_mond进程的命令。
  mysql-mmm的监管端会提供多个虚拟IP(VIP),包括一个可写VIP,多个可读VIP,通过监管的管理,这些IP会绑定在可用mysql之上,当某一台mysql宕机时,监管会将VIP迁移至其他mysql。
  在整个监管过程中,需要在mysql中添加相关授权用户,以便让mysql可以支持监理机的维护。授权的用户包括一个mmm_monitor用户和一个mmm_agent用户,如果想使用mmm的备份工具则还要添加一个mmm_tools用户。
  4、需求描述
  操作系统:CentOS 6.5_X64
  数据库:MySQL 5.1
  MMM:MySQL-MMM 2.2.1
  数据库分配:
  function
  ip
  hostname
  server>
  monitoring host
  192.168.0.201
  monitor
  无
  master 1
  192.168.0.202
  db1
  1
  master 2
  192.168.0.203
  db2
  2
  slave 1
  192.168.0.204
  db3
  3
  slave 2
  192.168.0.205
  db4
  4
  虚拟IP地址(VIP):
  ip
  role
  192.168.0.211
  writer
  192.168.0.212
  reader
  192.168.0.213
  reader
  数据库同步需要的用户:
  function
  description
  privileges
  monitor user
  mmm监控用于对mysql服务器进程健康检查
  REPLICATION  CLIENT
  agent user
  mmm代理用来更改只读模式,复制的主服务器等
  SUPER,  REPLICATION CLIENT, PROCESS
  replication user
  用于复制
  REPLICATION SLAVE
  二、db1,db2,db3和db4安装数据库并配置
[root@db1 ~]# yum install mysql-server mysql  
[root@db1 ~]# service mysqld start
  
[root@db1 ~]# mysqladmin -u root password 123.com
[root@db1 ~]# vi /etc/my.cnf   #添加如下  
[mysqld]
  
binlog-do-db=test           #需要记录二进制日志的数据库,多个用逗号隔开
  
binlog-ignore-db=mysql,information_schema  #不需要记录二进制日志的数据库,多个用逗号隔开
  
auto_increment_increment=2  #字段一次递增多少
  
auto_increment_offset=1     #自增字段的起始值,值设置不同
  
replicate-do-db=test        #同步的数据库,多个写多行
  
replicate-ignore-db = information_schema #不同步的数据库,多个写多行
  
server_id = 1               #每台设置不同
  
log_bin = mysql-bin
  
log_slave_updates           #当一个主故障,另一个立即接管
  
sync-binlog=1               #每条自动更新,安全性高,默认是0
  
[root@db1 ~]# service mysqld restart
  三、配置db1和db2主主同步
  #先查看下log bin日志和pos值位置
DSC0001.jpg

  db1配置如下:
[root@db1 ~]# mysql -u root -p123.com  
mysql> GRANT REPLICATION SLAVE ON *.* TO 'replication'@'192.168.0.%' IDENTIFIED BY 'replication';
  
mysql> flush privileges;
  
mysql> change master to
  
    -> master_host='192.168.0.203',
  
    -> master_user='replication',
  
    -> master_password='replication',
  
    -> master_log_file='mysql-bin.000002',
  
-> master_log_pos=106;  #对端状态显示的值
  
mysql> start slave;     #启动同步
  db2配置如下:
[root@db2 ~]# mysql -u root -p123.com  
mysql> GRANT REPLICATION SLAVE ON *.* TO 'replication'@'192.168.0.%' IDENTIFIED BY 'replication';
  
mysql> flush privileges;
  
mysql> change master to
  
    -> master_host='192.168.0.202',
  
    -> master_user='replication',
  
    -> master_password='replication',
  
    -> master_log_file='mysql-bin.000002',
  
    -> master_log_pos=106;
  
mysql> start slave;  #启动同步
  #主主同步配置完毕,查看同步状态Slave_IO和Slave_SQL是YES说明主主同步成功。
DSC0002.jpg

  在db2插入数据测试下:
DSC0003.jpg

  在db2查看是否同步成功:
DSC0004.jpg

  可以看到已经成功同步过去,同样在db2插入到user表数据,也能同步过去。我们的双主就成功了,开始做主从复制。
  四、配置slave1和slave2做为master1的从库
  #先看下master1状态值
DSC0005.jpg

  在slave1和slave2分别执行:
mysql> change master to  
    -> master_host='192.168.0.202',
  
    -> master_user='replication',
  
    -> master_password='replication',
  
    -> master_log_file='mysql-bin.000002',
  
    -> master_log_pos=434;
  在slave1和slave2查看如下说明主从复制成功。但是数据没过来,这是因为主从复制原理只同步配置完后的增删改记录,以后的数据是不能同步的,我们可以把主的数据库备份了,然后在送数据库还原。
DSC0006.jpg

[root@db1 ~]# mysqldump -uroot -p123.com test > test.sql  
[root@db1 ~]# scp test.sql root@192.168.0.204:/root/
  
[root@db1 ~]# scp test.sql root@192.168.0.205:/root/
  
[root@db3 ~]# mysql -u root -p123.com test < test.sql
  
[root@db4 ~]# mysql -u root -p123.com test < test.sql
  五、MySQL-MMM安装配置
  CentOS默认没有mysql-mmm软件包,官方推荐使用epel的网络源,五台都安装epel:
  rpm -ivh http://mirrors.ustc.edu.cn/fedora/epel/6/x86_64/epel-release-6-8.noarch.rpm
  1、monitor节点安装
  [root@monitor ~]#  yum -y install mysql-mmm-monitor
  2、四台db节点安装
  [root@db1 ~]# yum -y install mysql-mmm-agent
  3、在四台db节点授权monitor访问
[root@db ~]# mysql -u root -p123.com  
mysql> GRANT REPLICATIONCLIENT ON *.* TO 'mmm_monitor'@'192.168.0.%' IDENTIFIED BY 'monitor';
  
mysql> GRANT SUPER,REPLICATION CLIENT, PROCESS ON *.* TO 'mmm_agent'@'192.168.0.%' IDENTIFIED BY'agent';
  4、修改mmm_common.conf文件(五台相同)
[root@monitor ~]# vi /etc/mysql-mmm/mmm_common.conf  
active_master_role      writer
  

  
    cluster_interface       eth0
  
    pid_path               /var/run/mysql-mmm/mmm_agentd.pid
  
    bin_path                /usr/libexec/mysql-mmm/
  
    replication_user        replication
  
    replication_password    replication
  
    agent_user              mmm_agent
  
    agent_password          agent
  

  

  
    ip     192.168.0.202
  
    mode   master
  
    peer   db2
  

  

  
    ip     192.168.0.203
  
    mode   master
  
    peer   db1
  

  

  
    ip     192.168.0.204
  
    mode   slave
  

  

  
    ip     192.168.0.205
  
    mode   slave
  

  

  
    hosts  db1, db2
  
    ips    192.168.0.211
  
    mode   exclusive    #只有一个host可以writer,一般写操作是这个模式
  

  

  
    hosts  db3, db4
  
    ips    192.168.0.212,192.168.0.213
  
    mode   balanced     #多个host可以reader,一般读操作是这个模式
  

  #通过scp命令传送到其他四台:
  scp /etc/mysql-mmm/mmm_common.conf root@192.168.0.202/203/204/205:/etc/mysql-mmm/
  5、修改四台db代理端mmm_agent.conf文件
[root@db ~]# vi /etc/mysql-mmm/mmm_agent.conf  
include mmm_common.conf
  
this db1   #分别修改为本机的主机名,即db1、db2、db3和db4
  6、修改管理端mmm_mon.conf文件
[root@monitor ~]# vi /etc/mysql-mmm/mmm_mon.conf  
include mmm_common.conf
  

  
    ip                  127.0.0.1
  
    pid_path            /var/run/mysql-mmm/mmm_mond.pid
  
    bin_path            /usr/libexec/mysql-mmm
  
    status_path         /var/lib/mysql-mmm/mmm_mond.status
  
    ping_ips            192.168.0.202,192.168.0.203,192.168.0.204,192.168.0.205
  
#真实数据库IP,来检测网络是否正常
  
    auto_set_online     10  #恢复后自动设置在线的时间
  

  

  
    monitor_user        mmm_monitor
  
    monitor_password    monitor
  

  
debug 0
  六、启动MySQL-MMM
  1、db代理端启动
  [root@db1 ~]# /etc/init.d/mysql-mmm-agent start
  [root@db1 ~]# chkconfigmysql-mmm-agent on
  2、monitor管理端启动
  [root@monitor ~]# /etc/init.d/mysql-mmm-monitor start
  [root@monitor ~]# chkconfigmysql-mmm-monitor on
  七、测试集群
  1、查看集群状态
DSC0007.jpg

  由此看来,主db1是对外一个写入的角色,但不真正提供只写,要想实现读写分离还需要结合amoeba。后面的虚拟IP是真正来访问Mysql数据库的。
  2、故障转移切换
  停掉主db1数据库,等待几秒后,可以看到数据库db1处于HARD_OFFLINE(离线状态),检测不到数据库的存在。
DSC0008.jpg

  启动主db1数据库后,可以看到数据库db1处于AWAITING_RECOVER(恢复状态),几秒后将恢复在线状态。模拟Slave故障也是如此,DOWN掉一个,虚拟IP会全部在另一台正常数据库上。
  至此,MySQL-MMM架构配置完毕。后续会写在此基础上实现读写分离、负载均衡机制。如图:
DSC0009.jpg




运维网声明 1、欢迎大家加入本站运维交流群:群②:261659950 群⑤:202807635 群⑦870801961 群⑧679858003
2、本站所有主题由该帖子作者发表,该帖子作者与运维网享有帖子相关版权
3、所有作品的著作权均归原作者享有,请您和我们一样尊重他人的著作权等合法权益。如果您对作品感到满意,请购买正版
4、禁止制作、复制、发布和传播具有反动、淫秽、色情、暴力、凶杀等内容的信息,一经发现立即删除。若您因此触犯法律,一切后果自负,我们对此不承担任何责任
5、所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其内容的准确性、可靠性、正当性、安全性、合法性等负责,亦不承担任何法律责任
6、所有作品仅供您个人学习、研究或欣赏,不得用于商业或者其他用途,否则,一切后果均由您自己承担,我们对此不承担任何法律责任
7、如涉及侵犯版权等问题,请您及时通知我们,我们将立即采取措施予以解决
8、联系人Email:admin@iyunv.com 网址:www.yunweiku.com

所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其承担任何法律责任,如涉及侵犯版权等问题,请您及时通知我们,我们将立即处理,联系人Email:kefu@iyunv.com,QQ:1061981298 本贴地址:https://www.iyunv.com/thread-602630-1-1.html 上篇帖子: amoeba + mysql-mmm 实现读写分离 下篇帖子: MySQL的内部XA事务
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

扫码加入运维网微信交流群X

扫码加入运维网微信交流群

扫描二维码加入运维网微信交流群,最新一手资源尽在官方微信交流群!快快加入我们吧...

扫描微信二维码查看详情

客服E-mail:kefu@iyunv.com 客服QQ:1061981298


QQ群⑦:运维网交流群⑦ QQ群⑧:运维网交流群⑧ k8s群:运维网kubernetes交流群


提醒:禁止发布任何违反国家法律、法规的言论与图片等内容;本站内容均来自个人观点与网络等信息,非本站认同之观点.


本站大部分资源是网友从网上搜集分享而来,其版权均归原作者及其网站所有,我们尊重他人的合法权益,如有内容侵犯您的合法权益,请及时与我们联系进行核实删除!



合作伙伴: 青云cloud

快速回复 返回顶部 返回列表