当前位置:网站首页>Docker高级篇之Mysql主从复制、Redis集群扩容缩容配置案例详解
Docker高级篇之Mysql主从复制、Redis集群扩容缩容配置案例详解
2022-07-26 22:46:00 【东北亚大中华区首席搬砖工具人】
Docker之Mysql主从复制、Redis集群扩容缩容配置案例
- 1. 安装mysql主从复制
- 1.1 新建主服务器容器实例3307
- 1.2 进入/mydata/mysql-master/conf目录下新建my.cnf
- 1.3 修改完配置后重启master实例
- 1.4 进入mysql-master容器
- 1.5 登录mysql
- 1.6 登录mysql失败,解决办法。
- 1.7 重新登录mysql,登录成功
- 1.8 修改密码
- 1.9 然后给root赋权限
- 1.10 删除【my.cnf】的【skip-grant-tables】
- 1.11 master容器实例内创建数据同步用户
- 1.21. 新建从服务器容器实例3308
- 1.22. 进入/mydata/mysql-slave/conf目录下新建my.cnf
- 1.23. 修改完配置后重启slave实例
- 1.24. 在主数据库中查看主从同步状态(mysql内部)
- 1.25. 进入mysql-slave容器
- 1.26. 在从数据库中配置主从复制
- 1.27. 在从数据库中查看主从同步状态
- 1.28. 在从数据库中开启主从同步
- 1.29. 查看从数据库状态发现已经同步
- 1.30. 出现错误: Last_IO_Error: Got fatal error 1236 from master when reading data from binary log: 'Client requested master to start replication from position > file size'
- 1.31. 查看从数据库状态发现已经同步
- 1.32. 测试主从同步;
- 2. cluster(集群)模式-docker版 哈希槽分区进行亿级数据存储
1. 安装mysql主从复制
1.1 新建主服务器容器实例3307
docker run -p 3307:3306 --name mysql-master \
-v /mydata/mysql-master/log:/var/log/mysql \
-v /mydata/mysql-master/data:/var/lib/mysql \
-v /mydata/mysql-master/conf:/etc/mysql \
-e MYSQL_ROOT_PASSWORD=root \
-d mysql:5.7
1.2 进入/mydata/mysql-master/conf目录下新建my.cnf
cd /mydata/mysql-master/conf
vim my.cnf
输入以下内容
[mysqld]
## 设置server_id,同一局域网中需要唯一
server_id=101
## 指定不需要同步的数据库名称
binlog-ignore-db=mysql
## 开启二进制日志功能
log-bin=mall-mysql-bin
## 设置二进制日志使用内存大小(事务)
binlog_cache_size=1M
## 设置使用的二进制日志格式(mixed,statement,row)
binlog_format=mixed
## 二进制日志过期清理时间。默认值为0,表示不自动清理。
expire_logs_days=7
## 跳过主从复制中遇到的所有错误或指定类型的错误,避免slave端复制中断。
## 如:1062错误是指一些主键重复,1032错误是因为主从数据库数据不一致
slave_skip_errors=1062
1.3 修改完配置后重启master实例
docker restart mysql-master
如果启动失败,用 【docker logs mysql-master】查询日志
我的是配置文件后面有空格,删除之后可以重新启动。
1.4 进入mysql-master容器
docker exec -it mysql-master /bin/bash
1.5 登录mysql
mysql -uroot -proot
此时报错了,拒绝访问
ERROR 1045 (28000): Access denied for user 'root'@'localhost' (using password: YES)
对于 ERROR 1045 (28000): Access denied for user [‘root’@‘localhost’] 此类错误返回时, (using password: ?)中?的关键字是YES还是NO,关键不在于用户是否存在,密码是否正确,它的结果取决于登录时,用户对于密码有没有字符串的输入,如果没有,MySQL数据库验证后,若出错返回此类信息,则应是 (using password: NO),若用户对密码有字符串的输入,返回的则是(using password: YES)。

1.6 登录mysql失败,解决办法。

修改my.cnf配置文件,添加【skip-grant-tables】重启MySQL后可以不用密码登陆
1.7 重新登录mysql,登录成功

1.8 修改密码
查询用户
select `user`, `host`,`authentication_string` from user where `user` = 'root';
修改密码
update user set authentication_string = 'root' where `user` = 'root';

1.9 然后给root赋权限
错误描述:
mysql> grant all privileges on *.* to [email protected]'%' identified by 'root' with grant option;
此时又出现错误
ERROR 1290 (HY000): The MySQL server is running with the --skip-grant-tables option so it cannot execute this statement
解决方法:
先刷新一下权限表。
mysql> flush privileges;
Query OK, 0 rows affected (0.01 sec)
再赋值权限
grant all privileges on *.* to [email protected]'%' identified by 'root' with grant option;
1.10 删除【my.cnf】的【skip-grant-tables】

1.11 master容器实例内创建数据同步用户
CREATE USER 'slave'@'%' IDENTIFIED BY '123456';
GRANT REPLICATION SLAVE, REPLICATION CLIENT ON *.* TO 'slave'@'%';
1.21. 新建从服务器容器实例3308
docker run -p 3308:3306 --name mysql-slave \
-v /mydata/mysql-slave/log:/var/log/mysql \
-v /mydata/mysql-slave/data:/var/lib/mysql \
-v /mydata/mysql-slave/conf:/etc/mysql \
-e MYSQL_ROOT_PASSWORD=root \
-d mysql:5.7
1.22. 进入/mydata/mysql-slave/conf目录下新建my.cnf
[mysqld]
## 设置server_id,同一局域网中需要唯一
server_id=102
## 指定不需要同步的数据库名称
binlog-ignore-db=mysql
## 开启二进制日志功能,以备Slave作为其它数据库实例的Master时使用
log-bin=mall-mysql-slave1-bin
## 设置二进制日志使用内存大小(事务)
binlog_cache_size=1M
## 设置使用的二进制日志格式(mixed,statement,row)
binlog_format=mixed
## 二进制日志过期清理时间。默认值为0,表示不自动清理。
expire_logs_days=7
## 跳过主从复制中遇到的所有错误或指定类型的错误,避免slave端复制中断。
## 如:1062错误是指一些主键重复,1032错误是因为主从数据库数据不一致
slave_skip_errors=1062
## relay_log配置中继日志
relay_log=mall-mysql-relay-bin
## log_slave_updates表示slave将复制事件写进自己的二进制日志
log_slave_updates=1
## slave设置为只读(具有super权限的用户除外)
read_only=1
1.23. 修改完配置后重启slave实例
docker restart mysql-slave
1.24. 在主数据库中查看主从同步状态(mysql内部)
show master status;

1.25. 进入mysql-slave容器
docker exec -it mysql-slave /bin/bash
mysql -uroot -proot
1.26. 在从数据库中配置主从复制
change master to master_host='宿主机ip', master_user='slave', master_password='123456', master_port=3307, master_log_file='mall-mysql-bin.000001', master_log_pos=617, master_connect_retry=30;
change master to master_host='172.21.182.223', master_user='slave', master_password='123456', master_port=3307, master_log_file='mall-mysql-bin.000001', master_log_pos=609, master_connect_retry=30;

因为我的是阿里云服务器,所以这里是私网ip
主从复制命令参数说明
| 参数 | 说明 |
|---|---|
| master_host | 主数据库的IP地址 |
| master_port | 主数据库的运行端口 |
| master_user | 在主数据库创建的用于同步数据的用户账号 |
| master_password | 在主数据库创建的用于同步数据的用户密码 |
| master_log_file | 指定从数据库要复制数据的日志文件,通过查看主数据的状态,获取File参数 |
| master_log_pos | 指定从数据库从哪个位置开始复制数据,通过查看主数据的状态,获取Position参数 |
| master_connect_retry | 连接失败重试的时间间隔,单位为秒 |
1.27. 在从数据库中查看主从同步状态
show slave status \G;

1.28. 在从数据库中开启主从同步
start slave;
1.29. 查看从数据库状态发现已经同步
show slave status \G;

1.30. 出现错误: Last_IO_Error: Got fatal error 1236 from master when reading data from binary log: ‘Client requested master to start replication from position > file size’


FIle名称和position一定要对得上。
配置完要重启slave;
slave start;
1.31. 查看从数据库状态发现已经同步
show slave status \G;

这回启动了
1.32. 测试主从同步;
主机新建库-使用库-新建表-插入数据,ok
从库查询数据库

2. cluster(集群)模式-docker版 哈希槽分区进行亿级数据存储
2.1 面试题:·1~2亿条数据需要缓存,请问如何设计这个存储案例
回答:单机单台100%不可能,肯定是分布式存储,用redis如何落地?
上述问题阿里P6~P7工程案例和场景设计类必考题目, 一般业界有3种解决方案
2.1.1 哈希取余分区

2亿条记录就是2亿个k,v,我们单机不行必须要分布式多机,假设有3台机器构成一个集群,用户每次读写操作都是根据公式:
hash(key) % N个机器台数,计算出哈希值,用来决定数据映射到哪一个节点上。
2.1.1.1 优点:
简单粗暴,直接有效,只需要预估好数据规划好节点,例如3台、8台、10台,就能保证一段时间的数据支撑。使用Hash算法让固定的一部分请求落到同一台服务器上,这样每台服务器固定处理一部分请求(并维护这些请求的信息),起到负载均衡+分而治之的作用。
2.1.1.2 缺点:
原来规划好的节点,进行扩容或者缩容就比较麻烦了额,不管扩缩,每次数据变动导致节点有变动,映射关系需要重新进行计算,在服务器个数固定不变时没有问题,如果需要弹性扩容或故障停机的情况下,原来的取模公式就会发生变化:Hash(key)/3会变成Hash(key) /?。此时地址经过取余运算的结果将发生很大变化,根据公式获取的服务器也会变得不可控。
某个redis机器宕机了,由于台数数量变化,会导致hash取余全部数据重新洗牌。
2.1.2 一致性哈希算法分区
2.1.2.1 一致性Hash算法背景
一致性哈希算法在1997年由麻省理工学院中提出的,设计目标是为了解决分布式缓存数据变动和映射问题,某个机器宕机了,分母数量改变了,自然取余数不OK了。
提出一致性Hash解决方案。 目的是当服务器个数发生变动时, 尽量减少影响客户端到服务器的映射关系
2.1.2.2 步骤一:算法构建一致性哈希环
一致性哈希环
一致性哈希算法必然有个hash函数并按照算法产生hash值,这个算法的所有可能哈希值会构成一个全量集,这个集合可以成为一个hash空间[0,2 ^ 32-1],这个是一个线性空间,但是在算法中,我们通过适当的逻辑控制将它首尾相连(0 = 2^32),这样让它逻辑上形成了一个环形空间。
它也是按照使用取模的方法,前面笔记介绍的节点取模法是对节点(服务器)的数量进行取模。而一致性Hash算法是对2 ^ 32取模,简单来说,一致性Hash算法将整个哈希值空间组织成一个虚拟的圆环,如假设某哈希函数H的值空间为0-2 ^ 32-1(即哈希值是一个32位无符号整形),整个哈希环如下图:整个空间按顺时针方向组织,圆环的正上方的点代表0,0点右侧的第一个点代表1,以此类推,2、3、4、……直到2 ^ 32-1,也就是说0点左侧的第一个点代表2 ^ 32-1, 0和2 ^ 32-1在零点中方向重合,我们把这个由2^32个点组成的圆环称为Hash环。

2.1.2.3 步骤二:服务器IP节点映射
节点映射
将集群中各个IP节点映射到环上的某一个位置。
将各个服务器使用Hash进行一个哈希,具体可以选择服务器的IP或主机名作为关键字进行哈希,这样每台机器就能确定其在哈希环上的位置。假如4个节点NodeA、B、C、D,经过IP地址的哈希函数计算(hash(ip)),使用IP地址哈希后在环空间的位置如下:

2.1.2.4 步骤三:key落到服务器的落键规则
当我们需要存储一个kv键值对时,首先计算key的hash值,hash(key),将这个key使用相同的函数Hash计算出哈希值并确定此数据在环上的位置,从此位置沿环顺时针“行走”,第一台遇到的服务器就是其应该定位到的服务器,并将该键值对存储在该节点上。
如我们有Object A、Object B、Object C、Object D四个数据对象,经过哈希计算后,在环空间上的位置如下:根据一致性Hash算法,数据A会被定为到Node A上,B被定为到Node B上,C被定为到Node C上,D被定为到Node D上。
2.1.2.5 优点
2.1.2.5.1 一致性哈希算法的容错性
假设Node C宕机,可以看到此时对象A、B、D不会受到影响,只有C对象被重定位到Node D。一般的,在一致性Hash算法中,如果一台服务器不可用,则受影响的数据仅仅是此服务器到其环空间中前一台服务器(即沿着逆时针方向行走遇到的第一台服务器)之间数据,其它不会受到影响。简单说,就是C挂了,受到影响的只是B、C之间的数据,并且这些数据会转移到D进行存储。
2.1.2.5.1 ·一致性哈希算法的扩展性
扩展性
数据量增加了,需要增加一台节点NodeX,X的位置在A和B之间,那收到影响的也就是A到X之间的数据,重新把A到X的数据录入到X上即可,
不会导致hash取余全部数据重新洗牌。

2.1.2.6 缺点
2.1.2.6.1 一致性哈希算法的数据倾斜问题
Hash环的数据倾斜问题
一致性Hash算法在服务节点太少时,容易因为节点分布不均匀而造成数据倾斜(被缓存的对象大部分集中缓存在某一台服务器上)问题,
例如系统中只有两台服务器
2.1.2.7 小总结
为了在节点数目发生改变时尽可能少的迁移数据
将所有的存储节点排列在收尾相接的Hash环上,每个key在计算Hash后会顺时针找到临近的存储节点存放。
而当有节点加入或退出时仅影响该节点在Hash环上顺时针相邻的后续节点。
优点
加入和删除节点只影响哈希环中顺时针方向的相邻的节点,对其他节点无影响。
缺点
数据的分布和节点的位置有关,因为这些节点不是均匀的分布在哈希环上的,所以数据在进行存储时达不到均匀分布的效果。
2.1.3 哈希槽分区
2.1.3.1 为什么会有哈希槽分区
主要是为了解决一致性哈希算法的数据倾斜问题
哈希槽实质就是一个数组,数组[0,2^14 -1]形成hash slot空间。
2.1.3.2 哈希槽分区能干什么?
解决均匀分配的问题**,在数据和节点之间又加入了一层,把这层称为哈希槽(slot),用于管理数据和节点之间的关系**,现在就相当于节点上放的是槽,槽里放的是数据。
槽解决的是粒度问题,相当于把粒度变大了,这样便于数据移动。
哈希解决的是映射问题,使用key的哈希值来计算所在的槽,便于数据分配。
2.1.3.3 多少个hash槽?
一个集群只能有16384个槽,编号0-16383(0-2^14-1)。这些槽会分配给集群中的所有主节点,分配策略没有要求。可以指定哪些编号的槽分配给哪个主节点。集群会记录节点和槽的对应关系。解决了节点和槽的关系后,接下来就需要对key求哈希值,然后对16384取余,余数是几key就落入对应的槽里。slot = CRC16(key) % 16384。以槽为单位移动数据,因为槽的数目是固定的,处理起来比较容易,这样数据移动问题就解决了。
2.1.3.4 哈希槽计算
Redis 集群中内置了 16384 个哈希槽,redis 会根据节点数量大致均等的将哈希槽映射到不同的节点。当需要在 Redis 集群中放置一个 key-value时,redis 先对 key 使用 crc16 算法算出一个结果,然后把结果对 16384 求余数,这样每个 key 都会对应一个编号在 0-16383 之间的哈希槽,也就是映射到某个节点上。如下代码,key之A 、B在Node2, key之C落在Node3上

2.2 3主3从redis集群扩缩容配置案例架构说明
2.2.1 新建6个docker容器redis实例

docker run -d --name redis-node-1 --net host --privileged=true -v /data/redis/share/redis-node-1:/data redis:6.0.8 --cluster-enabled yes --appendonly yes --port 6381
docker run -d --name redis-node-2 --net host --privileged=true -v /data/redis/share/redis-node-2:/data redis:6.0.8 --cluster-enabled yes --appendonly yes --port 6382
docker run -d --name redis-node-3 --net host --privileged=true -v /data/redis/share/redis-node-3:/data redis:6.0.8 --cluster-enabled yes --appendonly yes --port 6383
docker run -d --name redis-node-4 --net host --privileged=true -v /data/redis/share/redis-node-4:/data redis:6.0.8 --cluster-enabled yes --appendonly yes --port 6384
docker run -d --name redis-node-5 --net host --privileged=true -v /data/redis/share/redis-node-5:/data redis:6.0.8 --cluster-enabled yes --appendonly yes --port 6385
docker run -d --name redis-node-6 --net host --privileged=true -v /data/redis/share/redis-node-6:/data redis:6.0.8 --cluster-enabled yes --appendonly yes --port 6386

参数详解
命令分步解释
| 命令 | 解释 |
|---|---|
| docker run | 创建并运行docker容器实例 |
| –name redis-node-6 | 容器名字 |
| –net host | 使用宿主机的IP和端口,默认 |
| –privileged=true | 获取宿主机root用户权限 |
| -v /data/redis/share/redis-node-6:/data | 容器卷,宿主机地址:docker内部地址 |
| redis:6.0.8 | redis镜像和版本号 |
| –cluster-enabled yes | 开启redis集群 |
| –appendonly yes | 开启持久化 |
| –port 6381 | redis端口 |
2.2.2 进入容器redis-node-1并为6台机器构建集群关系
2.2.2.1 进入容器
docker exec -it redis-node-1 /bin/bash
2.2.2.2 构建主从关系
注意:进入docker容器后才能执行一下命令,且注意自己的真实IP地址
redis-cli --cluster create 172.21.182.223:6381 172.21.182.223:6382 172.21.182.223:6383 172.21.182.223:6384 172.21.182.223:6385 172.21.182.223:6386 --cluster-replicas 1
–cluster-replicas 1 表示为每个master创建一个slave节点
执行效果
一切OK的话,3主3从搞定
2.2.2.3 链接进入6381作为切入点,查看集群状态
redis-cli -p 6381
cluster info

2.2.2.4 链接进入6381作为切入点,查看节点状态
cluster nodes

| master | slave |
|---|---|
| 6381 | 6385 |
| 6382 | 6386 |
| 6383 | 6384 |
2.2.3 主从容错切换迁移案例
数据读写存储
2.2.3.1 启动6机构成的集群并通过exec进入6381
redis-cli -p 6381
2.2.3.2 对6381新增两个key

k1经过hash算法计算之后,不在当前redis主机的槽位范围内,所以必须跳到其他槽位,但是由于当前不是集群模式,所以会添加失败。
防止路由失效加参数-c并新增两个key
quit
redis-cli -p 6381 -c


会来回跳redis服务器
2.2.3.3 查看集群信息
redis-cli --cluster check 172.21.182.223:6381

2.2.4 容错切换迁移
2.2.4.1 主6381和从机切换,先停止主机6381
docker ps
docker stop redis-node-1

2.2.4.2 6381主机停了,对应的真实从机上位
进入6382主机,查看节点信息
docker exec -it redis-node-2 /bin/bash
redis-cli -p 6382 -c
cluster nodes

| master | slave |
|---|---|
| 6381(宕机) | 6385(上位) |
| 6382 | 6386 |
| 6383 | 6384 |
6381宕机了,6385上位成为了新的master。
备注:本次脑图笔记6381为主下面挂从6385。
每次案例下面挂的从机以实际情况为准,具体是几号机器就是几号
2.2.4.3 先还原之前的3主3从
2.2.4.3.1 先启6381
docker start redis-node-1
2.2.4.3.2 再停6385
docker stop redis-node-5
2.2.4.3.3 再启6385
docker start redis-node-5
2.2.4.3.5 查看集群状态
docker exec -it redis-node-1 /bin/bash
redis-cli --cluster check 172.21.182.223:6381

6381重回主机,6385重回从机
2.2.5 主从扩容案例
2.2.5.1 新建6387、6388两个节点+新建后启动+查看是否8节点
docker run -d --name redis-node-7 --net host --privileged=true -v /data/redis/share/redis-node-7:/data redis:6.0.8 --cluster-enabled yes --appendonly yes --port 6387
docker run -d --name redis-node-8 --net host --privileged=true -v /data/redis/share/redis-node-8:/data redis:6.0.8 --cluster-enabled yes --appendonly yes --port 6388
docker ps

2.2.5.2 进入6387容器实例内部
docker exec -it redis-node-7 /bin/bash
2.2.5.3 将新增的6387节点(空槽号)作为master节点加入原集群
redis-cli --cluster add-node 172.21.182.223:6387 172.21.182.223:6381
6387 就是将要作为master新增节点
6381 就是原来集群节点里面的领路人,相当于6387拜拜6381的码头从而找到组织加入集群
2.2.5.4 检查集群情况第1次
redis-cli --cluster check 172.21.182.223:6381
6387已经加入进来了,但是暂时没有槽位
2.2.5.5 重新分派槽号

redis-cli --cluster reshard IP地址:端口号
redis-cli --cluster reshard 172.21.182.223:6381

你打算怎么分?
16384/4 = 4096

选择yes重新洗牌
2.2.5.6 检查集群情况第2次
redis-cli --cluster check 172.21.182.233:6381

槽号分派说明
为什么6387是3个新的区间,以前的还是连续?
重新分配成本太高,所以前3家各自匀出来一部分,从6381/6382/6383三个旧节点分别匀出1364个坑位给新节点6387
2.2.5.7 为主节点6387分配从节点6388
redis-cli --cluster add-node ip:新slave端口 ip:新master端口 --cluster-slave --cluster-master-id 新主机节点ID
redis-cli --cluster add-node 172.21.182.223:6388 172.21.182.223:6387 --cluster-slave --cluster-master-id cfa2b7e8198de5f66041d792c87add3a8b688b93

2.2.5.8 检查集群情况第3次
redis-cli --cluster check 172.21.182.223:6381

2.2.6 主从缩容案例
2.2.6.1 目的:6387和6388下线
2.2.6.2 检查集群情况1获得6388的节点ID
redis-cli --cluster check 172.21.182.223:6382

2.2.6.2 将6388删除 从集群中将4号从节点6388删除
命令:redis-cli --cluster del-node ip:从机端口 从机6388节点ID
redis-cli --cluster del-node 172.21.182.223:6388 28936d6fec4837116e91fa08c0072495788999ef

2.2.6.3 第二次检查一下发现,6388被删除了,只剩下7台机器了。
redis-cli --cluster check 172.21.182.223:6382

2.2.6.4 将6387的槽号清空,重新分配,本例将清出来的槽号都给6381
redis-cli --cluster reshard 172.21.182.223:638

2.2.6.5 检查集群情况第三次
redis-cli --cluster check 172.21.182.223:6382

2.2.6.6 将6387删除
redis-cli --cluster del-node 172.21.182.223:6387 cfa2b7e8198de5f66041d792c87add3a8b688b93
2.2.6.7 检查集群情况第四次
redis-cli --cluster check 172.21.182.223:6382

边栏推荐
- Understanding and learning of code blocks
- Text three swordsman two
- Source code compilation and installation lamp
- C language foundation Gobang, very easy to understand, detailed explanation, easy to use
- [cann training camp] enter media data processing 1
- Shell loop statement
- MySQL installation
- MySQL single table query exercise
- MySQL system variables and state variables
- mysql视图
猜你喜欢
随机推荐
Use of shell (11) brackets
CDC only supports PostgreSQL database to version 12? Is there any plan to support version 14? Does anyone know?
FTP service
[untitled]
Text three swordsman two
Source code compilation and installation lamp
Desktop solution summary
ceph(分布式存储)
Shell (13) Three Musketeers
RT thread learning
Process and planned task management
MySQL多表查询
Application of load balancing
The bottom implementation of string container
MySQL common statements
SSH and NFS services
RT-thread学习
29shell函数
[cann training camp] enter media data processing 1
Suggestions for beginners of MySQL (strongly recommended ~ don't regret ~ ~)









