一、镜像版本
该镜像使用的mysql数据库和备份软件版本
mysql使用官方8.0.18
xtrabackup使用的是rpm软件trabackup:8.0.9
制作xtrabackup镜像
Dockerfile 配置如下:
FROM centos:7
ADD percona-xtrabackup-80-8.0.9-1.el7.x86_64.rpm /
RUN rpm --rebuilddb && \
yum -y install wget hostname mariadb && \
yum -y install nmap-ncat.x86_64 && \
yum -y localinstall percona-xtrabackup-80-8.0.9-1.el7.x86_64.rpm
RUN rm -rf percona-xtrabackup-80-8.0.9-1.el7.x86_64.rpm
EXPOSE 3307xtrabackup备份工具下载 :Download Percona XtraBackup 8.0
工具准备好之后构建自己的私有镜像。
二、MySQL集群搭建
2.1、集群要求
- 搭建一个一主 N 从的 MySQL 集群;
- 从节点可以水平扩展;
- 所有的写操作,都只能在主节点(Master)上执行;
- 所有的读操作可以在所有节点上执行;
2.2、物理机环境搭建集群
下面,我们看一张MySQL主从复制的原理图:

上面的原理图告诉我们,部署这样一个一主多从的 MySQL 集群,关键在于配置 Master 节点和 Slave 节点的复制和同步。
下面我们用自然语言描述在物理机上部署这样的集群的关键步骤;
1、配置并安装好 Master 节点的 MySQL;
2、通过XtraBackup将Master节点的数据备份到指定目录;
3、将第2步备份出来的目录,连同备份信息文件,拷贝到Slave的/var/lib/mysql下,然后执行CHANGE MASTER TO指令;
4、启动 Slave 节点,执行START SLAVE指令;
5、在这个集群中添加更多的Slave节点;
2.3 Kubernetes 上搭建一主多从的 MySQL 集群
2.3.1 难点
不同于物理机,在 Kubernetes 上搭建一主多从的 MySQL 集群,结合容器的技术特色,我们思考以下需要解决的困难点:
- Master 节点和 Slave 节点需要有不同的配置文件;
- Master 节点和 Slave 节点需要能够传输备份信息文件;
- 第一次启动 Slave 节点,需要执行一些初始化SQL操作;
2.3.2 使用cephfs做持久化存储
准备外部ceph存储,部署好ceph-csi,以及storageclass的存储名部署nacos需要用到
ceph存储:ceph v15.2.13版本[octopus]分布式集群部署
ceph-csi部署:K8S使用ceph-csi持久化存储之cephfs部署验证快照
2.3.3 ConfigMap 为 Master/Slave 节点分配不同的配置文件
根据开头介绍的ConfigMap概念可知,使用 ConfigMap 可以很好解决 MySQL集群中 Master 和 Slave 节点配置文件不一致的问题。ConfigMap 的配置信息如下:
[root@master mysql]# cat configmap.yaml
---
apiVersion: v1
kind: ConfigMap
metadata:
name: mysql
namespace: mysql
labels:
app: mysql
data:
master.cnf: |
# Master配置
[mysqld]
log-bin
slave.cnf: |
# Slave配置
[mysqld]
super-read-only
这里我们定义了 master.cnf 和 slave.cnf 两个MySQL的配置文件。
- master.cnf 开启了 log-bin,即: 使用二进制日志文件的方式进行主从复制。
- slave.cnf 开启了 super-read-only,表示从节点拒绝除了主节点的数据同步操作之外的所有写操作,即它对用户是只读的。
创建ConfigMap和查看状态
[root@master mysql]# kubectl apply -f configmap.yaml
configmap/mysql created
[root@master mysql]# kubectl get configmap -n mysql
NAME DATA AGE
mysql 2 31d
2.3.4 Secret 为 集群配置密码
[root@master mysql]# cat secret.yaml
---
# Secret 为 mysql集群配置密码
apiVersion: v1
kind: Secret
metadata:
name: mysql-secret
namespace: mysql
labels:
app: mysql
type: Opaque
data:
password: dVVOMzgjJXBx # echo -n 'uUN38#%pq' |base64创建并查看secret
[root@master mysql]# kubectl create -f secret.yaml
secret/mysql-secret created
[root@master mysql]# kubectl get secret -n mysql
NAME TYPE DATA AGE
default-token-847k8 kubernetes.io/service-account-token 3 36d
mysql-secret Opaque 1 31d2.3.5 Service 为 StatefulSet和用户提供服务发现
这里我们需要创建两个service,两个Service的配置如下:
[root@master mysql]# cat mysql-service.yaml
---
#创建services,主从分别是mysql和mysql-read.
apiVersion: v1
kind: Service
metadata:
name: mysql
namespace: mysql
labels:
app: mysql
spec:
ports:
- name: mysql
port: 3306
clusterIP: None
selector:
app: mysql
---
apiVersion: v1
kind: Service
metadata:
name: mysql-read
namespace: mysql
labels:
app: mysql
spec:
ports:
- name: mysql
port: 3306
selector:
app: mysql配置介绍:
- 两个Service 都代理了所有携带 app=mysql 标签的 Pod,也就是所有的 MySQL Pod。端口映射都是用 Service 的3306端口对应 Pod 的 3306 端口
- 一个名叫 “mysql” Service 是 Headless Service (即:clusterIP=None)。它的作用是通过为 Pod 分配 DNS 记录来固定 Pod 集群,比如 “mysql-0.mysql” 和 “mysql-1.mysql” 这样的 DNS 名字。其中, “mysql-0.mysql” 的节点就是我们的主节点;名叫 “mysql-read” 的 Service 是一个常规的 Service
- 规定,所有用户的读请求必须访问名叫 “mysql-read” 的Service被分配的DNS记录上,这样,读请求就可以转发到任意一个 MySQL 的主节点或者从节点上;所有用户的写请求,则必须访问到 MySQL 的主节点,即 “mysql-0.mysql” 这条 DNS 记录
创建并查看services
[root@master mysql]# kubectl apply -f mysql-service.yaml
service/mysql created
service/mysql-read created
[root@master mysql]# kubectl get svc -n mysql
NAME TYPE CLUSTER-IP EXTERNAL-IP PORT(S) AGE SELECTOR
mysql ClusterIP None <none> 3306/TCP 29h app=mysql
mysql-read ClusterIP 10.97.69.220 <none> 3306/TCP 33m app=mysql
2.3.6 使用 StatefulSet 搭建 MySQL 集群
[root@master mysql]# cat mysql-statefulset.yaml
---
apiVersion: apps/v1
kind: StatefulSet
metadata:
name: mysql
namespace: mysql
labels:
app: mysql
spec:
selector:
matchLabels:
app: mysql
serviceName: mysql
replicas: 3
template:
metadata:
labels:
app: mysql
spec:
initContainers:
- name: init-mysql
image: jinyuyun.top/mysql:8.0
env:
- name: MYSQL_ROOT_PASSWORD
valueFrom:
secretKeyRef:
name: mysql-secret
key: password
command:
- bash
- "-c"
- |
set -ex
# 从 Pod 的序号,生成 server-id
[[ $(hostname) =~ -([0-9]+)$ ]] || exit 1
ordinal=${BASH_REMATCH[1]}
echo [mysqld] > /mnt/conf.d/server-id.cnf
# 由于 server-id 不能为 0,因此给 ID 加 100 来避开它
echo server-id=$((100 + $ordinal)) >> /mnt/conf.d/server-id.cnf
# 如果 Pod 的序号为 0,说明它是 Master 节点,从 ConfigMap 里把 Master 的配置文件拷贝到 /mnt/conf.d 目录下
# 否则,拷贝 ConfigMap 里的 Slave 的配置文件
if [[ ${ordinal} -eq 0 ]]; then
cp /mnt/config-map/master.cnf /mnt/conf.d
else
cp /mnt/config-map/slave.cnf /mnt/conf.d
fi
volumeMounts:
- name: conf
mountPath: /mnt/conf.d
- name: config-map
mountPath: /mnt/config-map
- name: clone-mysql
image: jinyuyun.top/xtrabackup:2.3
env:
- name: MYSQL_ROOT_PASSWORD
valueFrom:
secretKeyRef:
name: mysql-secret
key: password
command:
- bash
- "-c"
- |
set -ex
# 拷贝操作只需要在第一次启动时进行,所以数据已经存在则跳过
[[ -d /var/lib/mysql/mysql ]] && exit 0
# Master 节点(序号为 0)不需要这个操作
[[ $(hostname) =~ -([0-9]+)$ ]] || exit 1
ordinal=${BASH_REMATCH[1]}
[[ $ordinal == 0 ]] && exit 0
# 使用 ncat 指令,远程地从前一个节点拷贝数据到本地
ncat --recv-only mysql-$(($ordinal-1)).mysql 3307 | xbstream -x -C /var/lib/mysql
# 执行 --prepare,这样拷贝来的数据就可以用作恢复了
xtrabackup --prepare --target-dir=/var/lib/mysql
volumeMounts:
- name: data
mountPath: /var/lib/mysql
subPath: mysql
- name: conf
mountPath: /etc/mysql/conf.d
containers:
- name: mysql
image: jinyuyun.top/mysql:8.0
args: ["--default-authentication-plugin=mysql_native_password"]
env:
- name: MYSQL_ALLOW_EMPTY_PASSWORD
value: "1"
- name: MYSQL_ROOT_PASSWORD
valueFrom:
secretKeyRef:
name: mysql-secret
key: password
ports:
- name: mysql
containerPort: 3306
volumeMounts:
- name: data
mountPath: /var/lib/mysql
subPath: mysql
- name: conf
mountPath: /etc/mysql/conf.d
resources:
requests:
cpu: 500m
memory: 1Gi
limits:
cpu: 500m
memory: 1Gi
livenessProbe: #存活探针健康检测
exec:
command:
- /bin/sh
- "-c"
- MYSQL_PWD="${MYSQL_ROOT_PASSWORD}"
- mysqladmin ping
#tcpSocket:
#port: 3306
initialDelaySeconds: 30
periodSeconds: 10
timeoutSeconds: 5
readinessProbe: #就绪探针健康检测
exec:
command:
- /bin/sh
- "-c"
- MYSQL_PWD="${MYSQL_ROOT_PASSWORD}"
- mysql -h 127.0.0.1 -u root -e "SELECT 1"
#tcpSocket:
# port: 3306
initialDelaySeconds: 5
periodSeconds: 2
timeoutSeconds: 1
- name: xtrabackup
image: jinyuyun.top/xtrabackup:2.3
ports:
- name: xtrabackup
containerPort: 3307
env:
- name: MYSQL_ROOT_PASSWORD
valueFrom:
secretKeyRef:
name: mysql-secret
key: password
command:
- bash
- "-c"
- |
set -ex
cd /var/lib/mysql
# 从备份信息文件里读取 MASTER_LOG_FILE 和 MASTER_LOG_POS 这 2 个字段的值,用来拼装集群初始化 SQL
if [[ -f xtrabackup_slave_info ]]; then
# 如果 xtrabackup_slave_info 文件存在,说明这个备份数据来自于另一个 Slave 节点
# 这种情况下,XtraBackup 工具在备份的时候,就已经在这个文件里自动生成了 "CHANGE MASTER TO" SQL 语句
# 所以,只需要把这个文件重命名为 change_master_to.sql.in,后面直接使用即可
mv xtrabackup_slave_info change_master_to.sql.in
# 所以,也就用不着 xtrabackup_binlog_info 了
rm -f xtrabackup_binlog_info
elif [[ -f xtrabackup_binlog_info ]]; then
# 如果只是存在 xtrabackup_binlog_info 文件,说明备份来自于 Master 节点,就需要解析这个备份信息文件,读取所需的两个字段的值
[[ $(cat xtrabackup_binlog_info) =~ ^(.*?)[[:space:]]+(.*?)$ ]] || exit 1
rm xtrabackup_binlog_info
# 把两个字段的值拼装成 SQL,写入 change_master_to.sql.in 文件
echo "CHANGE MASTER TO MASTER_LOG_FILE='${BASH_REMATCH[1]}',\
MASTER_LOG_POS=${BASH_REMATCH[2]}" > change_master_to.sql.in
fi
# 如果存在 change_master_to.sql.in,就意味着需要做集群初始化工作
if [[ -f change_master_to.sql.in ]]; then
# 但一定要先等 MySQL 容器启动之后才能进行下一步连接 MySQL 的操作
echo "Waiting for mysqld to be ready(accepting connections)"
until mysql -h 127.0.0.1 -uroot -p${MYSQL_ROOT_PASSWORD} -e "SELECT 1"; do sleep 1; done
echo "Initializing replication from clone position"
# 将文件 change_master_to.sql.in 改个名字
# 防止这个 Container 重启的时候,因为又找到了 change_master_to.sql.in,从而重复执行一遍初始化流程
mv change_master_to.sql.in change_master_to.sql.orig
# 使用 change_master_to.sql.orig 的内容,也就是前面拼装的 SQL,组成一个完整的初始化和启动 Slave 的 SQL 语句
mysql -h 127.0.0.1 -uroot -p${MYSQL_ROOT_PASSWORD} << EOF
$(< change_master_to.sql.orig),
MASTER_HOST='mysql-0.mysql.mysql',
MASTER_USER='root',
MASTER_PASSWORD='${MYSQL_ROOT_PASSWORD}',
MASTER_CONNECT_RETRY=10;
START SLAVE;
EOF
fi
# 使用 ncat 监听 3307 端口。
# 它的作用是,在收到传输请求的时候,直接执行 xtrabackup --backup 命令,备份 MySQL 的数据并发送给请求者
exec ncat --listen --keep-open --send-only --max-conns=1 3307 -c \
"xtrabackup --backup --slave-info --stream=xbstream --host=127.0.0.1 --user=root --password=${MYSQL_ROOT_PASSWORD}"
volumeMounts:
- name: data
mountPath: /var/lib/mysql
subPath: mysql
- name: conf
mountPath: /etc/mysql/conf.d
volumes:
- name: conf
emptyDir: {}
- name: config-map
configMap:
name: mysql
volumeClaimTemplates:
- metadata:
name: data
spec:
accessModes:
- "ReadWriteMany"
storageClassName: jyy-cephfs-sc
resources:
requests:
storage: 3Gi创建和查看statefulset部署
[root@master mysql]# kubectl apply -f mysql-statefulset.yaml
statefulset.apps/mysql created
[root@master mysql]# kubectl get statefulset -n mysql
NAME READY AGE
mysql 3/3 31d
[root@master mysql]# kubectl get pod -n mysql
NAME READY STATUS RESTARTS AGE
mysql-0 2/2 Running 4 31d
mysql-1 2/2 Running 6 31d
mysql-2 2/2 Running 11 31d
2.3.7 部署对外连接读写服务,防止navcat连接到数据库提示only-read只读。
部署对外读写服务
[root@master ~]# kubectl get pods -n mysql --show-labels | grep mysql-0 | awk '{print $6}' | awk -F, '{print $3}'
statefulset.kubernetes.io/pod-name=mysql-0
[root@master mysql] #cat mysql-readwrite.yaml
---
#给mysql部署外部访问端口并指定mysql-0访问可读写
apiVersion: v1
kind: Service
metadata:
name: mysql-readwrite
namespace: mysql
labels:
app: mysql
spec:
ports:
- name: mysql
port: 3306
nodePort: 30306
selector:
statefulset.kubernetes.io/pod-name: mysql-0
type: NodePort
部署并查看mysql-readwrite
[root@master mysql]# kubectl apply -f mysql-readwrite.yaml
service/mysql-readwrite created
[root@master mysql]# kubectl get svc -n mysql
NAME TYPE CLUSTER-IP EXTERNAL-IP PORT(S) AGE SELECTOR
mysql ClusterIP None <none> 3306/TCP 29h app=mysql
mysql-read ClusterIP 10.97.69.220 <none> 3306/TCP 33m app=mysql
mysql-readwrite NodePort 10.103.229.134 <none> 3306:30306/TCP 33m statefulset.kubernetes.io/pod-name=mysql-0
2.3.8 部署完成之后设置主从同步
先进入master主节点即mysql-0容器;
# 查看master主节点的域名,使用nslookup工具,这里可以看到master域名是mysql-0.mysql-headless.mysql-test.svc.cluster.local
[root@master ~]# nslookup 100.89.161.144
144.161.89.100.in-addr.arpa name = 100-89-161-144.mysql-readwrite.mysql-test.svc.cluster.local.
144.161.89.100.in-addr.arpa name = mysql-0.mysql-headless.mysql-test.svc.cluster.local.
[root@master ~]# kubectl exec -it mysql-0 -c mysql -n mysql-test /bin/bash
root@mysql-0:/# mysql -uroot -p
# 这里可以添加用来同步的用户,也可以直接root用户直接同步。
# 查看master主节点状态
mysql> show master status \G;
*************************** 1. row ***************************
File: mysql-0-bin.000004
Position: 1550
Binlog_Do_DB:
Binlog_Ignore_DB:
Executed_Gtid_Set:
1 row in set (0.00 sec)
下一步进入从节点mysql-1 mysql-2容器里面加入主节点
[root@master ~]# kubectl exec -it mysql-1 -c mysql -n mysql-test /bin/bash
root@mysql-0:/# mysql -uroot -p
### 准备就绪后就开始加入主节点 ###
# 设置主库连接(这里用域名连接,IP地址重启会更改导致主从不能同步)
mysql> change master to master_host='mysql-0.mysql-headless.mysql-test.svc.cluster.local',master_user='root',master_password='uUN38#%pq',master_log_file='mysql-0-bin.000004',master_log_pos=0,master_port=3306;
Query OK, 0 rows affected, 2 warnings (15.15 sec)
# 启动从库同步
mysql> start slave;
Query OK, 0 rows affected (0.14 sec)
# 查看从从库状态
mysql> show slave status \G;
*************************** 1. row ***************************
Slave_IO_State: Waiting for master to send event
Master_Host: mysql-0.mysql-headless.mysql-test.svc.cluster.local
Master_User: root
Master_Port: 3306
Connect_Retry: 60
Master_Log_File: mysql-0-bin.000004
Read_Master_Log_Pos: 1722
Relay_Log_File: mysql-1-relay-bin.000002
Relay_Log_Pos: 373
Relay_Master_Log_File: mysql-0-bin.000004
Slave_IO_Running: Yes
Slave_SQL_Running: Yes
# 当看到从库状态2项都是yes.就表示同步成功.
# 如果同步不成功需要尝试执行以下命令,直到2项都是yes即同步成功
mysql> stop slave;
Query OK, 0 rows affected, 1 warning (2.13 sec)
mysql> reset slave;
Query OK, 0 rows affected, 1 warning (13.27 sec)
mysql> start slave;
Query OK, 0 rows affected, 1 warning (2.87 sec)
2.3.9 进入容器创建数据库,测试主从同步
# 进入主节点mysql-0,新建数据库表
[root@master mysql8.0]# kubectl exec -it mysql-0 -c mysql -n mysql-test /bin/bash
root@mysql-0:/# mysql -uroot -p
Enter password:
mysql> show databases;
+--------------------+
| Database |
+--------------------+
| information_schema |
| mysql |
| performance_schema |
| sys |
+--------------------+
4 rows in set (0.01 sec)
mysql> create database jyy;
Query OK, 1 row affected (2.98 sec)
mysql> use jyy
Database changed
mysql> create table counter(id int);
Query OK, 0 rows affected (5.43 sec)
mysql> insert into counter values(20211012);
Query OK, 1 row affected (0.96 sec)
mysql> show databases;
+--------------------+
| Database |
+--------------------+
| information_schema |
| jyy |
| mysql |
| performance_schema |
| sys |
+--------------------+
5 rows in set (0.01 sec)
mysql> exit
Bye
root@mysql-0:/# exit
exit
# 进入从节点mysql-1,查看数据同步情况
[root@master mysql8.0]# kubectl exec -it mysql-1 -c mysql -n mysql-test /bin/bash
root@mysql-0:/# mysql -uroot -p
Enter password:
mysql> show databases;
+--------------------+
| Database |
+--------------------+
| information_schema |
| jyy |
| mysql |
| performance_schema |
| sys |
+--------------------+
5 rows in set (0.01 sec)
# 进入从节点mysql-2,查看数据同步情况
[root@master mysql8.0]# kubectl exec -it mysql-1 -c mysql -n mysql-test /bin/bash
root@mysql-0:/# mysql -uroot -p
Enter password:
mysql> show databases;
+--------------------+
| Database |
+--------------------+
| information_schema |
| jyy |
| mysql |
| performance_schema |
| sys |
+--------------------+
5 rows in set (0.01 sec)集群搭建完成。
2.4 参考
https://zhuanlan.zhihu.com/p/143855883
https://gitee.com/owen_tao/mysql-kubernetes/
https://blog.csdn.net/qq_38900565/article/details/102486100