TiDB各服务组件混布到物理机集群和K8S环境

网友投稿 659 2023-04-01

前提条件

K8S集群外的服务器节点和K8S集群内的Pod网络必须保持互通(本文采用将物理机节点加入K8S集群然后打污点并驱逐该服务器里边的pod的方式来实现)

K8S机器外的服务器节点必须可以通过添加解析的方式来解析K8S集群内部Pod域名(具体见第一步)

待迁移集群没有开启组件间 TLS 加密通信

环境

目前环境主要配置如下:

序号

环境

集群名称

组件

数量

备注

1

IDC

tidb-idc

tidb

1

2

pd

3

3

tikv

3

4

K8S环境

tidb-test

tidb

2

命名空间为lqbyz

5

pd

3

6

tikv

3

物理机dashboard如下

第一步:在待迁移的物理机集群的所有节点中配置K8S集群内的DNS解析服务

获取K8S集群CoreDNS 或 kube-dns 服务的 endpoints 的 Pod ip 地址列表:

kubectl describe svc/kube-dns -n kube-system

修改所有待迁移物理机集群的节点/etc/resolv.conf配置,添加如下配置

search default.svc.cluster.local svc.cluster.local cluster.local nameserver <CoreDNS Pod_IP_1> nameserver <CoreDNS Pod_IP_2> nameserver <CoreDNS Pod_IP_n> vi /etc/resolv.conf search default.svc.cluster.local svc.cluster.local cluster.local svc.cluster.local nameserver 10.244.0.32 nameserver 10.244.0.33

通过ping在物理机节点测试K8S集群内域名是否正常访问

第二步:在K8S中创建TiDB集群

查看pd节点的地址和端口号

pd-ctl -u http://<address>:<port> member | jq .members | .[] | .client_urls ##执行结果如下: [root@tiup-172-16-5-144 ctl]# ./pd-ctl -u http://172.16.5.144:2379 member | jq .members | .[] | .client_urls [ "http://172.16.5.144:2379" ] [ "http://172.16.5.198:2379" ] [ "http://172.16.6.132:2379" ]

在K8S中创建目标TiDB集群(TiKV 节点个数不少于 3 个),并在 spec.pdAddresses 字段中指定待迁移 TiDB 集群的 PD 节点地址(以 http:// 开头)

spec ... pdAddresses: - http://pd1_addr:port - http://pd2_addr:port - http://pd3_addr:port ### 具体配置如下,仅供参: apiVersion: pingcap.com/v1alpha1 kind: TidbCluster metadata: name: tidb-test namespace: lqbyz spec: version: "v6.5.0" timezone: Asia/Shanghai hostNetwork: true imagePullPolicy: IfNotPresent enableDynamicConfiguration: true configUpdateStrategy: RollingUpdate pdAddresses: - http://172.16.5.xxx:2379 - http://172.16.5.xxx:2379 - http://172.16.6.xxx:2379 pd: baseImage: pingcap/pd requests: cpu: "100m" memory: "400Mi" storage: 12Gi limits: cpu: "2000m" memory: "4Gi" config: | [dashboard] internal-proxy = true lease = 3 enable-prevote = true replicas: 3 mountClusterClientSecret: false storageClassName: "local-hostpath" tidb: baseImage: pingcap/tidb maxFailoverCount: 6 replicas: 2 config: {} service: externalTrafficPolicy: Cluster type: NodePort mysqlNodePort: 30082 statusNodePort: 30092 tikv: baseImage: pingcap/tikv replicas: 3 requests: cpu: "100m" memory: "400Mi" storage: 50Gi limits: cpu: "2000m" memory: "4Gi" maxFailoverCount: 6 mountClusterClientSecret: false storageClassName: "local-hostpath" config: {} enablePVReclaim: false pvReclaimPolicy: Delete tlsCluster: {}

通过apply应用改配置,确认部署在 Kubernetes 内的 TiDB 集群与待迁移物理机 TiDB 集群组成的新集群是否正常运行。

在dashboar上可以查看所有组件信息

第三步:逐步缩容待迁移物理机集群各服务组件

缩容待迁移的集群物理机的 TiDB节点,将TiDB节点缩容至0

如果待迁移集群使用 TiUP 部署,参考缩容 TiDB/PD/TiKV 节点一节。

如果待迁移集群使用 TiDB Ansible 部署,参考缩容 TiDB 节点一节。

若通过负载均衡或数据库访问层中间件的方式接入待迁移 TiDB集群,则先修改配置,将业务流量迁移至目标 TiDB 集群,避免影响业务。

缩容待迁移集群物理机的 TiKV 节点,将TiKV节点缩容至0

如果待迁移集群使用 TiUP 部署,参考缩容 TiDB/PD/TiKV 节点一节。

如果待迁移集群使用 TiDB Ansible 部署,参考缩容 TiKV 节点一节。

依次缩容待迁移集群的 TiKV 节点,等待上一个 TiKV 节点对应的 store 状态变为 "tombstone" 后,再执行下一个 TiKV 节点的缩容操作。

可通过 PD Control 工具查看 store 状态

缩容待迁移集群 PD 节点,将TiKV节点缩容至0

如果待迁移集群使用 TiUP 部署,参考缩容 TiDB/PD/TiKV 节点一节。

如果待迁移集群使用 TiDB Ansible 部署,参考缩容 PD 节点一节。

第四部:删除容器环境下spec.pdAddresses字段

为避免后续对集群进行操作时产生困惑,迁移成功后,建议将新集群的 manifest 中的 spec.pdAddresses 字段删除。

总结

本文介绍通过Tiup部署管理的TiDB集群在不借助备份恢复工具通过和K8S网络打通将TiDB数据库迁移到通过tidb Operator管理的K8S环境中,从而实现由物理机迁移到K8S环境的目的,也可实现物理机和容器共同管理TiDB集群,最后通过缩容物理机实现tidb集群不需要中间工具就可以迁移到容器环境中。

版权声明:本文内容由网络用户投稿,版权归原作者所有,本站不拥有其著作权,亦不承担相应法律责任。如果您发现本站中有涉嫌抄袭或描述失实的内容,请联系我们jiasou666@gmail.com 处理,核实后本网站将在24小时内删除侵权内容。

上一篇:Dr-autosync TiDB 集群的计划内和计划外切换验证步骤
下一篇:云数据库TiDB免费试用初体验
相关文章