黄东旭解析 TiDB 的核心优势
460
2024-02-26
在使用 TiDB 集群的过程中,经常需要用到扩缩容等常规操作,还会经常发现某个 Pod 存在内存泄漏等问题,需要对集群进行重启,本文描述了如何优雅滚动重启 TiDB 集群内某个组件的所有 Pod,或优雅重启单个 TiKV Pod
TiDB水平扩缩容操作是指通过增加或减少pod的数量,来达到集群扩缩容的目的,扩缩容集群时,只需要修改replicas的值就可以对TiDB集群进行扩缩容操作
如果要进行扩容操作,可将某个组件的 replicas 值调大。扩容操作会按照 Pod 编号由小到大增加组件 Pod,直到 Pod 数量与 replicas 值相等。
如果要进行缩容操作,可将某个组件的 replicas 值调小。缩容操作会按照 Pod 编号由大到小删除组件 Pod,直到 Pod 数量与 replicas 值相等。
kubectl patch -n ${namespace} tc ${cluster_name} --type merge --patch {"spec":{"tiflash":{"replicas":3}}}
TiFlash也有三种方法进行扩缩容,以下采用第一种方法进行扩容 [root@k8s-master tidb]# kubectl patch -n tidb tc yz --type merge --patch {"spec":{"tiflash":{"replicas":2}}} tidbcluster.pingcap.com/yz patched [root@k8s-master tidb]# kubectl get pod -ntidb NAME READY STATUS RESTARTS AGE lqb-discovery-747b84c59d-r72lt 1/1 Running 2 16d lqb-pd-0 1/1 Running 0 109m lqb-pd-1 1/1 Running 2 16d lqb-pd-2 1/1 Running 1 7d lqb-tidb-0 2/2 Running 4 16d lqb-tidb-1 2/2 Running 12 7d4h lqb-tikv-0 1/1 Running 0 112m lqb-tikv-1 1/1 Running 2 16d lqb-tikv-2 1/1 Running 1 7d4h lqb-tikv-3 1/1 Running 3 16d monitor-monitor-0 4/4 Running 9 19d tidbngmonitoring-lqb-ng-monitoring-0 1/1 Running 0 141m yz-discovery-6c89b45d5d-nkps7 1/1 Running 1 26h yz-pd-0 1/1 Running 2 26h yz-tidb-0 2/2 Running 2 26h yz-tidb-1 2/2 Running 0 7m2s yz-tiflash-0 4/4 Running 0 31m yz-tiflash-1 4/4 Running 0 7m2s yz-tiflash-2 4/4 Running 0 2m54s yz-tikv-0 1/1 Running 1 26h yz-tikv-1 1/1 Running 1 6h46m yz-tikv-2 1/1 Running 0 80m缩容的方法如果缩容 TiFlash 后,TiFlash 集群剩余 Pod 数大于等于所有数据表的最大副本数 N,则直接进行下面第 6 步。如果缩容 TiFlash 后,TiFlash 集群剩余 Pod 数小于所有数据表的最大副本数 N,则执行以下步骤:
参考访问 TiDB 集群的步骤连接到 TiDB 服务。
针对所有副本数大于集群剩余 TiFlash Pod 数的表执行如下命令:
alter table <db_name>.<table_name> set tiflash replica ${pod_number};${pod_number} 为缩容 TiFlash 后,TiFlash 集群的剩余 Pod 数。
等待并确认相关表的 TiFlash 副本数更新。连接到 TiDB 服务,执行如下命令,查询相关表的 TiFlash 副本数:
SELECT * FROM information_schema.tiflash_replica WHERE TABLE_SCHEMA = <db_name> and TABLE_NAME = <table_name>;修改 spec.tiflash.replicas对 TiFlash 进行缩容。你可以通过以下命令查看 Kubernetes 集群中对应的 TiDB 集群中的 TiFlash 是否更新到了你的期望定义。检查以下命令输出内容中,spec.tiflash.replicas 的值是否符合预期值。
kubectl get tidbcluster ${cluster-name} -n ${namespace} -oyaml如果集群中部署了 TiCDC,可以通过修改 spec.ticdc.replicas 对 TiCDC 进行扩缩容。例如,执行以下命令可将 TiCDC 的 replicas 值设置为 3:
kubectl patch -n ${namespace} tc ${cluster_name} --type merge --patch {"spec":{"ticdc":{"replicas":3}}}当所有的组件的pod数量都达到了预设值,并且都是running状态,表明扩缩容完成。
[root@k8s-master tidb]# kubectl get pod -ntidb -w NAME READY STATUS RESTARTS AGE lqb-discovery-747b84c59d-6fcqv 1/1 Running 0 18h lqb-pd-0 1/1Running0 18h lqb-tidb-0 2/2 Running 0 18h lqb-tikv-0 1/1 Running 0 18h tidbmonitor-monitor-0 4/4 Running 0 17h tidbngmonitoring-yz-ng-monitoring-0 1/1 Running 0 19h yz-discovery-6c89b45d5d-nkps7 1/1 Running 1 2d20h yz-pd-0 1/1Running2 2d20h yz-tidb-0 2/2 Running 2 2d20h yz-tidb-1 2/2 Running 0 41h yz-tidb-initializer-b8l8f 0/1 Completed 0 19h yz-tiflash-0 4/4 Running 3 24h yz-tiflash-1 4/4 Running 0 17h yz-tikv-0 1/1 Running 1 2d20h yz-tikv-1 1/1 Running 1 2注意
PD、TiKV、TiFlash 组件在扩缩容的过程中不会触发滚动升级操作。
TiKV 组件在缩容过程中,TiDB Operator 会调用 PD 接口将对应 TiKV 标记为下线,然后将其上数据迁移到其它 TiKV 节点,在数据迁移期间 TiKV Pod 依然是 Running 状态,数据迁移完成后对应 Pod 才会被删除,缩容时间与待缩容的 TiKV 上的数据量有关,可以通过 kubectl get -n ${namespace} tidbcluster ${cluster_name} -o json | jq .status.tikv.stores查看 TiKV 是否处于下线Offline 状态。
当 TiKV UP 状态的 store 数量 <= PD 配置中 MaxReplicas 的参数值时,无法缩容 TiKV 组件。
TiKV 组件不支持在缩容过程中进行扩容操作,强制执行此操作可能导致集群状态异常。假如异常已经发生,可以参考 TiKV Store 异常进入 Tombstone 状态 进行解决。
TiFlash 组件缩容处理逻辑和 TiKV 组件相同。
PD、TiKV、TiFlash 组件在缩容过程中被删除的节点的 PVC 会保留,并且由于 PV 的 Reclaim Policy 设置为 Retain,即使 PVC 被删除,数据依然可以找回。
垂直扩缩容操作指的是通过增加或减少 Pod 的资源限制,来达到集群扩缩容的目的。垂直扩缩容本质上是 Pod 滚动升级的过程。
PD、TiKV、TiDB、TiFlash、TiCDC 进行垂直扩缩容。
如果要对 PD、TiKV、TiDB 进行垂直扩缩容,通过 kubectl 修改集群所对应的 TidbCluster 对象的 spec.pd.resources、spec.tikv.resources、spec.tidb.resources 至期望值。
如果要对 TiFlash 进行垂直扩缩容,修改 spec.tiflash.resources 至期望值。
如果要对 TiCDC 进行垂直扩缩容,修改 spec.ticdc.resources 至期望值。
注意
如果在垂直扩容时修改了资源的 requests 字段,并且 PD、TiKV、TiFlash 使用了 Local PV,那升级后 Pod 还会调度回原节点,如果原节点资源不够,则会导致 Pod 一直处于 Pending 状态而影响服务。
TiDB 是一个可水平扩展的数据库,推荐通过增加节点个数发挥 TiDB 集群可水平扩展的优势,而不是类似传统数据库升级节点硬件配置来实现垂直扩容。
在使用TiDB集群的过程中,如果发现某个pod存在内存泄露等问题需要对集群进行重启,本文通过优雅滚动重启TiDB集群内某个组件的所有pod,或优雅重启单个组件的单个pod.
在生产环境中,未经过优雅重启而手动删除某个 TiDB 集群 Pod 节点是一件极其危险的事情,虽然 StatefulSet 控制器会将 Pod 节点再次拉起,但这依旧可能会引起部分访问 TiDB 集群的请求失败。
通过 kubectl edit tc ${name} -n ${namespace} 修改集群配置,为期望优雅滚动重启的 TiDB 集群组件 Spec 添加 annotation tidb.pingcap.com/restartedAt,Value 设置为当前时间。以下示例中,为组件 pd、tikv、tidb都设置了 annotation,表示将优雅滚动重启以上三个 TiDB 集群组件的所有 Pod。可以根据实际情况,只为某个组件设置 annotation。
下边例子是重启tidb服务组件,其他组件的重启只需要添加
annotations:
tidb.pingcap.com/restartedAt: 2022-12-08T11:58
[root@k8s-master tidb]# kubectl edit tc/yz -ntidb apiVersion: pingcap.com/v1alpha1 kind: TidbCluster metadata: annotations: kubectl.kubernetes.io/last-applied-configuration: | {"apiVersion":"pingcap.com/v1alpha1","kind":"TidbCluster","metadata":{"annotations":{},"name":"yz","namespace":"tidb"},"spec":{"enableDynamicConfiguration":true,"enablePVReclaim":false,"hostNetwork":false,"imagePullPolicy":"IfNotPresent","pd":{"baseImage":"pingcap/pd","config":"[dashboard]\n internal-proxy = true\n","mountClusterClientSecret":false,"replicas":1,"requests":{"cpu":"100m","storage":"12Gi"},"storageClassName":"ssd-storage"},"pvReclaimPolicy":"Retain","tidb":{"baseImage":"pingcap/tidb","config":{},"replicas":2,"requests":{"cpu":"100m"},"service":{"externalTrafficPolicy":"Cluster","mysqlNodePort":30032,"statusNodePort":30052,"type":"NodePort"}},"tiflash":{"baseImage":"pingcap/tiflash","config":"[storage]\n [storage.main]\n dir = [\"/data0/db\"]\n [storage.raft]\n dir = [\"/data0/kvstore\"]\n","maxFailoverCount":0,"replicas":3,"storageClaims":[{"resources":{"requests":{"storage":"50Gi"}},"storageClassName":"local-storage"},{"resources":{"requests":{"storage":"50Gi"}},"storageClassName":"local-storage"}]},"tikv":{"baseImage":"pingcap/tikv","config":{},"mountClusterClientSecret":false,"replicas":1,"requests":{"cpu":"100m","storage":"12Gi"},"storageClassName":"ssd-storage"},"timezone":"Asia/Shanghai","tlsCluster":{},"version":"v6.1.0"}} creationTimestamp: "2022-12-05T07:18:47Z" generation: 642 name: yz namespace: tidb resourceVersion: "53232514" selfLink: /apis/pingcap.com/v1alpha1/namespaces/tidb/tidbclusters/yz uid: 50b1bdbc-629c-424e-9247-e36426ebd23c spec: discovery: {} enableDynamicConfiguration: true enablePVReclaim: false hostNetwork: false imagePullPolicy: IfNotPresent pd: baseImage: pingcap/pd config: | [dashboard] internal-proxy = truemaxFailoverCount: 3 mountClusterClientSecret: false replicas: 1 requests: cpu: 100m storage: 12Gi storageClassName: ssd-storage pvReclaimPolicy: Retain tidb: annotations: tidb.pingcap.com/restartedAt: 2022-12-09T11:58 baseImage: pingcap/tidb config: | [log] [log.file] max-backups = 3 maxFailoverCount: 3 replicas: 2 requests: cpu: 100m service: externalTrafficPolicy: Cluster mysqlNodePort: 30032 statusNodePort: 30052 type: NodePort [root@k8s-master tidb]# kubectl get pod -ntidb -owide -w |grep yz tidbngmonitoring-yz-ng-monitoring-0 1/1 Running 0 44h 10.244.3.123 k8s-node6 <none> <none> yz-discovery-6c89b45d5d-nkps7 1/1 Running 1 3d20h 10.244.2.15 k8s-node2 <none> <none> yz-pd-0 1/1 Running 2 3d20h 10.244.2.8 k8s-node2 <none> <none> yz-tidb-0 2/2 Running 0 23h 10.244.2.45 k8s-node2 <none> <none> yz-tidb-1 1/2 Running 0 11s 10.244.2.52 k8s-node2 <none> <none> yz-tidb-initializer-b8l8f 0/1 Completed 0 43h 10.244.2.36 k8s-node2 <none> <none> yz-tiflash-0 4/4 Running 3 2d 10.244.1.58 k8s-node1 <none> <none> yz-tiflash-1 4/4 Running 0 41h 10.244.3.125 k8s-node6 <none> <none> yz-tikv-0 1/1 Running 0 23h 10.244版权声明:本文内容由网络用户投稿,版权归原作者所有,本站不拥有其著作权,亦不承担相应法律责任。如果您发现本站中有涉嫌抄袭或描述失实的内容,请联系我们jiasou666@gmail.com 处理,核实后本网站将在24小时内删除侵权内容。