本地 Kind 环境下体验 TiDB Operator 的最小实践

网友投稿 456 2024-04-09



本地Kind体验TiDB Operator最小实践

一、背景

二、准备环境

系统:基于 centos7.3 pure的虚拟机 配置:2c,4G IP:192.168.31.236 (虚拟机IP ) k8s:kind本地模拟k8s集群 TiDB:v5.4.0

本地 Kind 环境下体验 TiDB Operator 的最小实践

2.1 使用 kind 创建 Kubernetes 集群

目前比较通用的方式是使用 [kind](https://kind.sigs.k8s.io/) 部署本地测试 Kubernetes 集群。kind 适用于使用 Docker 容器作为集群节点运行本地 Kubernetes 集群。

2.1.1 部署前准备环境

请确保满足以下要求

docker:版本 >= 17.03

kubectl:版本 >= 1.12

kind:版本 >= 0.8.0

若使用 Linux, net.ipv4.ip_forward 需要被设置为 1

# 1、安装dockeryum remove docker docker-common docker-selinux docker-engine yuminstall -y yum-utils device-mapper-persistent-data lvm2 yum-config-manager --add-repo https://download.docker.com/linux/centos/docker-ce.repo yum install docker-ce # # 开机启动 systemctl start docker systemctlenable docker # # 查看版本 docker version [root@tidb-k3s .kube]# docker version Client: Docker Engine - Community Version: 20.10.14 API version: 1.41 Go version: go1.16.15 # # 安装docker-compose指定版本2.2.2 curl -L "https://github.com/docker/compose/releases/download/v2.2.2/docker-compose-$(uname -s)-$(uname -m)" -o /usr/local/bin/docker-compose && chmod +x /usr/local/bin/docker-compose docker-compose --version [root@tidb-k3s .kube]# docker-compose --version Docker Compose version v2.2.2# 2、安装kubectl curl -L "https://dl.k8s.io/release/$(curl-L -s https://dl.k8s.io/release/stable.txt)/bin/linux/amd64/kubectl" -o /usr/local/bin/kubectl chmod +x /usr/local/bin/kubectl [root@tidb-k3s .kube]# kubectl version Client Version: version.Info{Major:"1", Minor:"23", GitVersion:"v1.23.5", GitCommit:"c285e781331a3785a7f436042c65c5641ce8a9e9", GitTreeState:"clean", BuildDate:"2022-03-16T15:58:47Z", GoVersion:"go1.17.8", Compiler:"gc", Platform:"linux/amd64"} # 3、安装kind v0.12.0版本 curl -L "https://github.com/kubernetes-sigs/kind/releases/download/v0.12.0/kind-linux-amd64" -o /usr/local/bin/kind && chmod +x /usr/local/bin/kind [root@tidb-k3s .kube]# kind versionkind v0.12.0 go1.17.8 linux/amd64# 4、设置net.ipv4.ip_forward 为 1 vim /proc/sys/net/ipv4/ip_forward cat /proc/sys/net/ipv4/ip_forward 1 2.1.2 创建集群

kind create cluster

这个过程有点慢(需要下载1个多G的镜像)

检查集群是否创建成功:

[root@tidb-k3s bin]# kubectl cluster-infoKubernetes control plane is running at https://127.0.0.1:44141 CoreDNS is running at https://127.0.0.1:44141/api/v1/namespaces/kube-system/services/kube-dns:dns/proxy To further debug and diagnose cluster problems, usekubectl cluster-info dump.

Kubernetes 集群部署完成,现在就可以开始部署 TiDB Operator 了!

2.2 部署 TiDB Operator2.2.1 安装 TiDB Operator CRDs

1、raw.githubusercontent.com 国内不能直接访问,需要设置host

https://ipaddress.com/website/raw.githubusercontent.com#通过这个链接查看服务器ip

vim /etc/hosts 185.199.108.133 raw.githubusercontent.com 185.199.109.133 raw.githubusercontent.com 185.199.110.133 raw.githubusercontent.com 185.199.111.133 raw.githubusercontent.com

2、安装 CRD 到集群中

# 下载crd.yaml curl -L https://raw.githubusercontent.com/pingcap/tidb-operator/v1.3.2/manifests/crd.yaml -o crd.yaml # 创建 crd kubectl create -f crd.yaml # 删除 crd # kubectl delete -f crd.yaml # 查看crd kubectl get crd [root@tidb-k3s k8s]# kubectl get crd NAME CREATED AT backups.pingcap.com 2022-04-06T23:15:51Z backupschedules.pingcap.com2022-04-06T23:15:51Z dmclusters.pingcap.com 2022-04-06T23:15:51Z restores.pingcap.com 2022-04-06T23:15:52Z tidbclusterautoscalers.pingcap.com 2022-04-06T23:15:52Z tidbclusters.pingcap.com 2022-04-06T23:15:54Z tidbinitializers.pingcap.com2022-04-06T23:15:58Z tidbmonitors.pingcap.com 2022-04-06T23:15:59Z tidbngmonitorings.pingcap.com 2022-04-06T23:16:01Z2.2.2 安装 TiDB Operator1、安装helm# helm curl-L https://get.helm.sh/helm-v3.8.0-linux-amd64.tar.gz -o helm-v3.8.0-linux-amd64.tar.gztar -zxvf helm-v3.8.0-linux-amd64.tar.gz mv ./linux-amd64/helm /usr/local/bin/helm chmod +x /usr/local/bin/helm # helm version [root@tidb-k3s k8s]# helm version version.BuildInfo{Version:"v3.8.0", GitCommit:"d14138609b01886f544b2025f5000351c9eb092e", GitTreeState:"clean", GoVersion:"go1.17.5"}2、添加 PingCAP 仓库helm repo add pingcap https://charts.pingcap.org/ #helm repo list [root@tidb-k3s k8s]# helm repo list NAME URL pingcap https://charts.pingcap.org/3、为 TiDB Operator 创建一个命名空间kubectl create namespace tidb-admin4、安装 TiDB Operatorhelm install--namespace tidb-admin tidb-operator pingcap/tidb-operator --version v1.3.2

注意:安装tidb-operator 如果出现下面的提示:

Error: INSTALLATION FAILED: cannot re-use a name that is still in use

# 重新创建namespace helm ls --all-namespaces kubectl delete namespace tidb-admin kubectl create namespace tidb-admin 5、检查 TiDB Operator 组件是否正常运行watch kubectl get pods --namespace tidb-admin -l app.kubernetes.io/instance=tidb-operator

当所有的 pods 都处于 Running 状态时,继续下一步部署tidb集群。

注意:如果所有的pod都一直处于pending,需要检查虚拟机的cpu和内存是不是够用 2核4G以上即可。

三、部署tidb cluster和监控

3.1 部署tidb-cluster集群3.1.1 下载tidb-cluster.yaml# 下载tidb-cluster.yaml curl-L https://raw.githubusercontent.com/pingcap/tidb-operator/master/examples/basic/tidb-cluster.yaml -o tidb-cluster-basic.yaml3.1.2 创建tidb集群命名空间kubectl create namespace tidb-cluster3.1.3 部署tidb-cluster集群# 使用上面下载的集群拓扑tidb-cluster-basic.yaml kubectl -n tidb-cluster apply -f ./tidb-cluster-basic.yaml # 立即提示 created [root@tidb-k3s k8s]# kubectl -n tidb-cluster apply -f ./tidb-cluster-basic.yaml tidbcluster.pingcap.com/basic created3.1.4 观察pod创建# 观察pod创建 watch kubectl get pod -n tidb-cluster1、先创建discoery和pd 2、创建完pd才开始创建tikv 3、tikv创建完之后开始创建tidb-server 3.1.5 对外暴露端口14000# 获取 tidb-cluster 命名空间中的服务列表 4000端口是否准备完毕 kubectl get svc -n tidb-cluster # 使用端口转发 监听0.0.0.0:14000 转发到tidb-server的4000 kubectl port-forward --address 0.0.0.0 -n tidb-cluster svc/basic-tidb 14000:4000 > pf14000.out & # 查看监听端口 netstat -tpln # 如果端口 14000 已经被占用,可以更换一个空闲端口。命令会在后台运行,并将输出转发到文件 pf14000.out。 3.1.6 连接 TiDB-server1、使用mysql 客户端连接(其他client也可以)# 此处的 192.168.31.236 为虚拟机的ip,如果要使用127.0.0.1可以设置本机端口转发到虚拟机 # 保留注释,以便使用hint mysql --comments -h 192.168.31.236 -P 14000 -u root #提示 Welcome to the MySQL monitor. Commands end with ; or \g. Your MySQL connection id is 179 Server version: 5.7.25-TiDB-v5.4.0 TiDB Server (Apache License 2.0)Community Edition, MySQL5.7 compatible mysql>2、使用测试sqlmysql> use test; mysql> create table hello_world (id int unsigned not null auto_increment primary key, v varchar(32)); mysql> select * from information_schema.tikv_region_status where db_name=database() and table_name=hello_world\G # 查看版本号 mysql> selecttidb_version()\G # 查询 TiKV 存储状态 mysql> select * from information_schema.tikv_store_status\G # 查看集群基本信息 mysql> select * from information_schema.cluster_info\G 3.2 部署监控3.2.1 下载tidb-monitor.yamlcurl-L https://raw.githubusercontent.com/pingcap/tidb-operator/master/examples/basic/tidb-monitor.yaml -o tidb-monitor-basic.yaml3.2.2 部署监控节点kubectl -n tidb-cluster apply -f ./tidb-monitor-basic.yaml3.2.3 观察监控pod创建watch kubectl get pod -n tidb-cluster

获取服务列表 kubectl get svc -n tidb-cluster

# 获取 tidb-cluster 命名空间中的服务列表 3 [root@tidb-k3s k8s]# kubectl get svc -n tidb-cluster NAME TYPE CLUSTER-IP EXTERNAL-IP PORT(S)AGE basic-discovery ClusterIP10.96.206.145 <none> 10261/TCP,10262/TCP 61m basic-grafana ClusterIP 10.96.190.13 <none> 3000/TCP 22m basic-monitor-reloader ClusterIP 10.96.16.223 <none> 9089/TCP 22m basic-pd ClusterIP 10.96.19.73 <none> 2379/TCP 61m basic-pd-peer ClusterIP None<none> 2380/TCP,2379/TCP 61m basic-prometheus ClusterIP 10.96.109.172 <none> 9090/TCP 22m basic-tidb ClusterIP 10.96.37.140 <none> 4000/TCP,10080/TCP 47m basic-tidb-peer ClusterIP None <none> 10080/TCP 47m basic-tikv-peer ClusterIP None<none> 20160/TCP 58m3.2.4 对外暴露端口2379,3000kubectl port-forward --address 0.0.0.0 -n tidb-cluster svc/basic-grafana 3000:3000 > pf3000.out & kubectl port-forward --address 0.0.0.0 -n tidb-cluster svc/basic-pd 2379:2379 > pf2379.out & #注意:这里要加上 --address 0.0.0.0,否则 外网无法访问3.2.5 测试Dashboard

http://192.168.31.236:2379/dashboard/ root=

3.2.5.1 概况 3.2.5.2 TopSql

1、安装NgMonitoring

cat << EOF | kubectl apply -n tidb-cluster -f -apiVersion: pingcap.com/v1alpha1 kind: TidbNGMonitoring metadata: name: main-cluster-monitoring spec: clusters: - name: basic namespace: tidb-cluster ngMonitoring: requests: storage: 1Gi version: v5.4.0 # storageClassName: default baseImage: pingcap/ng-monitoring EOF # 提示 # tidbngmonitoring.pingcap.com/main-cluster-monitoring created

2、等待pod安装成功进入running状态

3、安装成功后 ,刷新dashboard。

1)、打开设置(topSQL) http://192.168.31.236:2379/dashboard/#/topsql

4、点击保存后,过几分钟 topsql将会有数据。

3.2.6 测试grafana

http://192.168.31.236:3000/ admin=admin

四、扩容与缩容

1、进行扩容操作,可将某个组件的 replicas调大。扩容操作会按照 Pod 编号由小到大增加组件 Pod,直到 Pod 数量与 replicas 值相等。 2、进行缩容操作,可将某个组件的 replicas调小。缩容操作会按照 Pod 编号由大到小删除组件 Pod,直到 Pod 数量与 replicas 值相等。

3、查看集群水平扩缩容状态

watch kubectl -n ${namespace} get pod -o wide

提示: 1、PD 和 TiDB 通常需要 10 到 30 秒左右的时间进行扩容或者缩容。 2、TiKV 组件由于涉及到数据搬迁,通常需要 3 到 5 分钟来进行扩容或者缩容。

4.1 水平扩容 2个tidb,最终实现3个tidb

按需修改 TiDB 集群组件的 replicas 值。例如,执行以下命令可将 PD 的 replicas 值设置为 3:

# kubectl get tidbcluster ${cluster_name} -n ${namespace} -oyaml # # 查看 kubectl get tidbcluster basic -n tidb-cluster -o yaml # kubectl patch -n ${namespace} tc ${cluster_name} --type merge --patch {"spec":{"pd":{"replicas":3}}} # 设置 replicas为3 (即扩容2个tidb) kubectl patch -n tidb-cluster tc basic --type merge --patch {"spec":{"tidb":{"replicas":3}}} 4.2 水平扩容2个pd,2个tikv 最终实现 333kubectl patch -n tidb-cluster tc basic --type merge --patch {"spec":{"pd":{"replicas":3}}} kubectl patch -n tidb-cluster tc basic --type merge --patch {"spec":{"tikv":{"replicas":3}}} # 查看pod创建情况 kubectl get pod -n tidb-cluster [root@tidb-k3s k8s]# kubectl get pod -n tidb-cluster NAME READY STATUS RESTARTS AGE basic-discovery-55fd6db97f-k48xf1/1 Running 0 147m basic-monitor-0 4/4 Running 0 108m basic-pd-0 1/1 Running 0 147m basic-pd-1 1/1 Running 2 15m basic-pd-2 1/1 Running 0 14m basic-tidb-0 2/2 Running0 133m basic-tidb-1 2/2 Running 0 23m basic-tidb-2 2/2 Running 0 23m basic-tikv-0 1/1 Running 0 144m basic-tikv-1 1/1 Running 1 (3m12s ago) 12m main-cluster-monitoring-ng-monitoring-0 1/1 Running 0 75m

我这里在创建basci-tikv-2的时候较慢(受限于内存和cpu)。

4.3 水平缩容 2个tidb、2个tikv,2个pd# 缩容 kubectl patch -n tidb-cluster tc basic --type merge --patch {"spec":{"pd":{"replicas":1}}} kubectl patch -n tidb-cluster tc basic --type merge --patch {"spec":{"tikv":{"replicas":1}}} kubectl patch -n tidb-cluster tc basic --type merge --patch {"spec":{"tidb":{"replicas":1}}} # 查看pod创建情况 watch kubectl get pod -n tidb-cluster 4.4 垂直扩缩容

通过增加或减少 Pod 的资源限制,来达到集群扩缩容的目的。 垂直扩缩容本质上是 Pod 滚动升级的过程。

提示:垂直扩缩容和扩缩容其他组件整理不做演示,请参考 https://docs.pingcap.com/zh/tidb-in-kubernetes/stable/scale-a-tidb-cluster

五、升级集群

5.1 升级TiDB集群

5.1.1 在 TidbCluster CR 中,修改待升级集群的各组件的镜像配置:

# kubectl edit tc ${cluster_name} -n ${namespace} kubectl edit tc basic -n tidb-cluster #一般修改 `spec.version` 即可。

5.1.2 查看升级进度

watch kubectl -n tidb-cluster get pod -o wide

当所有 Pod 都重建完毕进入 Running 状态后,升级完成。

总结与思考

总结

1、安装完成不易,在此记录心路历程。感谢tidb官网、感谢tidber!

2、TiDB Operator的其他功能需要更多的探索学习!

思考

未来ALL in TIdb,使用k8s还是裸机tiup的方式,这个疑问后续继续探索。

谢谢!

版权声明:本文内容由网络用户投稿,版权归原作者所有,本站不拥有其著作权,亦不承担相应法律责任。如果您发现本站中有涉嫌抄袭或描述失实的内容,请联系我们jiasou666@gmail.com 处理,核实后本网站将在24小时内删除侵权内容。

上一篇:时间类型列上创建索引的风险与建议
下一篇:本地备份实操:使用br工具备份TiDB数据库的技巧
相关文章