黄东旭解析 TiDB 的核心优势
493
2024-03-27
数据存放位置(因为我集群是默认部署,所以存放位置也是默认位置。如果自定义部署目录的话,数据存放位置也会变,不同的集群会有很大的区别,所以这里主要是讲方法):
1.1、查看Prometheus部署路径:
tiup cluster display test11.2、进入Prometheus部署目录,可以看到一个scripts目录,存放了Prometheus启动脚本:
cd /tidb-deploy/prometheus-9090/1.3、查看脚本,可以看到其中有--storage.tsdb.path这一项,对应的目录就是监控数据存放地址:
cat run_prometheus.sh在进程中查看
ps -ef |grep prometheus|grep "storage.tsdb.path"对应目录为监控历史数据存放位置
2.1、进入该目录(这一步也是决定缩容监控节点后历史监控数据是否保留的操作),备份历史监控数据:
cd /tidb-data/prometheus-9090/2.2、因历史数据量较大(默认保留30天的历史数据:--storage.tsdb.retention="30d",因为我的测试集群新搭建不久,也没什么数据量,所以数据并不是很多),所以进行压缩:
tar -zcvf prometheus-9090.tar.gz prometheus-9090/2.3、将压缩文件拷贝到备份目录,至此完成Prometheus历史数据备份:
mv prometheus-9090.tar.gz /root/backup/---------------------------------------------------------------割-------------------------------------------------------------
1、查看集群现有节点,确认需要缩容节点(自己部署用于测试的小集群,受限于硬件资源,只能单节点部署):
tiup cluster display test12、确认需缩容的节点信息:
172.21.0.8:9093、172.21.0.8:3000、172.21.0.8:9090三个节点
3、缩容前备份数据(参考文章开头的操作步骤)(如无需保留历史数据,则忽略这一步操作)
4、执行缩容操作:
tiup cluster scale-in test1 -N 172.21.0.8:9093,172.21.0.8:3000,172.21.0.8:90905、查看缩容后集群节点信息,尝试访问grafana,确认缩容符合预期:
tiup cluster display test1可以看到集群中现在只有tidb、tikv、pd节点,监控节点已经缩容掉
尝试访问grafana:
可以看到grafana已经无法访问,至此缩容操作完成
---------------------------------------------------------------割-------------------------------------------------------------
扩容集群监控节点:
1、编辑扩容文件:
vim scale.yaml monitoring_servers: -host: 172.21.0.8 ssh_port: 22 port: 9090 deploy_dir: "/tidb-deploy/prometheus-8249" data_dir: "/tidb-data/prometheus-8249" log_dir: "/tidb-deploy/prometheus-8249/log" grafana_servers:-host: 172.21.0.8 port: 3000 deploy_dir: /tidb-deploy/grafana-3000 alertmanager_servers:-host: 172.21.0.8 ssh_port: 22 web_port: 9093 cluster_port: 9094 deploy_dir: "/tidb-deploy/alertmanager-9093" data_dir: "/tidb-data/alertmanager-9093" log_dir: "/tidb-deploy/alertmanager-9093/log"2、执行扩容命令:
tiup cluster scale-out test1 scale.yaml3、扩容已经完成,查看集群扩容后节点信息:
监控节点已扩容完成
尝试访问grafana:
4、将备份的集群历史数据导入新部署的集群监控:
因为我们只需要集群的历史数据,所以将备份中历史数据文件导入新集群的监控数据存放目录即可
4.1、将备份历史数据解压缩:
tar -xvf prometheus-9090.tar.gz4.2、将数据文件拷贝到新集群的监控数据存放目录
cp 01G* /tidb-data/prometheus-8249/5、reload集群,使新集群加载导入的历史数据文件
tiup cluster reload test16、尝试访问grafana监控,时间选择7day,检验历史数据文件导入是否生效
历史数据导入成功,至此扩容集群监控节点及历史数据导入完成
回顾整个缩容过程,最容易出现问题的步骤就是不会考虑到保留历史数据,这一步其实是很重要重要的,比如说集群需要调整new_collations_enabled_on_first_bootstrap这个参数,只能考虑重新部署集群(version<=6.0),这时候就需要在销毁集群前将历史监控数据备份,集群重新部署完成后将历史监控数据再恢复,如果没有备份历史监控数据,就可能会有问题。就备份历史数据而言,其实操作起来很容易,只需将数据备份,导入到监控数据存放目录,然后reload即可。
以上就是缩容监控节点及历史监控数据备份恢复的操作步骤,希望对大家有所帮助。
版权声明:本文内容由网络用户投稿,版权归原作者所有,本站不拥有其著作权,亦不承担相应法律责任。如果您发现本站中有涉嫌抄袭或描述失实的内容,请联系我们jiasou666@gmail.com 处理,核实后本网站将在24小时内删除侵权内容。