TiDB Placement Rules in SQL 实践应用 TiDB Book Rush

网友投稿 611 2024-02-02

本文源自“TiDB 6.0 Book Rush” 投稿,作者吴永健简介TiDB 6.0 版本正式提供了基于 SQL 接口的数据放置框架(Placement Rules in SQL),特性用于通过 SQL 接口配置数据在 TiKV 集群中的放置位置。

TiDB Placement Rules in SQL 实践应用  TiDB Book Rush

通过该功能,用户可以将表和分区指定部署至不同的地域、机房、机柜、主机适用场景包括低成本优化数据高可用策略、保证本地的数据副本可用于本地 Stale Read 读取、遵守数据本地要求等它支持针对任意数据提供副本数、角色类型、放置位置等维度的灵活调度管理能力,这使得在多业务共享集群、跨 AZ 部署等场景下,TiDB 得以提供更灵活的数据管理能力,满足多样的业务诉求。

该功能可以实现以下业务场景:合并多个不同业务的数据库,大幅减少数据库常规运维管理的成本;增加重要数据的副本数,提高业务可用性和数据可靠性;将最新数据存入 ***,历史数据存入 HDD,降低归档数据存储成本;

把热点数据的 leader 放到高性能的 TiKV 实例上;将冷数据分离到不同的存储中以提高可用性使用放置规则时有 2 种方式(1) 直接放置直接放置是指在 create table 时或使用 alter table 方式直接在表的 DDL 语句中使用放置选项。

create table jian(id int) primary_region=bj folllowers=4(2) 放置策略使用放置策略时首先通过 create placement policy 建立放置策略,然后在 create table 或 alter table 中直接指定放置策略。

create placement policy location_policy primary_region=bjfolllowers=4; alter table jian placement policy location_policy

;Copy使用时:创建放置策略会使 placement policy 更加易于管理,通过修改放置策略可以直接更新所有使用该策略的对象另一方面对于 create table 时使用和 alter table 时指定,这里也建议大家能注意以下两点:。

create 方式建议在项目初期的库表结构设计节点进行设定,那么在初始话项目数据库的时候可以一次成型否则需要将整个表进行 recreate,此处就需要考虑历史数据的问题alter 方式由于是使用 ALTER 进行修改当表数据量大的时候可能会产生大量数据 peer 的移动,可能会消耗一定的资源,建议在业务低峰进行,但是也较好地弥补了一些即存表没有进行放置规则的设定后期需要添加,或者版本升级后需要使用新特性的问题。

Placement Rules in SQL 的应用场景猜想由于 Placement Rules in SQL 的灵活性,在使用时可以“因地适宜”以下是几个可以考虑的场景:当采取两地三中心或跨地域数据中心部署的时候,由于 TiDB 是无状态的应用那么可以利用就近原则将业务接入点进行分块,同时对于数据的分布也可以采用同样的方式。

使数据的存放可以达到“本地数据本地访问”,即所有的数据存储,管理在本地区内完成减少了数据跨地区复制延迟,降低流量成本当系统 IO 存在某些瓶颈时可以考虑将某些 TiKV 节点的数据盘更换为 ***,之后经过 Placement Rules 动态调整数据副本的存放策略,提高数据库的 IO 性能。

对于一些历史及记录类的数据可以选择存放在一些主要由普通硬盘构成的 TiKV 节点上使硬件资源的配置得到充分的利用,而又不铺张浪费同时也考虑当进行硬件更换时可以使用 Placement Rules 对数据分布进行调整以减小 TiKV 节点下线时的 peer 移动所需要的时间,因为通过 Placement Rules 可以将数据移动的动作提前进行分散在平时的小维护中。

由于数据的重要程度不同对于以往的副本设置可能更偏向于全局,引入 Placement Rules in SQL 后对于数据的副本数就可以进行灵活的限定,对高要求的数据表进行多副本设置,对于不太紧要的表尽量的减小副本数,在保证数据的安全性的情况下又可以节约存储资源。

如果业务采用了分库的模式为了减少运维成本,那么也可以考虑进行数据库整合,将分散的 MySQL 实例迁移到一个 TiDB 集群中以多 schema 的方式存在,同时根据 Placement Rules 原始业务数据库的数据存放节点仍然可以放置在原来的硬件节点上,但是逻辑上由于整合到了一个数据库集群中升级、打补丁、备份计划、扩缩容等日常运维管理频率可以大幅缩减,降低管理负担提升效率。

对于经典的热点问题在 Placement Rules in SQL 也添加了更多的解决方案,通过 Placement Rules in SQL 也可以进行热点表的分布调整,而且也更加的方便与安全虽然不能精确到 Region 的级别,但是在表的粒度上也多提供了一种处理方法。

下面我们来详细看看 placement policy 的使用方法:当前 TiKV 节点以及集群的信息如下:ID Role Host Ports OS/Arch Status Data Dir Deploy Dir

\-- ---- ---- ----- ------- ------ -------- ----------

192.168.135.148:9093 alertmanager 192.168.135.148 9093/9094 linux/x86_64 Up /tidb-data/alertmanager-9093 /tidb-deploy/alertmanager-9093

192.168.135.148:3000 grafana 192.168.135.148 3000 linux/x86_64 Up - /tidb-deploy/grafana-3000

192.168.135.148:2379 pd 192.168.135.148 2379/2380 linux/x86_64 Up|L|UI /tidb-data/pd-2379 /tidb-deploy/pd-2379

192.168.135.148:9090 prometheus 192.168.135.148 9090/12020 linux/x86_64 Up /tidb-data/prometheus-9090 /tidb-deploy/prometheus-9090

192.168.135.148:4000 tidb 192.168.135.148 4000/10080 linux/x86_64 Up - /tidb-deploy/tidb-4000

192.168.135.148:20160 tikv 192.168.135.148 20160/20180 linux/x86_64 Up /tidb-data/tikv-20160 /tidb-deploy/tikv-20160

192.168.135.148:20161 tikv 192.168.135.148 20161/20181 linux/x86_64 Up /tidb-data/tikv-20161 /tidb-deploy/tikv-20161

192.168.135.148:20162 tikv 192.168.135.148 20162/20182 linux/x86_64 Up /tidb-data/tikv-20162 /tidb-deploy/tikv-20162

Copy这里有一点需要大家注意一下:默认的 PLACEMENT POLICY 是需要以 region 来作为区分标签的,所以在创建 TiKV 的时候这里需要明确的指定 TiKV 的 region 的标签,不然的话在show placement labels 时是无法看到 region lable 的。

这里可以参照官方文档的建议PLACEMENT RULES 的使用创建 PLACEMENT POLICY,并指定 PLACEMENT POLICY,定制其副本放置的位置这里创建一个 PLACEMENT POLICY 使其 PRIMARY_REGION 放置在 region lable 为 bj 的 tikv 节点上,其余副本放置在 region lable 为 dl,sz 的 tikv 节点上。

注意:primary region 必须包含在 region 的定义中此处的 Raft leader 在 4 号 store 上,看之前开头的环境信息可以验证 PLACEMENT POLICY 已经生效

(root\@127.0.0.1)\[test]12:00:14> CREATE PLACEMENT POLICY jianplacementpolicy PRIMARY_REGION=bjREGIONS

=bj,dl,sz; Query OK, 0 rows affected (0.10 sec)(root\@127.0.0.1)\[test]12:00:32> CREATE TABLE jian1 (

id INT) PLACEMENT POLICY=jianplacementpolicy; Query OK, 0 rows affected (0.10 sec)(root\@127.0.0.1)\[

test]12:03:36> show table jian1 regions\G REGION_ID: 135 START_KEY: t_68\_ END_KEY: t_69\_ LEADER_ID:

137 LEADER_STORE_ID: 4 这里可以看到store_id是4 PEERS: 136, 137, 138 SCATTERING:

0 WRITTEN_BYTES: 39 READ_BYTES: 0 APPROXIMATE_SIZE(MB): 1 APPROXIMATE_KEYS: 01 row inset(0.00 sec)Copy

创建表不指定 PLACEMENT POLICY,之后修改 PLACEMENT POLICY 定制其副本放置的位置leader 的 store 节点由原来的 1 变为了 4,看之前开头的环境信息可以验证 PLACEMENT POLICY 已经生效,可使用这个特性来修改表的 leader 节点或者当有热点问题时也可以变相的通过这种方式去修改频繁访问的表的 leader 所在的 tikv 的节点位置

(root\@127.0.0.1)\[test]12:03:39> create table jian2(id int); Query OK, 0 rows affected (0.10 sec)(root

\@127.0.0.1)\[test]12:05:14> show table jian2 regions\G \*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\

*\*\*\*\* 1. row \*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\* REGION_ID: 2 START_KEY: t_70\

_ END_KEY: LEADER_ID: 3 LEADER_STORE_ID: 1 PEERS: 3, 63, 85 SCATTERING: 0 WRITTEN_BYTES: 0 READ_BYTES:

0 APPROXIMATE_SIZE(MB): 1 APPROXIMATE_KEYS: 01 row inset(0.00 sec)(root\@127.0.0.1)\[test]12:05:16> alter table jian2 PLACEMENT

POLICY=jianplacementpolicy; Query OK, 0 rows affected (0.09 sec)(root\@127.0.0.1)\[test]12:05:50> show table jian2 regions

\G \*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\* 1. row \*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*

\*\*\*\*\*\*\*\*\* REGION_ID: 143 START_KEY: t_70\_ END_KEY: t_71\_ LEADER_ID: 145 LEADER_STORE_ID: 4

PEERS: 144, 145, 146 SCATTERING: 0 WRITTEN_BYTES: 0 READ_BYTES: 0 APPROXIMATE_SIZE

(MB): 1 APPROXIMATE_KEYS: 01 row inset(0.00 sec)Copy通过 PLACEMENT POLICY 修改表的副本数Follower 的数量例如 FOLLOWERS=2 表示数据有 3 个副本(2 个 follower 和 1 个 leader)。

(root\@127.0.0.1)\[test]12:10:34> alter PLACEMENT POLICY jianplacementpolicy FOLLOWERS=1; Query OK,

0 rows affected (0.11 sec)(root\@127.0.0.1)\[test]12:10:40> show table jian2 regions\G \*\*\*\*\*\*\

*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\* 1. row \*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*

\* REGION_ID: 143 START_KEY: t_70\_ END_KEY: t_71\_ LEADER_ID: 145 LEADER_STORE_ID: 4 PEERS: 144, 145

**副本数从 3 个已经调整到了 2 个 ** SCATTERING: 0 WRITTEN_BYTES: 0 READ_BYTES: 0 APPROXIMATE_SIZE

(MB): 1 APPROXIMATE_KEYS: 01 row inset(0.00 sec)(root\@127.0.0.1)\[test]12:10:44> alter PLACEMENT POLICY jianplacementpolicy

FOLLOWERS=2; Query OK, 0 rows affected (0.09 sec)(root\@127.0.0.1)\[test]12:10:59> show table jian2 regions

\G \*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\* 1. row \*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*

\*\*\*\*\*\*\*\*\* REGION_ID: 143 START_KEY: t_70\_ END_KEY: t_71\_ LEADER_ID: 145 LEADER_STORE_ID: 4

PEERS: 144, 145, 148 SCATTERING: 0 WRITTEN_BYTES: 0 READ_BYTES: 0 APPROXIMATE_SIZE(MB): 1 APPROXIMATE_KEYS:

01 row inset(0.02 sec)Copy修改 PLACEMENT POLICY 定义注意:修改定义时需要将原来的定义都带上否则会将其覆盖这一点在官方文档中并没有特殊说明,也是自己在测试这个功能的时候偶然的发现,目前官方也没有直接修改的语法,所以大家在修改放置规则的时候一定要注意之前的定义以免将之前的定义覆盖。

########################################################## 之前的 PRIMARY_REGION=bjREGIONS=bj,dl,sz 定义已经被覆盖了

##########################################################CopyPRIMARY_REGION 节点宕机如果 PRIMARY_REGION 的 TiKV 节点宕机,那么 leader 节点也会转移到非 PRIMARY_REGION 节点,当 TiKV 节点恢复正常后 leader 节点也会随之转移回来

以下的过程leader 节点:store4-- 停止 store 的 tikv ---> store1 -- 恢复 tikv 节点-- > store4 更改 PRIMARY_REGION如果更改表当前 palcement policy 定义的 primary region 那么表的 leader 也会随 PRIMARY_REGION 的改变而改变

下图 jian1 表一开始的 region 1005 的 leader 是在 store4(bj)上边,之后修改其 PRIMARY_REGION 为 dl(store 1),可以看到 region 1005 的 leader 也确实随之发生了改变

PLACEMENT POLICY 同样适用与分区表以下样例中我们手动指定了每一个分区的 PLACEMENT POLICY,使其每个分区的 leader 都存放于不同的 store 上CREATE PLACEMENT POLICY policy_table 。

FOLLOWERS=3; CREATE PLACEMENT POLICY policy_dl PRIMARY_REGION=dlREGIONS=dl,bj,sz; CREATE PLACEMENT POLICY policy_bj

PRIMARY_REGION=bjREGIONS=dl,bj,sz; CREATE PLACEMENT POLICY policy_sz PRIMARY_REGION=szREGIONS=dl,bj,sz

FOLLOWERS=1; SET tidb_enable_list_partition =1; CREATE TABLE t1 ( location VARCHAR(10) NOT NULL, userdata VARCHAR

(100) NOT NULL ) PLACEMENT POLICY=policy_table PARTITION BY LIST COLUMNS(location)( PARTITION p_dl VALUES IN

(dl) PLACEMENT POLICY=policy_dl, PARTITION p_bj VALUES IN (bj) PLACEMENT POLICY=policy_bj, PARTITION p_sz VALUES IN

(sz) PLACEMENT POLICY=policy_sz );Copy下图可以看到 t1 的 region 分别存放在 store 1(dl),4(bj),5(sz) 上边查看数据库中现有的 PLACEMENT POLICY

设置数据库级别的 PLACEMENT POLICY更改默认的放置选项,但更改不影响已有的表 创建新表会自动继承当前数据的放置规则 表级别的放置规则要优先于数据库级别的放置规则高级放置规则注意:PRIMARY_REGION、REGIONS 和 SCHEDULE 选项不可与 CONSTRAINTS 选项同时指定,否则会报错

以下 placement policy 的解读为:使用该规则的表的 region 只可以放置在含有 rack 标签且等于 rack1 的 tikv 节点上;使用该规则的表的 leader region 只可以放置在含有 dc 标签且等于 bja 的 tikv 节点上;。

使用该规则的表的 follower region 只可以放置在含有 dc 标签且等于 dla 的 tikv 节点上(root\@127.0.0.1)\[(none)]16:34:28> create placement policy localtion_policy 。

CONSTRAINTS=\[+rack=rack1]LEADER_CONSTRAINTS=\[+dc=bja]FOLLOWER_CONSTRAINTS={+dc=dla: 1}; Query OK, 0

rows affected (0.10 sec)(root\@127.0.0.1)\[(none)]16:35:41> create table testdb.jian2(id int) placement

policy=localtion_policy; Query OK, 0 rows affected (0.19 sec)(root\@127.0.0.1)\[(none)]16:35:49> show table testdb.jian2 regions

\G \*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\* 1. row \*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*

\*\*\*\*\*\*\*\*\* REGION_ID: 1127 START_KEY: t_167\_ END_KEY: t_168\_ LEADER_ID: 1129 LEADER_STORE_ID:

4 PEERS: 1128, 1129 SCATTERING: 0 WRITTEN_BYTES: 0 READ_BYTES: 0 APPROXIMATE_SIZE(MB): 1 APPROXIMATE_KEYS:

01 row inset(0.01 sec)Copy注意:虽然 placement policy 高级匹配规则的默认 followers 是 2(三副本)但是实际的副本数还是要看符合 lable 的 tikv 的数量,如果实际的 tikv 节点数量无法满足 2followers 那么最终也只会有两个副本(也就是只有一个 followers 和一个 leader)上边的查询结果可以看到实际 region 的副本只有两个,但是当查询 localtion_policy 这个规则定义的时候 followers 为 2。

POLICY_ID: 17 CATALOG_NAME: def POLICY_NAME: localtion_policy PRIMARY_REGION: REGIONS: CONSTRAINTS: \

[+rack=rack1] LEADER_CONSTRAINTS: \[+dc=bja] FOLLOWER_CONSTRAINTS: {+dc=dla: 1} LEARNER_CONSTRAINTS: SCHEDULE: FOLLOWERS:

2 LEARNERS: 0Copyplacement policy 的创建选项选项名描述PRIMARY_REGIONRaft leader 被放置在有 region 标签的节点上,且这些 region 标签匹配本选项的值。

REGIONSRaft followers 被放置在有 region 标签的节点上,且这些 region 标签匹配本选项的值SCHEDULE用于调度 follower 放置位置的策略可选值为 EVEN(默认值)或 MAJORITY_IN_PRIMARY。

FOLLOWERSFollower 的数量例如 FOLLOWERS=2 表示数据有 3 个副本(2 个 follower 和 1 个 leader)CONSTRAINTS适用于所有角色 (role) 的约束列表。

例如,CONSTRAINTS=[+disk=ssd]LEADER_CONSTRAINTS仅适用于 leader 的约束列表FOLLOWER_CONSTRAINTS仅适用于 follower 的约束列表LEARNER_CONSTRAINTS

仅适用于 learner 的约束列表LEARNERS指定 learner 的数量删除 placement policy删除 placement policy 时一定要确保没有任何表在使用当前的 placement policy 否则会报错:。

(root\@127.0.0.1)\[test]12:11:43> drop PLACEMENT POLICY jianplacementpolicy; ERROR 8241(HY000): Placement policy

jianplacementpolicy is still in use (root\@127.0.0.1)\[test]12:16:20> alter table jian1 PLACEMENT POLICY

=default; Query OK, 0 rows affected (0.08 sec)Copy查看某个 placement policy 是否正在被表使用:SELECT table\_schema, table

\_name FROM information\_schema.tables WHERE tidb\_placement\_policy\_name=jianplacementpolicy; SELECT table

\_schema, table\_name FROM information\_schema.partitions WHERE tidb\_placement\_policy\_name=jianplacementpolicy

;Copy总结当前版本在使用 Placement Rules in SQL 时如果使用基本的放置规则那么只可以使用 PRIMARY_REGION 和 REGIONS 来进行放置规则的设置,但是如果使用高级放置规则那么 tikv 的 label 标签不需要必须设置 region 层级的标签,可以灵活使用和定义已存在或者需要的标签。

高级放置规则的默认 followers 的数量为 2,但是如果在设置规则 FOLLOWER_CONSTRAINTS 时如果满足的节点不满足 2 时只会在 FOLLOWER_CONSTRAINTS 匹配的节点上创建副本,这一点在创建时一定要规划好自己的集群中的 tikv 节点的标签设计,以免导致 region 的副本数过少。

Placement Rules in SQL 可以通过它对分区 / 表 / 库不同级别的数据进行基于标签的自由放置总之 TiDB 6.0 的 Placement Rules In SQL 暴露了以往用户无法控制的内部调度能力,并提供了方便的 SQL 接口,这开启了诸多以往不可能实现的场景,更多的运用方式与使用场景还期待各位的发掘。

TiDB

版权声明:本文内容由网络用户投稿,版权归原作者所有,本站不拥有其著作权,亦不承担相应法律责任。如果您发现本站中有涉嫌抄袭或描述失实的内容,请联系我们jiasou666@gmail.com 处理,核实后本网站将在24小时内删除侵权内容。

上一篇:TiDB Operator 源码解读 (四):深入组件的控制循环
下一篇:TiDB Raft KV 新引擎:推动更高级别的可扩展性与写性能
相关文章