TiDB v6.0.0(DMR) 缓存表初试实践总结

网友投稿 383 2024-02-27



【是否原创】是

TiDB v6.0.0(DMR) 缓存表初试实践总结

【首发渠道】TiDB 社区

【首发渠道链接】其他平台首发请附上对应链接

【正文】

一、背景

一般情况下使用 TiDB 单表大小为千万级别以上在业务中性能最优,但是在实际业务中总是会存在小表。例如配置表对写请求很少,而对读请求的性能的要求更高。TiDB 作为一个分布式数据库,大表的负载很容易利用分布式的特性分散到多台机器上,但当表的数据量不大,访问又特别频繁的情况下,数据通常会集中在 TiKV 的一个 Region 上,形成读热点,更容易造成性能瓶颈。

TiDB v6.0.0(DMR) 版本推出了缓存表的功能,第一次看到这个词的时候让我想到了 MySQL 的内存表。MySQL 内存表的表结构创建在磁盘上,数据存放在内存中。内存表的缺点很明显。当 MySQL 启动着的时候,表和数据都存在,当 MySQL 重启后,表结构存在,数据消失。TiDB 的缓存表不存在这个问题。从 asktug 论坛中看到很多小伙伴都很期待缓存表的表现,个人也对它的性能很期待,因此在测试环境中实际看看缓存表的性能如何。

二、缓存表的使用场景

以下部分内容来自官方文档,详情见 缓存表

TiDB 缓存表功能适用于以下特点的表:

表的数据量不大

只读表,或者几乎很少修改

表的访问很频繁,期望有更好的读性能

关于第一点官方文档中提到缓存表的大小限制为包含索引在内的所有 key-value 记录的总大小不能超过 64 MB。实际测试使用 Sysbench 生成下文中表结构的表从 20w 提高到 30w 数据量时无法将普通表转换为缓存表,因此生产环境中实际使用缓存表的场景应该最多不超过几十万级别的数据量。关于缓存表对包含读写操作方面的性能,使用多种不同的读写请求比例进行了测试,相较普通表均没有达到更好的性能表现。这是因为为了读取数据的一致性,在缓存表上执行修改操作后,租约时间内写操作会被阻塞,最长可能出现tidb_table_cache_lease  变量值时长的等待,会导致 QPS 降低。因此缓存表更适合只读表,或者几乎很少修改的场景。

缓存表把整张表的数据从 TiKV 加载到 TiDB Server 中,查询时可以不通过访问 TiKV 直接从 TiDB Server 的缓存中读取,节省了磁盘IO和网络带宽。使用普通表查询时,返回的数据量越多索引的效率可能越低,直到和全表扫描的代价接近优化器可能会直接选择全表扫描。缓存表本身数据都在 TiDB Server 的内存中,可以避免磁盘 IO,因此查询效率也会更高。以配置表为例,当业务重启的瞬间,全部业务连接一起加载配置,会造成较高的数据库读延迟。如果使用了缓存表,读请求可以直接从内存中读取数据,可以有效降低读延迟。在金融场景中,业务通常会同时涉及订单表和汇率表。汇率表通常不大,表结构很少发生变化因此几乎不会有 DDL,加上每天只更新一次,也非常适合使用缓存表。其他业务场景例如银行分行或者网点信息表,物流行业的城市、仓号库房号表,电商行业的地区、品类相关的字典表等等,对于这种很少新增记录项的表都是缓存表的典型使用场景。

三、测试环境

1.硬件配置及集群拓扑规划

使用 2 台云主机,硬件配置为 4C 16G 100G 普通 *** 硬盘。

RoleHostPortsalertmanager10.0.0.19093/9094grafana10.0.0.13000pd10.0.0.12379/2380pd10.0.0.22379/2380pd10.0.0.13379/3380prometheus10.0.0.19090/12020tidb10.0.0.14000/10080tidb10.0.0.24000/10080tikv10.0.0.120162/20182tikv10.0.0.120160/20180tikv10.0.0.220161/201812. 软件配置软件名称软件用途版本CentOS操作系统7.6TiDB 集群开源分布式 NewSQL 数据库v6.0.0 DMRSysbench压力测试工具1.0.203.参数配置server_configs: tidb: log.slow-threshold: 300 new_collations_enabled_on_first_bootstrap: true tikv: readpool.coprocessor.use-unified-pool: true readpool.storage.use-unified-pool: false pd: replication.enable-placement-rules: true replication.location-labels:- host

由于硬件条件受限,只有 2 台普通性能的云主机混合部署的集群(实际上和单机部署也差不多了)。单机 CPU 核数较少且 TiDB Server 没有做负载均衡所以并发无法调整太高。以下测试均使用一个 TiDB Server 节点进行压测,因此不用特别关注本次测试的测试数据,可能会跟其他测试结果有所出入,不代表最佳性能实践和部署,测试结果仅限参考。

四、性能测试

Sysbench 生成的表结构

CREATE TABLE sbtest1 ( id int(11) NOT NULL AUTO_INCREMENT, k int(11) NOT NULL DEFAULT 0, c char(120) NOT NULL DEFAULT , pad char(60) NOT NULL DEFAULT , PRIMARY KEY (id), KEY k_1 (k) ) ENGINE = InnoDB CHARSET = utf8mb4 COLLATE = utf8mb4_bin AUTO_INCREMENT = 1

读性能测试

测试主要参数

oltp_point_select 主键查询测试(点查,条件为唯一索引列)

主要 SQL 语句:

select_random_points 随机多个查询(主键列的 selete in 操作)

主要 SQL 语句:

select_random_ranges 随机范围查询(主键列的 selete between and 操作)

主要 SQL 语句:

SE

oltp_read_only 只读操作(包含聚合、去重等)

主要 SQL 语句:

Sysbench 测试命令示例sysbench --mysql-host=10.0.0.1 --mysql-port=4000 --mysql-db=sbtest --mysql-user=root --time=600 \ --threads=8 --report-interval=10 --db-driver=mysql oltp_point_select --tables=1 --table-size=5000 run sysbench --mysql-host=10.0.0.1 --mysql-port=4000 --mysql-db=sbtest --mysql-user=root --time=600 \ --threads=8 --report-interval=10 --db-driver=mysql oltp_read_only --tables=1 --table-size=5000 run sysbench --mysql-host=10.0.0.1 --mysql-port=4000 --mysql-db=sbtest --mysql-user=root --time=600 \ --threads=8 --report-interval=10 --db-driver=mysql select_random_points --tables=1 --table-size=5000 run sysbench --mysql-host=10.0.0.1 --mysql-port=4000 --mysql-db=sbtest --mysql-user=root --time=600 \ --threads=8 --report-interval=10 --db-driver=mysql select_random_ranges --tables=1 --table-size=5000 run一、使用普通表1.单表数据量 5000,测试 QPSthreads/request typeoltp_point_selectoltp_read_onlyselect_random_pointsselect_random_ranges8221419853190226316319924143412249132445428673898276364579237124321298112876394964447429652.单表数据量 50000,测试 QPSthreads/request typeoltp_point_selectoltp_read_onlyselect_random_pointsselect_random_ranges8487428082841220716504234293172244832675442903405265164898952823831281812812565647039962811二、使用缓存表1.单表数据量 5000,测试 QPSthreads/request typeoltp_point_selectoltp_read_onlyselect_random_pointsselect_random_ranges81578010811566627161623296113996417294832280381131369073050643292411377721732001283396211413719932322.单表数据量 50000,测试 QPSthreads/request typeoltp_point_selectoltp_read_onlyselect_random_pointsselect_random_ranges8159101654053592646162194517022599929153225614173566355306564317821741066903088128350091758467133161三、性能对比

读写混合性能测试

测试主要场景参数

oltp_read_write 表示混合读写。

point_selects(每个事务里点查的数量)

delete_inserts(每个事务里插入/删除组合的数量)

主要 SQL 语句:

本次测试通过单个事务中请求类型的数量 --delete_inserts 固定为 10 且调整 --point_selects 参数的值来模拟不同读写比例下的性能差异,其余请求参数使用默认值,具体命令可参考下面 Sysbench 测试命令示例。

Sysbench 测试命令示例sysbench --mysql-host=10.0.0.1 --mysql-port=4000 --mysql-db=sbtest --mysql-user=root --time=600 --threads=8 --report-interval=10 --db-driver=mysql oltp_read_write --tables=1 --table-size=5000 --point_selects=10 --non_index_updates=0 --delete_inserts=10 --index_updates=0 run一.使用普通表1.单表数据量 5000,测试 QPSthreads/--point_selects10401606408869228938525090161014213943546094321075220550896944646051861516083951288772127433292572.单表数据量 50000,测试 QPSthreads/--point_selects1040160640811072144331244391611082103373857023210552228432567706410621397536782091289811838723517472二、使用缓存表1.单表数据量 5000,测试 QPSthreads/--point_selects10401606408711132221232787163616651274287032400627139429976432380418534100128372680184747042.单表数据量 50000,测试 QPSthreads/--point_selects10401606408974272637161804167871366173621763267312312338462764572138431207755128557110429077486三、性能对比

五、遇到的问题

尝试将 30w 数据的表改为缓存表时报错 ERROR 8242 (HY000): table too large is unsupported on cache tables

目前 TiDB 对于每张缓存表的大小限制为 64 MB,因此太大的表无法缓存在内存中。另外,缓存表无法执行普通的 DDL 语句。若要对缓存表执行 DDL 语句,需要先使用 ALTER TABLE xxx NOCACHE 语句去掉缓存属性,将缓存表设回普通表后,才能对其执行其他 DDL 语句。

测试过程中缓存表性能出现了不稳定的情况,有些时候缓存表反而比普通表读取性能差,使用 trace 语句(TRACE SELECT * FROM sbtest1;)查看发现返回结果中出现了 regionRequest.SendReqCtx,说明 TiDB 尚未将所有数据加载到内存中,多次尝试均未加载完成。把 tidb_table_cache_lease 调整为 10 后没有出现该问题。

在 asktug 中向研发大佬提出了这个问题得到了解答。根据 https://github.com/pingcap/tidb/issues/33167 中的描述,当机器负载较重时,load table 需要 3s 以上 ,但是默认的 tidb_table_cache_lease是 3s, 表示加载的数据是立即过时的,因此需要重新加载,并且该过程永远重复。导致了浪费了大量的 CPU 资源并且降低了 QPS。目前可以将tidb_table_cache_lease 的值调大来解决,该问题在 master 分支中已经解决,后续版本应该不会出现。

根据测试结果,写入较为频繁的情况下缓存表的性能是比较差的。在包含写请求的测试中,缓存表相较于普通表的性能几乎都大幅下降。

在 lease 过期之前,无法对数据执行修改操作。为了保证数据一致性,修改操作必须等待 lease 过期,所以会出现写入延迟。例如 tidb_table_cache_lease为 10 时,写入可能会出现较大的延迟。因此写入比较频繁或者对写入延迟要求很高的业务不建议使用缓存表。

六、测试总结

读性能

单表 5000,缓存表相比普通表提升的百分比

threads/request typeoltp_point_selectoltp_read_onlyselect_random_pointsselect_random_ranges8612.73%444.63%<

版权声明:本文内容由网络用户投稿,版权归原作者所有,本站不拥有其著作权,亦不承担相应法律责任。如果您发现本站中有涉嫌抄袭或描述失实的内容,请联系我们jiasou666@gmail.com 处理,核实后本网站将在24小时内删除侵权内容。

上一篇:Log Miner的知识点有哪些
下一篇:PostgreSQL中用于计算merge join的Cost函数有哪些
相关文章