TiDB v5.4.3 与 v6.1.2 版本的 sysbench 性能对比

网友投稿 579 2024-03-20



测试说明

本次测试对比了 TiDB v5.4.3 与 v6.1.2 在 OLTP 场景下的 Sysbench 性能表现。 结果显示,相比于 v5.4.3,v6.1.2 的 Read Write 负载性能基本持平,Point Select 负载性能略提升了 0.28% , Update Index 负载性能提升了 13.83% ,Update Non Index 负载性能提升了 4.92% 。

TiDB v5.4.3 与 v6.1.2 版本的 sysbench 性能对比

因资源有限,用 6 台机器混合部署的集群,PD 和TiDB server 节点是混布的,非 TiDB 最佳性能测试数据,结果仅供参考。

谢谢观看。

软件版本

服务类型软件版本PDv5.4.3、v6.1.2TiDBv5.4.3、v6.1.2TiKVv5.4.3、v6.1.2Sysbench1.0.17

硬件配置

HostRole硬件配置172.0.0.1TiDB1,PD132c 128G ,894G ***172.0.0.2Ti***,PD232c 128G ,894G ***172.0.0.3TiDB3,PD332c 128G ,894G ***172.0.0.4TiKV132c 128G ,894G ***172.0.0.5TiKV232c 128G ,894G ***172.0.0.6TiKV3,alertmanager,grafana,prometheus32c 128G ,894G ***

参数配置

两个版本使用相同的配置。

TiDB 参数配置

log.level: "error" performance.max-procs: 20 prepared-plan-cache.enabled: true tikv-client.max-batch-wait-time: 2000000

TiKV 参数配置

storage.scheduler-worker-pool-size: 5 raftstore.store-pool-size: 3 raftstore.apply-pool-size: 3 raftstore.hibernate-regions: true rocksdb.max-background-jobs: 8 raftdb.max-background-jobs: 4 raftdb.allow-concurrent-memtable-write: true server.grpc-concurrency: 6 readpool.unified.min-thread-count: 5 readpool.unified.max-thread-count: 20 readpool.storage.normal-concurrency: 10 pessimistic-txn.pipelined: true

涉及的 tikv 参数说明

TiDB 全局变量配置

set global tidb_hashagg_final_concurrency=1; set global tidb_hashagg_partial_concurrency=1; set global tidb_enable_async_commit = 1; set global tidb_enable_1pc = 1; set global tidb_guarantee_linearizability = 0; set global tidb_enable_clustered_index = 1;

涉及的全局变量说明

HAProxy 配置

详细请参阅 HAProxy 在 TiDB 中的最佳实践

# cat /etc/haproxy/haproxy.cfg# cat /etc/haproxy/haproxy.cfg global # 全局配置。 log 127.0.0.1 local2 # 定义全局的 syslog 服务器,最多可以定义两个。 chroot /var/lib/haproxy # 更改当前目录并为启动进程设置超级用户权限,从而提高安全性。 pidfile /var/run/haproxy.pid # 将 HAProxy 进程的 PID 写入 pidfile。 maxconn 4096 # 单个 HAProxy 进程可接受的最大并发连接数,等价于命令行参数 "-n"。 #nbthread 48 # 最大线程数。线程数的上限与 CPU 数量相同。 user haproxy # 同 UID 参数。 group haproxy # 同 GID 参数,建议使用专用用户组。 daemon # 让 HAProxy 以守护进程的方式工作于后台,等同于命令行参数“-D”的功能。当然,也可以在命令行中用“-db”参数将其禁用。 stats socket /var/lib/haproxy/stats # 统计信息保存位置。 defaults # 默认配置。 log global # 日志继承全局配置段的设置。 retries 2 # 向上游服务器尝试连接的最大次数,超过此值便认为后端服务器不可用。 timeout connect 2s # HAProxy 与后端服务器连接超时时间。如果在同一个局域网内,可设置成较短的时间。 timeout client 30000s # 客户端与 HAProxy 连接后,数据传输完毕,即非活动连接的超时时间。 timeout server 30000s # 服务器端非活动连接的超时时间。 listen admin_stats # frontend 和 backend 的组合体,此监控组的名称可按需进行自定义。 bind 0.0.0.0:8080 # 监听端口。 mode http # 监控运行的模式,此处为 `http` 模式。 option httplog # 开始启用记录 HTTP 请求的日志功能。 maxconn 10 # 最大并发连接数。 stats refresh 30s # 每隔 30 秒自动刷新监控页面。 stats uri /haproxy # 监控页面的 URL。 stats realm HAProxy # 监控页面的提示信息。 stats auth admin:pingcap123 # 监控页面的用户和密码,可设置多个用户名。 stats hide-version # 隐藏监控页面上的 HAProxy 版本信息。 stats admin if TRUE # 手工启用或禁用后端服务器(HAProxy 1.4.9 及之后版本开始支持)。 listen tidb-cluster # 配置 database 负载均衡。 bind 0.0.0.0:3390 # 浮动 IP 和 监听端口。 mode tcp # HAProxy 要使用第 4 层的传输层。 balance leastconn # 连接数最少的服务器优先接收连接。`leastconn` 建议用于长会话服务,例如 LDAP、SQL、TSE 等,而不是短会话协议,如 HTTP。该算法是动态的,对于启动慢的服务器,服务器权重会在运行中作调整。 server tidb-1 172.0.0.1:4000 check inter 2000 rise 2 fall 3 # 检测 4000 端口,检测频率为每 2000 毫秒一次。如果 2 次检测为成功,则认为服务器可用;如果 3 次检测为失败,则认为服务器不可用。 server tidb-2 172.0.0.2:4000 check inter 2000 rise 2 fall 3 server tidb-3 172.0.0.3:4000 check inter 2000 rise 2 fall 3测试负载均衡$ mysql -uroot -h172.1.1.1 -P 3390 -e "select @@hostname;" +---------------------------------------+ | @@hostname | +---------------------------------------+ | 172.0.0.3 | +---------------------------------------+ [tidb@tidb-test:/home/tidb] $ mysql -uroot -h172.0.0.4 -P 3390 -e "select @@hostname;" +---------------------------------------+ | @@hostname | +---------------------------------------+ | 172.0.0.2 | +---------------------------------------+ [tidb@tidb-test:/home/tidb] $ mysql -uroot -h172.0.0.4 -P 3390 -e "select @@hostname;" +---------------------------------------+ | @@hostname | +---------------------------------------+ | 172.0.0.1 | +---------------------------------------+

测试方案

通过 TiUP 部署 TiDB v5.4.3 和 v6.1.2。

通过 Sysbench 导入 16 张表,每张表有 1000 万行数据。

分别对每个表执行 analyze table 命令。

备份数据,用于不同并发测试前进行数据恢复,以保证每次数据一致。

启动 Sysbench 客户端,进行 point_select、read_write、update_index 和 update_non_index 测试。通过 HAProxy 向 TiDB 加压,每种负载每个并发数各测试 20 分钟。

每轮完成后停止集群,使用之前的备份的数据覆盖,再启动集群。

#创建测试用户 CREATE USER sysbench@172.% IDENTIFIED BY sysbench666; GRANT ALL PRIVILEGES ON *.* TO sysbench@172.%; flush privileges;

准备测试数据:

sysbench oltp_common \ --threads=16 \ --rand-type=uniform \ --db-driver=mysql \ --mysql-db=sbtest \ --mysql-host=172.1.1.1 \ --mysql-port=3390 \ --mysql-user=sysbench \ --mysql-password=sysbench666 \ prepare --tables=16 --table-size=10000000

导出/导入测试数据:

#导出测试数据备份: mydumper -h 172.1.1.1 -P 3390 -u sysbench -p sysbench666 --no-backup-locks -B sbtest -t 2 -F 64 --skip-tz-utc -o /data/tmp/sbtest #导入测试数据: loader -h 172.1.1.1 -P 3390 -u sysbench -p sysbench666 -d /data/tmp/sbtest

执行测试

sysbench /usr/share/sysbench/oltp_read_write.lua --mysql-user=sysbench --mysql-password=sysbench666 \ --mysql-host=172.1.1.1 --mysql-port=3390 --mysql-db=sbtest --tables=16 --table_size=10000000 --threads=$threads --time=300 --report-interval=10 run sysbench /usr/share/sysbench/oltp_point_select.lua --mysql-user=sysbench --mysql-password=sysbench666 \ --mysql-host=172.1.1.1 --mysql-port=3390 --mysql-db=sbtest --tables=16 --table_size=10000000 --threads=$threads --time=300 --report-interval=10 run sysbench /usr/share/sysbench/oltp_update_index.lua --mysql-user=sysbench --mysql-password=sysbench666 \ --mysql-host=172.1.1.1 --mysql-port=3390 --mysql-db=sbtest --tables=16 --table_size=10000000 --threads=$threads--time=300 --report-interval=10 run sysbench /usr/share/sysbench/oltp_update_non_index.lua --mysql-user=sysbench --mysql-password=sysbench666 \ --mysql-host=172.1.1.1 --mysql-port=3390 --mysql-db=sbtest --tables=16 --table_size=10000000 --threads=$threads --time=300 --report-interval=10 run

测试结果

Read Write 性能

v5.4.3 对比 v6.1.2 , Read Write 性能略有下降,随着 Threads 增加,基本持平。

Point Select 性能

v5.4.3 对比 v6.1.2 , Point Select 负载性能平均略提升了 0.28% 。

Update Index 性能

v5.4.3 对比 v6.1.2 ,Update Index 负载性能平均提升了 13.83% 。

Update Non-index 性能

v5.4.3 对比 v6.1.2 ,Update Non Index 负载性能平均提升了 4.92% 。

版权声明:本文内容由网络用户投稿,版权归原作者所有,本站不拥有其著作权,亦不承担相应法律责任。如果您发现本站中有涉嫌抄袭或描述失实的内容,请联系我们jiasou666@gmail.com 处理,核实后本网站将在24小时内删除侵权内容。

上一篇:TiDB v5.2.3 版本内存使用率高的几个案例分析
下一篇:TiDB v6.0.0 Clinic 功能体验
相关文章