黄东旭解析 TiDB 的核心优势
568
2023-06-12
本文关于HTAP 深入探索指南。
本指南介绍如何进一步探索并使用 TiDB 在线事务与在线分析处理 (Hybrid Transactional and Analytical Processing, HTAP) 功能。
TiDB HTAP 可以满足企业海量数据的增产需求、降低运维的风险成本、与现有的大数据栈无缝缝合,从而实现数据资产价值的实时变现。
以下是三种 HTAP 典型适用场景:
混合负载场景
当将 TiDB 应用于在线实时分析处理的混合负载场景时,开发人员只需要提供一个入口,TiDB 将自动根据业务类型选择不同的处理引擎。
实时流处理场景
当将 TiDB 应用于实时流处理场景时,TiDB 能保证源源不断流入系统的数据实时可查,同时可兼顾高并发数据服务与 BI 查询。
数据中枢场景
当将 TiDB 应用于数据中枢场景时,TiDB 作为数据中枢可以无缝连接数据业务层和数据仓库层,满足不同业务的需求。
在 TiDB 中,面向在线事务处理的行存储引擎 TiKV 与面向实时分析场景的列存储引擎 TiFlash 同时存在,自动同步,保持强一致性。
在深入探索 TiDB HTAP 功能前,请依据你的数据场景部署 TiDB 以及对应的数据分析引擎。大数据场景 (100 T) 下,推荐使用 TiFlash MPP 作为 HTAP 的主要方案,TiSpark 作为补充方案。
TiFlash
如果业务场景以 OLTP 为主,做轻量级的 Ad hoc OLAP 计算,通常部署 1 个或几个 TiFlash 节点就会产生明显的加速效果。
当 OLTP 数据吞吐量对节点 I/O 无明显压力时,每个 TiFlash 节点将会使用较多资源用于计算,这样 TiFlash 集群可实现近似线性的扩展能力。TiFlash 节点数量应根据期待的性能和响应时间调整。
当 OLTP 数据吞吐量较高时(例如写入或更新超过千万行/小时),由于网络和物理磁盘的写入能力有限,内部 TiKV 与 TiFlash 之间的 I/O 会成为主要瓶颈,也容易产生读写热点。此时 TiFlash 节点数与 OLAP 计算量有较复杂非线性关系,需要根据具体系统状态调整节点数量。
如果已经部署 TiDB 集群但尚未部署 TiFlash 节点,请参阅扩容 TiFlash 节点中的步骤在现有 TiDB 集群中添加 TiFlash 节点。
如果尚未部署 TiDB 集群,请使用 TiUP 部署 TiDB 集群,并在包含最小拓扑的基础上,同时增加 TiFlash 拓扑架构。
在决定如何选择 TiFlash 节点数量时,请考虑以下几种业务场景:
TiSpark
如果你的业务需要基于 Spark 进行分析,请部署 TiSpark。
HTAP 数据准备
TiFlash 部署完成后并不会自动同步数据,你需要指定需要同步到 TiFlash 的数据表。指定后,TiDB 将创建对应的 TiFlash 副本。
如果 TiDB 集群中还没有数据,请先迁移数据到 TiDB。
使用 TiDB 时,你只需输入 SQL 语句进行查询或者写入需求。对于创建了 TiFlash 副本的表,TiDB 会依靠前端优化器自由选择最优的执行方式。
注意
TiFlash 的 MPP 模式默认开启。当执行 SQL 语句时,TiDB 会通过优化器自动判断并选择是否以 MPP 模式执行。
如需关闭 MPP 模式,请将系统变量 tidb_allow_mpp 的值设置为 OFF。
如需强制使用 TiFlash 的 MPP 模式执行查询,请将系统变量 tidb_allow_mpp 和 tidb_enforce_mpp 的值设置为 ON。
在 TiDB 的使用过程中,可以选择以下方式监控 TiDB 集群运行情况并查看性能数据。
TiDB Dashboard:查看集群整体运行概况,分析集群读写流量分布及趋势变化,详细了解耗时较长的 SQL 语句的执行信息。
监控系统 (Prometheus & Grafana):查看 TiDB 集群各组件(包括 PD、TiDB、TiKV、TiFlash、TiCDC、Node_exporter)的相关监控参数。
以上就是小编为大家整理的关于如何使用HTAP ?关于HTAP相关内容。
版权声明:本文内容由网络用户投稿,版权归原作者所有,本站不拥有其著作权,亦不承担相应法律责任。如果您发现本站中有涉嫌抄袭或描述失实的内容,请联系我们jiasou666@gmail.com 处理,核实后本网站将在24小时内删除侵权内容。