TiFlink:结合 TiKV 和 Flink 实现强一致性物化视图

网友投稿 577 2024-02-03

在本年初的 TiDB Hackathon 上,我和一众队友尝试使用 Flink 为 TiDB 添加物化视图功能,并摘得了“最佳人气奖”可以说,物化视图在这届比赛中可谓是一个热点单单是结合 Flink 实现相关功能的队伍就有三四个。

TiFlink:结合 TiKV 和 Flink 实现强一致性物化视图

必须承认的是,在比赛结束时我们项目的完成度很低,虽然基本思路已经定型,最终呈现的结果却远没达到预期经过半年多断断续续的修补,在今天终于可以发布一个预览版本给大家试用这篇文章就是对我们思路和成果的一个介绍。

相比其他队伍,我们的主要目标是实现强一致的物化视图构建也就是保证查询时的物化视图可以达到接近快照隔离(Snapshot Isolation)的隔离级别,而不是一般流处理系统的最终一致性(Eventual Consistency)。

关于实现一致性的讨论在下文有详细介绍使用简介尽管是一个实验性的项目,我们仍然探索了一些方便实用的特性,包括:零外部依赖:除了 TiDB 集群和 Flink 部署环境之外,无需维护任何其他组件(包括 Kafka 集群和 TiCDC)。

这是因为 TiFlink 直接从 TiKV 读写数据,不经过任何中间层,为更高吞吐、更低延迟和更易维护创造了可能易用的接口:尽管为了实现强一致性 TiFlink 引进了一些新的概念,但是通过特别编写的TiFlinkApp

接口,用户可以快速启动一个任务,也无需手动创建写入目标表批流结合:任务启动后会先批量消费源表当前已有的数据,随后自动切换到 CDC 日志消费这个过程也会确保视图的一致性关于 TiFlink 实用的详细信息,请参考 。

README下面是快速启动一个任务的代码片段:TiFlinkApp.newBuilder() .setJdbcUrl(jdbc:mysql://root@localhost:4000/test) // Please

make sure the user has correct permission .setQuery(select id, + first_name, +

last_name, + email, + (select count(*) from posts where author_id = authors.id) as posts

+ from authors) // .setColumnNames(a, b, c, d) // Override column names inferred from the query // .setPrimaryKeys

(a) // Specify the primary key columns, defaults to the first column // .setDefaultDatabase(test) // Default TiDB database to use, defaults to that specified by JDBC URL .setTargetTable

(author_posts) // TiFlink will automatically create the table if not exist // .setTargetTable(test

, author_posts) // It is possible to sepecify the full table path .setParallelism(3) // Parallelism of the Flink Job .setCheckpointInterval

(1000) // Checkpoint interval in milliseconds. This interval determines data refresh rate .setDropOldTable

(true) // If TiFlink should drop old target table on start .setForceNewTable(true) // If to throw an error

if the target table already exists .build() .start(); // Start the appCopy物化视图(流处理系统)的一致性目前主流的物化视图(流处理)系统主要使用

最终一致性也就是说尽管最终结果会收敛到一致的状态,但在处理期间终端用户仍可能查询到一些不一致的结果最终一致性在很多应用中被证明是足够的,那么更强的一致性是否真的需要呢?这里的一致性和 Flink 的 Exact Once 语义又有什么关系呢?有必要进行一些介绍。

ACIDACID 是数据库的一个基本的概念一般来说,作为 CDC 日志来源的数据库已经保证了这四条要求但是在使用 CDC 数据进行流式处理的时候,其中的某些约束却有可能被破坏最典型的情况是失去 Atomic 特性。

这是因为在 CDC 日志中,一个事务的修改可能覆盖多条记录,流处理系统如果以行为单位进行处理,就有可能破坏原子性也就是说,在结果集上进行查询的用户看到的事务是不完整的一个典型的案例如下:Change Log与原子性

在上述案例中,我们有一个账户表,账户表之间会有转账操作,由于转账操作涉及多行修改,因此往往会产生多条记录假设我们有如下一条 SQL 定义的物化视图,计算所有账户余额的总和:SELECT SUM(balance。

) FROM ACCOUNTS;Copy显然,如果我们只存在表内账户之间的转账,这个查询返回的结果应该恒为某一常数但是由于目前一般的流处理系统不能处理事务的原子性,这条查询产生的结果却可能是不断波动的实际上,在一个不断并发修改的源表上,其波动甚至可能是无界的。

尽管在最终一致的模型下,上述查询的结果在经过一段时间之后将会收敛到正确值,但没有原子性保证的物化视图仍然限制的应用场景:假设我想实现一个当上述查询结果偏差过大时进行报警的工具,我就有可能会接收到很多虚假报警。

也就是说此时在数据库端并没有任何异常,数值的偏差只是来源于流处理系统内部在分布式系统中,还有另一种破坏原子性的情况,就是当一个事务修改产生的副作用分布在多个不同的节点处如果在这时不使用 2PC 等方法进行分布式提交,则也会破坏原子性:部分节点(分区)上的修改先于其他节点生效,从而出现不一致。

线性一致性不同于由单机数据库产生的 CDC 日志(如 MySQL 的 Binlog),TiDB 这类分布式数据库产生的日志会有线性一致性的问题在我们的场景下,线性一致性的问题可以描述为:从用户的角度先后执行的一些操作,其产生的副作用(日志)由于消息系统传递的延迟,以不同的先后顺序被流处理系统处理。

假设我们有订单表(ORDERS)和付款信息表(PAYMENTS)两个表,用户必须先创建订单才能进行支付,因此下列查询的结果必然是正数:WITH order_amount AS (SELECT SUM(amount

) AS total FROM ORDERS), WITH payment_amount AS (SELECT SUM(amount) AS total FROM PAYMENTS) SELECT order_amount.total - payment_amount.total FROM order_amount, payment_amount

;Copy但是由于 ORDERS 表和 PAYMENTS 表在分别存储在不同的节点上,因此流处理系统消费他们的速度可能是不一致的也就是说,流处理系统可能已经看到了支付信息的记录,但是其对应的订单信息还没到达。

因此就可能观察到上述查询出现负数的结果在流处理系统中,有一个 Watermark 的概念可以用来同步不同表的数据的处理进度,但是它并不能避免上述线性一致性问题这是因为 Watermark 只要求时间戳小于其的所有记录都已经到达,不要求时间戳大于其的记录都没有到达。

也就是说,尽管 ORDERS 表和 PAYMENTS 表现在拥有相同的 Watermark,后者仍然可能会有一些先到的记录已经生效由此可见,单纯依靠 Watermark 本身是无法处理线性一致性问题的,必须和源数据库的时间产生系统和消息系统配合。

更强一致性的需求尽管最终一致性在很多场景下是够用的,但其依然存在很多问题:误导用户:由于很多用户并不了解一致性相关的知识,或者对其存在一定的误解,导致其根据尚未收敛的查询结果做出了决策这种情况在大部分关系型数据库都默认较强一致性的情况下是应该避免的。

可观测性差:由于最终一致性并没有收敛时间的保证,再考虑到线性一致性问题的存在,很难对流处理系统的延迟、数据新鲜度、吞吐量等指标进行定义比如说用户看到的 JOIN 的结果可能是表 A 当前的快照和表 B 十分钟前的快照联接的结果,此时应如何定义查询结果的延迟度呢?。

限制了部分需求的实现:正如上文所提到的,由于不一致的内部状态,导致某些告警需求要么无法实现,要么需要延迟等待一段时间否则用户就不得不接受较高的误报率实际上,更强一致性的缺乏还导致了一些运维操作,特别是 DDL 类的操作难以利用之前计算好的结果。

参考关系型数据库和 NoSQL 数据库的发展历史,我们相信目前主流的最终一致性只是受限于技术发展的权宜之计,随着相关理论和技术研究的进步,更强的一致性将会慢慢成为流处理系统的主流技术方案简介这里详细介绍一下 TiFlink 在技术方案上的考虑,以及如何实现了强一致的物化视图(StreamSQL)维护。

TiKV 和 Flink尽管这是一个 TiDB Hackthon 项目,因此必然会选择 TiDB/TiKV 相关的组件,但是在我看来 TiKV 作为物化视图系统的中间存储方案具备很多突出的优势:TiKV 是一个比较成熟分布式 KV 存储,而分布式环境是下一代物化视图系统必须要支持的场景。

利用 TiKV 配套的 Java Client,我们可以方便的对其进行操作同时 TiDB 本身作为一个 HTAP 系统,正好为物化视图这个需求提供了一个 PlaygroundTiKV 提供了基于 Percolator 模型的事务支持和 MVCC,这是 TiFlink 实现强一致流处理的基础。

在下文中可以看到,TiFlink 对 TiKV 的写入主要是以接连不断的事务的形式进行的TiKV 原生提供了对 CDC 日志输出的支持实际上 TiCDC 组件正是利用这一特性实现的 CDC 日志导出功能。

在 TiFlink 中,为了实现批流一体并简化系统流程,我们选择直接调用 TiKV 的 CDC GRPC 接口,因此也放弃了 TiCDC 提供的一些特性我们最初的想法本来是直接将计算功能集成进 TiKV,选择 Flink 则是在比赛过程中进一步思考后得到的结论。

选择Flink的主要优势有:Flink 是目前市面上最成熟的 Stateful 流处理系统,其对处理任务的表达能力强,支持的语义丰富,特别是支持批流一体的 StreamSQL 实现,是我们可以专心于探索我们比较关注的功能,如强一致性等。

Flink 比较完整地 Watermark,而我们发现其基于 Checkpoint 实现的 Exactly Once Delivery 语义可以很方便地和 TiKV 结合来实现事务处理实际上,Flink 自己提供的一些支持 Two Phase Commit 的 Sink 就是结合 Checkpoint 来进行提交的。

Flink 的流处理(特别是 StreamSQL)本身就基于物化视图的理论,在比较新的版本开始提供的 DynamicTable 接口,就是为了方便将外部的 Change Log 引入系统它已经提供了对 INSERT、DELETE、UPDATE 等多种 CDC 操作的支持。

当然,选择 TiKV+Flink 这样的异构架构也会引入一些问题,比如 SQL 语法的不匹配,UDF 无法共享等问题在 TiFlink 中,我们以 Flink 的 SQL 系统和 UDF 为准,将其作为 TiKV 的一个外挂系统使用,但同时提供了方便的建表功能。

强一致的物化视图的实现思路这一部分将介绍 TiFlink 如何在 TiDB/TiKV 的基础上实现一个比较强的一致性级别:延迟快照隔离(Stale Snapshot Isolation)在这种隔离级别下,查询者总是查询到历史上一个一致的快照状态。

在传统的快照隔离中,要求查询者在 TT 时间能且只能观察到 Commit 时间小于 TT 的所有事务而延迟快照隔离只能保证观察到 T?ΔtT?Δt 之前所有已提交的事务在 TiDB 这样支持事务的分布式数据库上实现强一致的物化视图,最简单的思路就是使用一个接一个的事务来更新视图。

事务在开始时读取到的是一个一致的快照,而使用分布式事务对物化视图进行更新,本身也是一个强一致的操作,且具有 ACID 的特性,因此得以保证一致性使用连续的事务实现物化视图的更新为了将 Flink 和这样的机制结合起来且实现

增量维护,我们利用了 TiKV 本身已经提供的一些特性:TiKV 使用 Time *** 为所有的操作分配时间戳,因此虽然是一个分布式系统,其产生的 CDC 日志中的事务的时间戳实际上是有序的TiKV 的节点(Region)可以产生连续不断的增量日志(Change Log),这些日志包含了事务的各种原始信息并包含时间戳信息。

TiKV 的增量日志会定期产生 Resolved Timestamp,声明当前 Region 不再会产生时间戳更老的消息因此很适合用来做 WatermarkTiKV 提供了分布式事务,允许我们控制一批修改的可见性。

因此 TiFlink 的基本实现思路就是:利用流批一体的特性,以某全局时间戳对源表进行快照读取,此时可以获得所有源表的一个一致性视图切换到增量日志消费,利用 Flink 的 DynamicTable 相关接口,实现物化视图的增量维护和输出。

以一定的节奏 Commit 修改,使得所有的修改以原子的事务方式写入目标表,从而为物化视图提供一个又一个更新视图以上几点的关键在于协调各个节点一起完成分布式事务,因此有必要介绍一下 TiKV 的分布式事务执行原理。

TiKV 的分布式事务TiKV 的分布式事务基于著名的 Percolator 模型Percolator 模型本身要求存储层的 KV Store 有 MVCC 的支持和单行读写的原子性和乐观锁(OCC)在此基础上它采用以下步骤完成一次事务:。

指定一个事务主键(Primary Key)和一个开始时间戳并写入主键其他行在 Prewrite 时以副键(Secondary Key)的形式写入,副键会指向主键并具有上述开始时间戳在所有节点 Prewrite 完成后,可以提交事务,此时应先 Commit 主键,并给定一个 Commit 时间戳。

主键 Commit 成功后事务实际上已经提交成功,但此时为了方便读取,可以多节点并发地对副键进行 Commit 并执行清理工作,之后写入的行都将变为可见上述分布式事务之所以可行,是因为对主键的 Commit 是原子的,分布在不同节点的副键是否提交成功完全依赖于主键,因此其他的读取者在读到 Prewrite 后但还没 Commit 的行时,会去检查主键是否已 Commit。

读取者也会根据 Commit 时间戳判断某一行数据是否可见Cleanup 操作如果中途故障,在之后的读取者也可以代行为了实现快照隔离,Percolator 要求写入者在写入时检查并发的 Prewrite 记录,保证他们的时间戳符合一定的要求才能提交事务。

本质上是要求写入集重叠的事务不能同时提交在我们的场景中假设物化视图只有一个写入者且事务是连续的,因此无需担心这点在了解了 TiKV 的分布式事务原理之后,要考虑的就是如何将其与 Flink 结合起来在 TiFlink 里,我们。

利用 Checkpoint 的机制来实现全局一致的事务提交使用 Flink 进行分布式事务提交从上面的介绍可以看出,TiKV 的分布式事务提交可以抽象为一次 2PCFlink 本身有提供实现 2PC 的 Sink,然而并不能直接用在我们的场景下。

原因是 Percolator 模型在提交时需要有全局一致的事务开始时间戳和提交时间戳而且仅仅是在 Sink 端实现 2PC 是不足以实现强一致隔离级别的:我们还需要在 Source 端配合,使得每个事务恰好读入所需的增量日志。

幸运的是,Flink 的 2PC 提交机制实际上是由 Checkpoint 驱动的:当 Sink 接收到 Checkpoint 请求时,会完成必要的任务以进行提交受此启发,我们可以实现一对 Source 和 Sink,让他们使用 Checkpoint 的 ID 共享 Transaction 的信息,并配合 Checkpoint 的过程完成 2PC。

而为了使不同节点可以对事务的信息(时间戳,主键)等达成一致,需要引入一个全局协调器事务和全局协调器的接口定义如下:public interface Transaction { public enum Status

{ NEW, PREWRITE, COMMITTED, ABORTED;}; long getCheckpointId(); long getStartTs();

default long getCommitTs(); default byte[] getPrimaryKey(); default Status getStatus();} public interface Coordinator extends AutoCloseable, Serializable

{ Transaction openTransaction(long checkpointId); Transaction prewriteTransaction(long checkpointId, long tableId

); Transaction commitTransaction(long checkpointId); Transaction abortTransaction(long checkpointId

);}Copy使用上述接口,各个 Source 和 Sink 节点可以使用 CheckpointID 开启事务或获得事务 ID,协调器会负责分配主键并维护事务的状态为了方便起见,事务 Commit 时对主键的提交操作也放在协调器中执行。

协调器的实现有很多方法,目前 TiFlink 使用最简单的实现:在 JobManager 所在进程中启动一个 GRPC 服务基于 TiKV 的 PD(ETCD)或 TiKV 本身实现分布式的协调器也是可能的。

事务与 Checkpoint 的协调执行上图展示了在 Flink 中执行分布式事务和 Checkpoint 之间的协调关系一次事务的具体过程如下:Source 先从 TiKV 接收到增量日志,将他们按照时间戳 Cache 起来,等待事务的开始。

当 Checkpoint 进程开始时,Source 会先接收到信号在 Source 端的 Checkpoint 与日志接收服务运行在不同的线程中Checkpoint 线程先通过全局协调器获得当前事务的信息(或开启一个新事务),分布式情况下一个 CheckpointID 对应的事务只会开启一次。

得到事务的开始时间戳后,Source 节点开始将 Cache 中小于此时间戳的已提交修改 Emit 到下游计算节点进行消费此时 Source 节点也会 Emit 一些 Watermark当所有 Source 节点完成上述操作后,Checkpoint 在 Source 节点成功完成,此后会向后继续传播,根据 Flink 的机制,Checkpoint 在每个节点都会保证其到达之前的所有 Event 都已被消费。

当 Checkpoint 到达 Sink 时,之前传播到 Sink 的 Event 都已经被 Prewrite 过了,此时可以开始事务的提交过程Sink 在内部状态中持久化事务的信息,以便于错误时恢复,在所有 Sink 节点完成此操作后,会在回调中调用协调器的 Commit 方法从而提交事务。

提交事务后,Sink 会启动线程进行 Secondary Key 的清理工作,同时开启一个新的事务注意到,在第一个 Checkpoint 开始前,Sink 可能已经开始接收到写入的数据了,而此时它还没有事务的信息。

为了解决这一问题,TiFlink 在任务开始时会直接启动一个初始事务,其对应的 CheckpointID 是 0,用于提交最初的一些写入这样的话,在CheckpointID=1的 Checkpoint 完成时,实际上提交的是这个 0 事务。

事务和 Checkpoint 以这样的一种错位的方式协调执行下图展示了包含协调器在内的整个 TiFlink 任务的架构:TiFlink的系统架构基于以上的系统设计,我们就得到了一个在TiKV上实现延迟快照隔离的物化视图。

其他设计考虑众所周知,KSQL 是 Flink 之外另一个流行的流处理系统,它直接与 Kafka 消息队列系统结合,用户无需部署两套处理系统,因此受到一些用户的青睐很多用户也使用 KSQL 实现类似物化视图这样的需求。

然而在我看来,这种强耦合于消息队列的流处理系统并不适合物化视图的使用场景KSQL 可以说是 Log Oriented 数据处理系统的的代表,在这种系统中,数据的本源在于日志信息,所有的表都是为了方便查询而消费日志信息从而构建出来的视图。

这种系统具有模型简单、容易实现、可以长时间保存日志记录等优点与之相对是 Table Oriented 数据处理系统,MySQL、TiDB/TiKV 都属于这一类系统这一类系统的所有修改操作都作用于表数据结构,虽然期间也会有日志生成,但往往对表数据结构和日志的修改是一起协调进行的。

这里日志的主要是为持久化和事务服务,往往不会留存太长时间相比于 Log Oriented 数据处理系统,这类系统对写入和事务的处理都更为复杂一点,然而却拥有更强可扩展性的要求归根结底,这是因为 Log Oriented 系统中的数据是以日志的形式存储,因此在扩展时往往需要进行成本较高的 Rehash,也更难实现再平衡。

而 Table Oriented 的系统,数据主要以表的形式存储,因此可以以某些列进行有序排列,从而方便在一致性 Hash 的支持下实现 Range 的切分、合并和再平衡个人认为,在批流一体的物化视图场景下,长时间 Table Oriented 系统似乎更适合作为物化视图需求的存储承载介质。

当然,在实时消费增量 Log 时发生的分区合并或分裂是一个比较难处理的问题 TiKV 在这种情况下会抛出一个 GRPC 错误TiFlink 目前使用的是比较简单的静态映射方法处理任务和分区之间的关系,在未来可以考虑更为合理的解决方案。

总结本文介绍了使用 Flink 在 TiKV 上实现强一致的物化视图的基本原理以上原理已经基本上在 TiFlink 系统中实现,欢迎各位读者试用以上所有的讨论都基于 Flink 的最终一致模型的保证,即:。

流计算的结果只与消费的 Event 和他们在自己流中的顺序有关,与他们到达系统的顺序以及不同流之间的相对顺序无关目前的 TiFlink 系统还有很多值得提高的点,如:支持非 Integer 型主键和联合主键。

更好的 TiKV Region 到 Flink 任务的映射更好的 Fault Tolerance 和任务中断时 TiKV 事务的清理工作完善的单元测试如果各位读者对 TiFlink 感兴趣的话,欢迎试用并提出反馈意见,如果能够贡献代码帮助完善这个系统那就再好不过了。

关于物化视图系统一致性的思考是我今年最主要的收获之一实际上,最初我们并没有重视这一方面,而是在不断地交流当中才认识到这是一个有价值且很有挑战性的问题通过 TiFlink 的实现,可以说是基本上验证了上述方法实现延迟快照一致性的可行性。

当然,由于个人的能力水平有限,如果存在什么纰漏,也欢迎各位提出讨论最后,如果我们假设上述延迟快照一致性的论述是正确的,那么实现真正的快照隔离的方法也就呼之欲出不知道各位读者能否想到呢?Flink TiDB 物化视图。

TiDB Hackathon 2020

版权声明:本文内容由网络用户投稿,版权归原作者所有,本站不拥有其著作权,亦不承担相应法律责任。如果您发现本站中有涉嫌抄袭或描述失实的内容,请联系我们jiasou666@gmail.com 处理,核实后本网站将在24小时内删除侵权内容。

上一篇:TiFlash 的编译器面向自动向量化加速技术
下一篇:TiFS 能存数据,但为何不能存文件?探索原因
相关文章