一篇文章带你学习etcd-wal模块解析

网友投稿 660 2023-05-31

一篇文章带你学习etcd-wal模块解析

一篇文章带你学习etcd-wal模块解析

Part1常见的数据库日志

传统数据库的日志,例如 redo log(重做日志),记录的是修改后的数据。其实就是 MySQL 里经常说到的 WAL 技术,它的关键点就是先写日志,再写磁盘。

redo log 是 InnoDB 引擎特有的;binlog 是 MySQL 的 Server 层实现的,所有引擎都可以使用。redo log 是物理日志,记录的是“在某个数据页上做了什么修改”;binlog 是逻辑日志,记录的是这个语句的原始逻辑,比如“给 ID=2 这一行的 c 字段加 1 ”。redo log 是循环写的,空间固定会用完;binlog 是可以追加写入的。“追加写”是指 binlog 文件写到一定大小后会切换到下一个,并不会覆盖以前的日志。

redis使用AOF(Append Only File),这样做的好处是会在执行命令成功后保存,不需要提前验证命令是否正确。AOF会保存服务器执行的所有写操作到日志文件中,在服务重启以后,会执行这些命令来恢复数据。而 AOF 里记录的是 Redis 收到的每一条命令,这些命令是以文本形式保存的。

etcd会判断命令是否合法,然后Leader 收到提案后,通过 Raft 模块的事件总线保存待发给 Follower 节点的消息和待持久化的日志条目,日志条目是封装的entry。etcdserver 从 Raft 模块获取到以上消息和日志条目后,作为 Leader,它会将 put 提案消息广播给集群各个节点,同时需要把集群 Leader 任期号、投票信息、已提交索引、提案内容持久化到一个 WAL(Write Ahead Log)日志文件中,用于保证集群的一致性、可恢复性。

Part2wal源码分析

etcd server在启动时,会根据是否wal目录来确定之前etcd是否创建过wal,如果没有创建wal,etcd会尝试调用wal.Create方法,创建wal。否则使用wal.Open及wal.ReadAll方法是reload之前的wal,逻辑在etcd/etcdserver/server.go的NewServer方法里,存在wal时会调用restartNode,下面分创建wal和加载wal两种情况作介绍。

wal的关键对象介绍如下

wal日志结构.png

dir:wal文件保存的路径

dirFile:dir打开后的一个目录fd对象

metadata:创建wal时传入的字节序列,etcd里面主要是序列化的是节点id及集群id相关信息,后续每创建一个wal文件就会将其写到wal的首部。

state:wal在append过程中保存的hardState信息,每次raft传出的hardState有变化都会被更新,并会及时刷盘,在wal有切割时会在新的wal头部保存最新的

hardState信息,etcd重启后会读取最后一次保存的hardState用来恢复宕机或机器重启时storage中hardState状态信息,hardState的结构如下:

start:记录最后一次保存的snapshot的元数据信息,主要是snapshot中最后一条日志Entry的index和Term,walpb.Snapshot的结构如:

type Snapshot struct {  Index            uint64 `protobuf:"varint,1,opt,name=index" json:"index"`  Term             uint64 `protobuf:"varint,2,opt,name=term" json:"term"`  XXX_unrecognized []byte `json:"-"` }

decoder:负责在读取WAL日志文件时,将protobuf反序列化成Record实例。

readClose:用于关闭decoder关联的reader,关闭wal读模式,通过是在readALL之后调用该函数实现的

enti:最后一次保存到wal中的日志Entry的index

encoder:负责将写入WAL日志文件的Record实例进行序列化成protobuf。

size :创建临时文件时预分配空间的大小,默认是 64MB (由wal.SegmentSizeBytes指定,该值也是每个日志文件的大小)。

locks:当前WAL实例管理的所有WAL日志文件对应的句柄。

fp:filePipeline实例负责创建新的临时文件。

WAL创建

先来看一下wal.Create()方法,该方法不仅会创建WAL实例,而是做了很多初始化工作,其大致步骤如下:

(1)创建临时目录,并在临时目录中创建编号为“0-0”的WAL日志文件,WAL日志文件名由两部分组成,一部分是seq(单调递增),另一部分是该日志文件中的第一条日志记录的索引值。

(2)尝试为该WAL日志文件预分配磁盘空间。

(3)向该WAL日志文件中写入一条crcType类型的日志记录、一条metadataType类型的日志记录及一条snapshotType类型的日志记录。

(4)创建WAL实例关联的filePipeline实例。

(5)将临时目录重命名为WAL.dir字段指定的名称。这里之所以先使用临时目录完成初始化操作再将其重命名的方式,主要是为了让整个初始化过程看上去是一个原子操作。这样上层模块只需要检查wal的目录是否存在。

wal.Create()方法的具体实现如下:

// Create creates a WAL ready for appending records. The given metadata is // recorded at the head of each WAL file, and can be retrieved(检索) with ReadAll. func Create(dirpath string, metadata []byte) (*WAL, error) {       // keep temporary wal directory so WAL initialization appears atomic     //先使用临时目录完成初始化操作再将其重命名的方式,主要是为了让整个初始化过程看上去是一个原子操作。  tmpdirpath := filepath.Clean(dirpath) + ".tmp"  if fileutil.Exist(tmpdirpath) {   if err := os.RemoveAll(tmpdirpath); err != nil {    return nil, err   }  }  if err := fileutil.CreateDirAll(tmpdirpath); err != nil {   return nil, err  }  // dir/filename  ,filename从walName获取  seq-index.wal  p := filepath.Join(tmpdirpath, walName(0, 0))  // 创建对文件上互斥锁  f, err := fileutil.LockFile(p, os.O_WRONLY|os.O_CREATE, fileutil.PrivateFileMode)  if err != nil {   return nil, err  }  // 定位到文件末尾  if _, err = f.Seek(0, io.SeekEnd); err != nil {   return nil, err  }  // 预分配文件,大小为SegmentSizeBytes(64MB)  if err = fileutil.Preallocate(f.File, SegmentSizeBytes, true); err != nil {   return nil, err  }  // 新建WAL结构  w := &WAL{   dir:      dirpath,   metadata: metadata,// metadata 可为nil  }  // 在这个wal文件上创建一个encoder  w.encoder, err = newFileEncoder(f.File, 0)  if err != nil {   return nil, err  }  // 把这个上了互斥锁的文件加入到locks数组中  w.locks = append(w.locks, f)  if err = w.saveCrc(0); err != nil {   return nil, err  }  // 将metadataType类型的record记录在wal的header处  if err = w.encoder.encode(&walpb.Record{Type: metadataType, Data: metadata}); err != nil {   return nil, err  }  // 保存空的snapshot  if err = w.SaveSnapshot(walpb.Snapshot{}); err != nil {   return nil, err  }  // 之前以.tmp结尾的文件,初始化完成之后重命名  if w, err = w.renameWal(tmpdirpath); err != nil {   return nil, err  }  // directory was renamed; sync parent dir to persist rename  pdir, perr := fileutil.OpenDir(filepath.Dir(w.dir))  if perr != nil {   return nil, perr  }     // 将parent dir 进行同步到磁盘  if perr = fileutil.Fsync(pdir); perr != nil {   return nil, perr  }      return w, nil }

WAL日志文件遵循一定的命名规则,由walName实现,格式为"序号--raft日志索引.wal"。

// 根据seq和index产生wal文件名 func walName(seq, index uint64) string {  return fmt.Sprintf("%016x-%016x.wal", seq, index) }

在创建的过程中,Create函数还向WAL日志中写入了两条数据,一条就是记录metadata,一条是记录snapshot,WAL中的数据都是以Record为单位保存的,结构定义如下:

// 存储在wal稳定存储中的消息一共有两种,这是第一种普通记录的格式 type Record struct {  Type             int64  `protobuf:"varint,1,opt,name=type" json:"type"`  Crc              uint32 `protobuf:"varint,2,opt,name=crc" json:"crc"`  Data             []byte `protobuf:"bytes,3,opt,name=data" json:"data,omitempty"`  XXX_unrecognized []byte `json:"-"` }

Record类型

其中Type字段表示该Record的类型,取值可以是以下几种:

const (  metadataType int64 = iota + 1  entryType  stateType  crcType  snapshotType  // warnSyncDuration is the amount of time allotted to an fsync before  // logging a warning  warnSyncDuration = time.Second )

对应于raft中的Snapshot(应用状态机的Snapshot),WAL中也会记录一些Snapshot的信息(但是它不会记录完整的应用状态机的Snapshot数据),WAL中的Snapshot格式定义如下:

// 存储在wal中的第二种Record消息,snapshot type Snapshot struct {  Index            uint64 `protobuf:"varint,1,opt,name=index" json:"index"`  Term             uint64 `protobuf:"varint,2,opt,name=term" json:"term"`  XXX_unrecognized []byte `json:"-"` }

在保存Snapshot的(注意这里的Snapshot是WAL里的Record类型,不是raft中的应用状态机的Snapshot)SaveSnapshot函数中:

// 持久化walpb.Snapshot func (w *WAL) SaveSnapshot(e walpb.Snapshot) error {  // pb序列化,此时的e可为空的  b := pbutil.MustMarshal(&e)  w.mu.Lock()  defer w.mu.Unlock()     // 创建snapshotType类型的record  rec := &walpb.Record{Type: snapshotType, Data: b}  // 持久化到wal中  if err := w.encoder.encode(rec); err != nil {   return err  }  // update enti only when snapshot is ahead of last index  if w.enti < e.Index {   // index of the last entry saved to the wal   // e.Index来自应用状态机的Index   w.enti = e.Index  }  // 同步刷新磁盘  return w.sync() }

一条Record需要先把序列化后才能持久化,这个是通过encode函数完成的(encoder.go),代码如下:

// 将Record序列化后持久化到WAL文件 func (e *encoder) encode(rec *walpb.Record) error {  e.mu.Lock()  defer e.mu.Unlock()  e.crc.Write(rec.Data)  // 生成数据的crc  rec.Crc = e.crc.Sum32()  var (   data []byte   err  error   n    int  )  if rec.Size() > len(e.buf) {   // 如果超过预分配的buf,就使用动态分配   data, err = rec.Marshal()   if err != nil {    return err   }  } else {   // 否则就使用与分配的buf   n, err = rec.MarshalTo(e.buf)   if err != nil {    return err   }   data = e.buf[:n]  }  lenField, padBytes := encodeFrameSize(len(data))  // 先写recode编码后的长度  if err = writeUint64(e.bw, lenField, e.uint64buf); err != nil {   return err  }  if padBytes != 0 {   // 如果有追加数据(对齐需求)   data = append(data, make([]byte, padBytes)...)  }  // 写recode内容  _, err = e.bw.Write(data)  return err }

从代码可以看到,一个Record被序列化之后(这里为protobuf格式),会以一个Frame的格式持久化。Frame首先是一个长度字段(encodeFrameSize完成,在encoder.go文件),64bit,56bit存数据。其中MSB表示这个Frame是否有padding字节,接下来才是真正的序列化后的数据。一般一个page是4096字节,对齐到8字节,不会出现一个double被拆到两个page的情况,在cache中,也不会被拆开:

func encodeFrameSize(dataBytes int) (lenField uint64, padBytes int) {  lenField = uint64(dataBytes)  // force 8 byte alignment so length never gets a torn write  padBytes = (8 - (dataBytes % 8)) % 8  if padBytes != 0 {   // lenField的高56记录padding的长度   lenField |= uint64(0x80|padBytes) << 56 // 最高位为1用于表示含有padding,方便在decode的时候判断  }  return lenField, padBytes }

最终,下图展示了包含了两个WAL文件的示例图。

filePipeline类型

filePipeline采用“饿汉式”,即提前创建一些文件备用,这样可以加快文件的创建速度。filePipeline它负责预创建日志文件并为日志文件预分配空间。在filePipeline中会启动一个独立的后台goroutine来创建“.tmp”结尾的临时文件,当进行日志文件切换时,直接将临时文件进行重命名即可使用。结构体filePipeline中各个字段的含义如下。

dir(string类型):存放临时文件的目录。

size (int64 类型):创建临时文件时预分配空间的大小,默认是 64MB (由wal.SegmentSizeBytes指定,该值也是每个日志文件的大小)。

count(int类型):当前filePipeline实例创建的临时文件数。

filec(chan*fileutil.LockedFile 类型):新建的临时文件句柄会通过 filec 通道返回给WAL实例使用。

errc(chan error类型):当创建临时文件出现异常时,则将异常传递到errc通道中。

donec(chan struct{}类型):当filePipeline.Close()被调用时会关闭donec通道,从而通知filePipeline实例删除最后一次创建的临时文件。

在newFilePipeline()方法中,除了创建filePipeline实例,还会启动一个后台goroutine来执行filePipeline.run()方法,该后台goroutine中会创建新的临时文件并将其句柄传递到filec通道中。filePipeline.run()方法的具体实现如下:

// filePipeline pipelines allocating disk space type filePipeline struct {  // dir to put files  dir string  // size of files to make, in bytes  size int64  // count number of files generated  count int  filec chan *fileutil.LockedFile  errc  chan error  donec chan struct{} } func newFilePipeline(dir string, fileSize int64) *filePipeline {  fp := &filePipeline{   dir:   dir,   size:  fileSize,   filec: make(chan *fileutil.LockedFile),   errc:  make(chan error, 1),   donec: make(chan struct{}),  }  // 一直执行预分配  go fp.run()  return fp } // Open returns a fresh file for writing. Rename the file before calling // Open again or there will be file collisions. func (fp *filePipeline) Open() (f *fileutil.LockedFile, err error) {  select {  case f = <-fp.filec: // 从filec通道中获取文件描述符,并返回  case err = <-fp.errc: // 如果创建失败,从errc通道中获取,并返回  }  return f, err }  func (fp *filePipeline) Close() error {  close(fp.donec)  return <-fp.errc //出现错误,关闭donec通道并向errc通到中发送错误 }  func (fp *filePipeline) alloc() (f *fileutil.LockedFile, err error) {  // count % 2 so this file isn't the same as the one last published       // 创建临时文件的编号是0或者1。  fpath := filepath.Join(fp.dir, fmt.Sprintf("%d.tmp", fp.count%2))     //创建临时文件,注意文件的模式与权限。  if f, err = fileutil.LockFile(fpath, os.O_CREATE|os.O_WRONLY, fileutil.PrivateFileMode); err != nil {   return nil, err  }  // 尝试预分配,如果当前文件系统不支持预分配空间,则不会报错。  if err = fileutil.Preallocate(f.File, fp.size, true); err != nil {   f.Close() //如果出现异常,则会关闭donec通道   return nil, err  }  // 已经分配的文件个数  fp.count++  return f, nil //返回创建的临时文件 }  // goroutine func (fp *filePipeline) run() {  defer close(fp.errc)  for {   // 调用alloc()执行创建临时文件   f, err := fp.alloc()   if err != nil {    fp.errc <- err    return   }   select {   case fp.filec <- f:  // 等待消费方从这个channel中取出这个预创建的被锁的文件   case <-fp.donec:    //关闭时触发,删除最后一次创建的临时文件    os.Remove(f.Name())    f.Close()    return   }  } }

版权声明:本文内容由网络用户投稿,版权归原作者所有,本站不拥有其著作权,亦不承担相应法律责任。如果您发现本站中有涉嫌抄袭或描述失实的内容,请联系我们jiasou666@gmail.com 处理,核实后本网站将在24小时内删除侵权内容。

上一篇:Redisson 分布式锁源码之公平锁排队加锁
下一篇:云原生云数据库的前景:企业数据处理的首选方案
相关文章