高成本云服务?TiDB 帮你省钱
644
2024-04-02
author: Woody
TiFlash 初期的时候, 存在一个棘手的问题:对于复杂的小查询, 无论增加多少并发, TiFlash 的整机 CPU 使用率都远远不能打满。 如下图:
对 TiFlash 和问题本身经过一段时间的了解后,认为方向应该在“公共组件”(全局锁、底层存储、上层服务等)上。 在这个方向上做“地毯式”排查后, 终于定位到问题的一个重要原因: 高并发下频繁的线程创建和释放, 这会引发线程在创建/释放过程出现排队和阻塞现象。 后来我们成功优化并解决了该问题,不过问题本身还是非常有借鉴和参考价值的。
由于 TiFlash 的工作模式依赖于启大量临时新线程去做一些局部计算或者其他的事情, 大量线程创建/释放过程出现了排队和阻塞现象,导致应用的计算工作也被阻塞了。 而且并发越多, 这个问题越严重, 所以 CPU 使用率不再随着并发增加而增加。
具体的排查过程, 因为篇幅有限, 本篇就不多赘述了。 首先我们可以构造个简单实验来复现这个问题:
首先定义三种工作模式: wait、 work 、 workOnNewThread
wait: while 循环, 等待condition_variable。
work: while 循环 , 每次memcpy 20 次(每次memcpy copy 1000000 bytes)。
workOnNewThread: while循环, 每次申请新的 thread, 新 thread 内memcpy 20 次, join等待线程结束, 重复这个过程。
接下来按不同的工作模式组合去做实验。
实验 1:40 个 work 线程
实验 2:1000 个 wait 线程, 40 个 work 线程
实验 3:40 个 workOnNewThread 线程
实验 4:120 个 workOnNewThread 线程
实验 5:500 个 workOnNewThread 线程
各实验 CPU 使用率如下:
Test 1Test 2Test 3Test 4Test 5Description40 work40 work & 1000 wait40 workOnNewThread120 workOnNewThead500 workOnNewTheadCPU Usage~100%~100%~87%~84%~86%实验 1 和 2 表明, 即使实验 2 比实验 1 多了 1000 个 wait 线程,并不会因为 wait 线程数非常多而导致 cpu 打不满。 过多的 wait 线程数并不会让 CPU 打不满。 从原因上来讲,wait 类型的线程不参与调度,后面会讲到。 另外,linux 采用的是 cfs 调度器,时间复杂度是 O(lgn),所以理论上大规模可调度线程数目也并不会给调度增加明显的压力。
实验 3、4、5 表明,如果大量工作线程的工作模式是频繁申请和释放线程, 可以导致cpu打不满的情况。
接下来带大家一起分析下, 为什么线程的频繁创建和释放会带来排队和阻塞现象,代价如此之高?
使用 GDB 查看线程的频繁创建和释放场景下的程序, 可以看到线程创建和释放过程被lll_lock_wait_private的锁阻塞掉。 如图:
#0 _lll_lock_wait_private () at ../nptl/sysdeps/unix/sysv/linux/x86_64/lowlevellock.S:95 #1 0x00007fbc55f60d80 in _L_lock_3443 () from /lib64/libpthread.so.0 #2 0x00007fbc55f60200 in get_cached_stack (memp=<synthetic pointer>, sizep=<synthetic pointer>) at allocatestack.c:175 #3 allocate_stack (stack=<synthetic pointer>, pdp=<synthetic pointer>, attr=0x7fbc56173400 <__default_pthread_attr>) at allocatestack.c:474 #4 __pthread_create_2_1 (newthread=0x7fb8f6c234a8, attr=0x0, start_routine=0x88835a0 <std::execute_native_thread_routine(void*)>, arg=0x7fbb8bd10cc0) at pthread_create.c:447 #5 0x0000000008883865 in __gthread_create (__args=<optimized out> __func=0x88835a0 <std::execute_native_thread_routine(void*)>, __threadid=_threadid@entry=0x7fb8f6c234a8) at /root/XXX/gcc-7.3.0/x86_64-pc-linux-gnu/libstdc++-v3/include/x86_64-pc-linux-gnu/b... #6 std::thread::_M_start_thread (this=this@entry=0x7fb8f6c234a8,state=...) at ../../../../-/libstdc++-v3/src/c++11/thread.cc:163Figure 1: 线程申请阻塞时堆栈(1)
#0 _lll_lock_wait_private () at ../nptl/sysdeps/unix/sysv/linux/x86_64/lowlevellock.S:95 #1 0x00007fbc55f60e59 in _L_lock_4600 () from /lib64/libpthread.so.0 #2 0x00007fbc55f6089f in allocate_stack (stack=<synthetic pointer>, pdp=<synthetic pointer> attr=0x7fbc56173400 <__default_pthread_attr>) at allocatestack.c:552 #3 __pthread_create_2_1 (newthread=0x7fb5f1a5e8b0, attr=0x0, start_routine=0x88835a0 <std::execute_native_thread_routine(void*)>, arg=0x7fbb8bcd6500) at pthread_create.c:447 #4 0x0000000008883865 in __gthread_create (__args=<optimized out>, __func=0x88835a0 <std::execute_native_thread_routine(void*)>, __threadid=__threadid@entry=0x7fb5f1a5e8b0) at /root/XXX/gcc-7.3.0/x86_64-pc-linux-gnu/libstdc++-v3/include/... #5 std::thread::_M_start_thread (this=this@entry=0x7fb5f1a5e8b0, state=...) at ../../../.././libstdc++-v3/src/c++11/thread.cc:163Figure 2: 线程申请阻塞时堆栈(2)
#0 __lll_lock_wait_private () at ../nptl/sysdeps/unix/sysv/linux/x86_64/lowlevellock.S:95 #1 0x00007fbc55f60b71 in _L_lock_244 () from /lib64/libpthread.so.0 #2 0x00007fbc55f5ef3c in _deallocate_stack (pd=0x7fbc56173320 <stack_cache_lock>, pd@entry=0x7fb378912700) at allocatestack.c:704 #3 0x00007fbc55f60109 in __free_tcb (pd=pd@entry=0x7fb378912700) at pthread_create.c:223 #4 0x00007fbc55f61053 in pthread_join (threadid=140408798652160, thread_return=0x0) at pthread_join.c:111 #5 0x0000000008883803 in __gthread_join (__value_ptr=0x0, __threadid=<optimized out>) at /root/XXX/gcc-7.3.0/x86_64-pc-linux-gnu/libstdc++-v3/include/x86_64-pc-linux-gnu/bits/gthr-default.h:668 #6 std::thread::join (this=this@entry=0x7fbbc2005668) at ../../../.././libstdc++-v3/src/c++11/thread.cc:136Figure 3: 线程释放阻塞时堆栈
从图中堆栈可以看到, 线程创建时会调用allocate_stack和get_cached_stack, 而线程释放时会调用__deallocate_stack, 这几个函数会因为触发了名为__lll_lock_wait_private的锁争抢而发生阻塞。
为了解释这个情况, 需要对 thread 的创建释放过程进行了解。
我们日常用到的线程, 是通过 NPTL 实现的 pthread. NPTL(native posix thread library), 俗称原生 pthread 库, 本身集成在 glibc 里面。 在分析了 glibc 的相关源码后, 可以了解到 pthread 创建和释放的工作过程。
线程创建工作会给线程分配 stack, 析构工作会释放 stack, 这期间会用到stack_used和stack_cache两个链表: stack_used维护的是正在被线程使用 stack, 而stack_cache维护的是的之前线程释放后回收可利用的 stack。 线程申请 stack 时, 并不是直接去申请新的 stack, 而是先尝试从stack_cache里获取。
__lll_lock_wait_private是 private 形态的__lll_lock_wait, 实际是一种基于 futex 实现的互斥锁,后面会讲到, private 是指在这个锁只在进程内部使用, 而不会跨进程。
这个锁争抢就是在线程调用allocate_stack(线程申请时)、deallocate_stack(线程释放时)过程中对这两个链表进行操作时发生的。
allocate_stack 过程:
/* Returns a usable stack for a new thread either by allocating a new stack or reusing a cached stack of sufficient size. ATTR must be non-NULL and point to a valid pthread_attr. PDP must be non-NULL. */ static int allocate_stack (const struct pthread_attr *attr, struct pthread **pdp, ALLOCATE_STACK_PARMS) { ... // do something /* Get memory for the stack. */ if (__glibc_unlikely (attr->flags & ATTR_FLAG_STACKADDR)) { ... // do something } else { // main branch /* Allocate some anonymous memory. If possible use the cache. */ ... // do something /* Try to get a stack from the cache. */ reqsize = size; pd = get_cached_stack (&size, &mem); /* If get_cached_stack() succeed, it will use cached_stack to do rest work. Otherwise, it will call mmap() to allocate a stack. */ if (pd == NULL) // if pd == NULL, get_cached_stack() failed { ... // do something mem = mmap (NULL, size, prot, MAP_PRIVATE | MAP_ANONYMOUS | MAP_STACK, -1, 0); ... // do something /* Prepare to modify global data. */ lll_lock (stack_cache_lock, LLL_PRIVATE); // global lock /* And add to the list of stacks in use. */ stack_list_add (&pd->list, &stack_used); lll_unlock (stack_cache_lock, LLL_PRIVATE); ... // do something } ... //do something } ... //do something return 0; } /* Get a stack frame from the cache. We have to match by size since some blocks might be too small or far too large. */ static struct pthread * get_cached_stack (size_t *sizep, void **memp) { size_t size = *sizep; struct pthread *result = NULL; list_t *entry; lll_lock (stack_cache_lock, LLL_PRIVATE); // global lock /* Search the cache for a matching entry. We search for the smallest stack which has at least the required size. Note that in normal situations the size of all allocated stacks is the same. As the very least there are only a few different sizes. Therefore this loop will exit early most of the time with an exact match. */ list_for_each (entry, &stack_cache) { ... // do something } ... // do something /* Dequeue the entry. */ stack_list_del (&result->list); /* And add to the list of stacks in use. */ stack_list_add (&result->list, &stack_used); /* And decrease the cache size. */ stack_cache_actsize -= result->stackblock_size; /* Release the lock early. */ lll_unlock (stack_cache_lock, LLL_PRIVATE); ... // do something return result; }Figure 4: allocate_stack 代码分析
结合堆栈和源码可知,pthread_create最开始会调用allocate_stack来进行线程堆栈的分配。 具体过程如上图: 首先检查用户是否自己提供了 stack 空间, 如果是, 那么直接用用户提供的空间进行分配。 不过这种情况很少见。 默认情况下, 用户是不提供的, 而是系统自己去分配。 这种情况下会先调用 get_cached_stack, 尝试从已经分配过的 stack 列表中重新利用。 如果获取 stack 失败, 那么会调用 syscallmmap进行 stack 的分配, 获取 stack 后, 会尝试获取全局锁lll_lock将 stack 添加到stack_used列表中。 这个过程中, get_cached_stack内部也会尝试获取相同的全局锁lll_lock, 首先扫描stack_cache列表, 将可用的 stack 找到, 然后将该 stack 从stack_cache列表中删除, 再加入到stack_used列表中。
deallocate_stack过程:
void internal_function __deallocate_stack (struct pthread *pd) { lll_lock (stack_cache_lock, LLL_PRIVATE); //global lock /* Remove the thread from the list of threads with user defined stacks. */ stack_list_del (&pd->list); /* Not much to do. Just free the mmap()ed memory. Note that we do not reset the used flag in the tid field. This is done by the kernel. If no thread has been created yet this field is still zero. */ if (__glibc_likely (! pd->user_stack)) (void) queue_stack (pd); else /* Free the memory associated with the ELF TLS. */ _dl_deallocate_tls (TLS_TPADJ (pd), false); lll_unlock (stack_cache_lock, LLL_PRIVATE); } /* Add a stack frame which is not used anymore to the stack. Must be called with the cache lock held. */ static inline void __attribute ((always_inline)) queue_stack (struct pthread *stack) { /* We unconditionally add the stack to the list. The memory may still be in use but it will not be reused until the kernel marks the stack as not used anymore. */ stack_list_add (&stack->list, &stack_cache); stack_cache_actsize += stack->stackblock_size; if (__glibc_unlikely (stack_cache_actsize > stack_cache_maxsize)) //if stack_cache is full, release some stacks __free_stacks (stack_cache_maxsize); } /* Free stacks until cache size is lower than LIMIT. */ void __free_stacks (size_t limit) { /* We reduce the size of the cache. Remove the last entries until the size is below the limit. */ list_t *entry; list_t *prev; /* Search from the end of the list. */ list_for_each_prev_safe (entry, prev, &stack_cache) { struct pthread *curr; curr = list_entry (entry, struct pthread, list); if (FREE_P (curr)) { ... // do something /* Remove this block. This should never fail. If it does something is really wrong. */ if (munmap (curr->stackblock, curr->stackblock_size) != 0) abort (); /* Maybe we have freed enough. */ if (stack_cache_actsize <= limit) break; } } }Figure 5: deallocate_stack 代码分析
//file path: nptl/allocatestack.c /* Maximum size in kB of cache. */ static size_t stack_cache_maxsize = 40 * 1024 * 1024; /* 40MiBi by default. */ static size_t stack_cache_actsize;Figure 6: stack_cache 列表容量 stack_cache_maxsize 的默认值
结合堆栈和源码可知,线程在结束时, 会调用__free_tcb来先将线程的 TCB(Thread Control Block, 线程的元数据)释放, 然后调用deallocate_stack将 stack 回收。 这个过程中, 主要的瓶颈点在deallocate_stack上。 deallocate_stack会尝试持有跟allocate_stack里面相同的lll_lock全局锁, 将 stack 从stack_used列表中删除。 然后判断 stack 是否是系统分配的, 如果是, 那么将其加入到stack_cache列表中。 加入后, 会检查stack_cache列表的大小是否超出阈值stack_cache_maxsize, 如果是, 那么会调用__free_stacks函数释放一些 stack 直到小于阈值stack_cache_maxsize。 值得注意的是,__free_stacks函数里面会调用 syscall munmap来释放内存。对于阈值stack_cache_maxsize,如上图,从源码上看,它的默认值是 4010241024, 结合代码中的注释, 似乎单位是 kB。但是后来实测后发现, 这个注释是有问题, 实际上stack_cache_maxsize的单位是 Byte, 也就是默认 40MB。 而 thread 默认 stack 大小一般为 8~10MB,也就是说glibc默认情况下大概可以帮用户cache 4~5 个线程 stack。
由此可见, 线程在创建和释放过程中, 都会抢同一把全局互斥锁lll_lock, 从而在高并发线程创建/释放时, 这些线程会发生排队、阻塞的情况。 由于这个过程中同一时间只能一个线程在工作, 假设线程创建/释放的代价是 c, 那么可以大致推算出 n 个线程创建/释放的平均延迟 avg_rt = (1+2+…+n)c/n = n(n+1)/2c/n=(n+1)*c/2。 也就是创建/释放的平均延迟随并发数线性增加。 在 TiFlash 上对线程创建做打点监控后发现,40 个嵌套查询(max_threads=4,注:此为 TiFlash 的并发度参数)下, 线程创建/释放的线程数规模达到了 3500 左右, 线程创建平均延迟居然达到了 30ms! 这是延迟是非常恐怖的, 线程创建/释放已经不像想象中那么“轻量”了。 单次操作的延迟已经如此之高 ,对于像 TiFlash 这种嵌套型的线程创建场景,可想而知会更严重。
讲到这里, 大家已经了解到线程创建和释放过程会尝试获取全局互斥锁而发生排队阻塞的行为, 不过可能还对lll_lock一头雾水。 什么是lll_lock
Figure 7: futex
lll是 low level lock 的缩写, 俗称底层锁, 实际是基于 Futex 实现的互斥锁。 Futex, 全称 fast userspace mutex, 是一个非 vDSO 的 system call。 高版本 linux 的 mutex 也是基于 futex 实现的。futex 的设计思路认为大部分情况锁争抢是不会发生的, 这时候可以直接在用户态完成锁操作。 而当发生锁争抢时,lll_lock通过非 vDSO 的系统调用 sys_futex(FUTEX_WAIT)陷入内核态等待被唤醒。 成功抢到锁的线程, 干完活后, 通过lll_unlock来唤醒 val 个线程(val 一般设为 1), lll_unlock实际通过非 vDSO 的系统调用sys_futex(FUTEX_WAIT)来完成唤醒操作。
从上面对 lll_lock、futex 的原理中可以了解到, 如果是非争抢情况下, 这个操作是比较轻量的, 也不会陷入内核态。 但是在争抢情况下, 不但发生了排队阻塞, 还会触发用户态和内核态的切换, 线程的创建/释放效率雪上加霜。内核态和用户态的切换之所以慢, 主要因为非 vDSO 的系统调用。 下面不妨讲讲系统调用的代价。
现代 linux 系统中, 一般会将部分的 syscall 集合用 vDSO 的方式暴露给进程, 进程以 vDSO 的方式对 syscall 进行调用其实是很高效的, 因为不涉及到用户态和内核态的切换。 而非 vDSO 的 syscall 就不那么幸运了, 不幸的是 Futex 就属于非 vDSO 类的。
Figure 8: system call 工作方式
传统的 syscall 通过 int 0x80 中断的方式进行, CPU 把控制权交给 OS, OS 会检查传入的参数, 例如SYS_gettimeofday, 然后再根据寄存器中的系统调用号查找系统调用表,获得调用号对应的服务函数并执行比如: gettimeofday。中断会强制 CPU 保存中断前的执行状态, 为了在中断结束后可以把状态恢复。 除了中断本身, kernel 还会做更多的事情。 Linux 被分为用户空间和内核空间, 内核空间的权限等级最高,可以直接对硬件做操作.为了防止用户程序的恶意行为,用户应用无法直接访问内核空间, 要想做用户态无法完成的工作,便需要 syscall 来间接完成, kernel 必须在用户和内核这两个内存段之间切换来完成这个操作。 这种内存地址的切换, 需要 CPU 寄存器内容的“大换血”,因为需要保存和恢复之前寄存器的现场.此外还要对用户传入的内容做额外的权限检查,所以对性能的冲击是比较大的。 现代的 CPU 提供了 syscall 指令, 因此高版本的 linux 实际通过 syscall 指令来代替原来的 int 0x80 中断方式, 但是代价依然很高。
感兴趣的朋友可以阅读这几篇文章:
Syscall 和 vDSO:http://davisdoesdownunder.blogspot.com/2011/02/linux-syscall-vsyscall-and-vdso-oh-my.html
Syscall 的代价:http://arkanis.de/weblog/2017-01-05-measurements-of-system-call-performance-and-overhead
从之前 futex 介绍中讲到, mutex 实际也是基于 futex 实现的。同样都是基于 futex 实现,为啥线程创建/析构就会变慢呢?
通过修改 glibc 和 kernel 的源码,在里面加入 trace 代码, 定位到线程创建/析构在 futex 临界区内耗时主要是munmap这个 syscall 贡献的。之前的源码分析中讲到,当线程释放时,如果 stack_cache列表已经满了, 会调用munmap来将 stack 释放掉。
munmap这个操作的耗时大概有几 us 甚至几十 us。几乎贡献了整个过程耗时的 90%以上。又因为munmap是通过 futex 全局锁在完成的, 导致这期间其他的线程创建/析构工作都必须阻塞。引发严重的性能降级。
所以,线程创建/析构慢的更深层原因是:线程析构时如果stack_cache满了,需要调用munmap来将 stack 释放,这个过程的 futex 临界区耗时过长!这样创建和析构在抢同一把 futex 锁的时候,都会发生阻塞现象。
接下来我们分析下 munmap 为什么会这么慢。
首先简要讲下munmap的工作过程:munmap会根据要释放的内存范围寻找对应的虚拟内存区 VMA(virtual memory area),如果要释放的内存范围的首尾正好落在某个 VMA 的中间, 那么需要对对应的 VMA 进行分裂。然后解映射 unmap、释放对应的 VMA、页表。并作废相关的 TLB。
通过在 kernel 的中加入的 trace 发现,耗时主要发生在tlb_flush_mmu中, 这个是驱逐 TLB 的过程。 因为munmap在释放内存后, 需要将过期失效的 TLB 作废掉, 所以会调用这个函数。
再深入下去,如果涉及的 TLB 在多个 cpu 核上都存在,tlb_flush_mmu会调用smp_call_function_many来在这些核上都做一遍 flush TLB,并且以同步的方式等待该过程执行完毕。单核 Flush TLB 的操作通过单核中断完成, 多核 Flush TLB 需要通过核间中断 IPI 来完成。
通过 trace 定位, 耗时主要是 IPI 贡献的, 光是 IPI 通讯的耗时就有几 us 甚至几十 us, 而 flush TLB 本身却不到 1us。
Figure 9: 核间中断 IPI 工作方式
IPI 的具体工作方式如上图,多个 CPU 核心通过系统总线 System Bus 进行 IPI 消息的通讯, 当一个 CPU 核需要在多个 CPU 核心上做 IPI 工作时,该核心会发送 IPI 请求到 System Bus 并等待其他核心全部完成 IPI 操作,相关的 CPU 核心上收到 IPI 请求后处理自己的 Interrupt 任务,完成后通过 System Bus 通知发起方。 因为这个过程需要通过 CPU 外部的 System Bus 来完成,并且发起方在发送 IPI 到等待其他核心完成中断操作的过程中只能傻等着,所以 overhead 非常高(几 us 甚至更高)。
翻看别人的研究成果, 更加验证了 IPI 是很重的操作。 根据 18 年发表的论文 Latr: Lazy Translation Coherence 的研究表明,
“an IPI takes up to 6.6 μs for 120 cores with 8 sockets and 2.7 μs for 16 cores with 2 sockets.” ,
也就是说一次 IPI 操作的 overhead 大概就是 us 级别的。
版权声明:本文内容由网络用户投稿,版权归原作者所有,本站不拥有其著作权,亦不承担相应法律责任。如果您发现本站中有涉嫌抄袭或描述失实的内容,请联系我们jiasou666@gmail.com 处理,核实后本网站将在24小时内删除侵权内容。