多张图解,一扫你对多线程问题本质的所有误区
摘要: 本文并不讨论happends-before模型,只讨论底层原理,希望借着理解volatile,去理解一下它和CPU之间的关系
本文分享自华为云社区《当我深度探究了volatile的底层原理后,决定用超多的图解来一扫你对多线程问题本质的所有误区》,作者:breakDawn 。
《深入理解Java虚拟机》第二版中,关于volatile的原理,特地先讲述了如下图所示的JMM内存模型:
它用了8种内存操作,以及多种规则,来告诉你特定情况下线程间的数据会如何同步。
然而这个模型实际上已经在JDK5之后的虚拟机规范中被废弃了。
最新官方文档中是采用“happens-before”模型来帮助java程序员分析多线程环境下的运行情况。关于happends-before模型的详细解释,建议阅读《java并发编程的艺术》一书的第三章节。
本文并不讨论happends-before模型,只讨论底层原理,希望借着理解volatile,去理解一下它和CPU之间的关系。关于这部分内容,网上其实有很多错误的解读,根本原因在于没有从真正底层运行的原理考虑,导致了很多误区的产生。
本文将为你解答一下三大误区问题:
- MESI缓存一致性,为什么要设置4种状态这么复杂?是否都是同步、阻塞地保证缓存一致?
- 更新变量后,另一个线程真的永远不可见吗?多线程问题的本质是什么?
- volatile保证一致性的真正底层运行逻辑是什么?
以上问题,我将从CPU的层面,以超长图解和文字的形式,为你完整呈现。
目录(社区的markdown功能不支持[toc]。。):
- 为什么需要这个JMM模型?用来做什么的?
- 上述模型和背后操作系统、CPU实现有什么关系?工作内存对应什么,主内存对应什么?
- 什么是CPU缓存?CPU缓存长什么样?
- 2个CPU同时更新数据时,有什么办法避免同时修改主存?
- MESI协议超级详解
- 为什么要设计独占状态?
- 为什么CPU2对a值的获取,能够修改CPU1的状态?
- 修改完M状态后,发生了什么?是直接同步回内存吗?
- 不可见的误区例子
- 重头戏:有MESI保证可见性的下,为什么还有会多线程问题?
- CPU1等待其他CPU清空缓存的阻塞等待行为会不会太慢了?
- 有什么办法能加快响应速度Invalid消息的响应速度呢?
- 多线程问题与StoreBuffer、Invalid-Queue之间的关系
- volatile又是如何避免CPU更新延迟问题的?
- 图解总结
为什么需要这个JMM模型?用来做什么的?
这是为了给java开发者提供屏蔽平台差异性的、统一的多线程执行语义
不同的操作系统或者不同的CPU,其对多线程并发问题的支持情况是不同的,但jvm尽量在背后将其实现成一套统一的逻辑。
即你按照我的关键字操作,就可以像JMM模型里那样运作,不需要关心背后的CPU怎么跑的
上述模型和背后操作系统、CPU实现有什么关系?工作内存对应什么,主内存对应什么?
- 主内存对应于java堆中的对象实例部分(物理硬件的内存)
- 工作内存对应于虚拟机栈中的部分区域( 寄存器,高速缓存, 线程主要访问读写的都是工作内存)
什么是CPU缓存?CPU缓存长什么样?
CPU缓存可以理解为一个容量有限的哈希表。
将某地址数据根据地址做哈希,映射到缓存的某一行,并且有替换的情况。而划分两列,则是避免一出现hash冲突,就马上淘汰原内容的情况。因此增加了备用列。通过这样一个多行两列的结构,根据内存地址实现了缓存的功能。
2个CPU同时更新数据时,有什么办法避免同时修改主存?
- 一种方式是使用总线锁:确保CPU在持有总线锁期间,处理器可以独占任何共享内存。
总线锁的代价是开销很大,其他CPU会一直在等待总线释放,读和写操作都无法处理。
- 另一种方式是缓存锁,锁住各自的缓存,并通过缓存一致性协议MESI来进行和主存的同步。
MESI协议超级详解
画了很多张图,顺便带上很多文字,来解释MESI协议的原理:
首先,CPU1和CPU2中的缓存都是空的, 因此缓存状态位是“I”(Invalid),后面会相继提到各个状态的变化。
此时主存会将a的数据返回给CPU1, 并把CPU1的缓存状态设置为独占E(Exclude)
为什么要设计独占状态?
目的是为了减少不必要的全局同步消息。
当这个a变量只有CPU1使用时,无论CPU1怎么修改,也只有CPU1在查看,没必要把信息同步给其他CPU,从而提升了效率, 对于一些不参与竞争的变量来说,非常有用。
好,独占的问题搞定,那么当CPU2也读取时,会发生什么?
此时就会不再是独占状态了,2个CPU同时被修改为共享状态S(Share)
为什么CPU2对a值的获取,能够修改CPU1的状态?
这是因为CPU可以通过总线广播+监听消息来变更状态, 也称嗅探机制。即CPU核心都会经常监听总线上的广播事件,根据事件(消息)类型,来做不同的应对。
因此当CPU2更改后,总线会广播read消息,当CPU1收到read消息,并确认这个数据的地址和自己缓存中的地址是一致的时候,就会修改状态为S了。
上述问题搞定,再看最关键的修改缓存的部分了!
- 当CPU1触发对a变量的修改时,会先发送一个Invalid消息。
- CPU1此时会等待不动,停止任何操作,类似于阻塞了,它在等待其他CPU给他回应。
- 当其他的CPU收到Invalid消息时,会将缓存中的a变量修改为I(Invalid)无效状态
- 当所有CPU都处理完成时,总线为CPU1返回Invalid ack消息,CPU1才放心的将S状态修改为了M(modify)状态。
结合下面的图进行阅读更佳,注意图中的序号:
很容易想到, 要将其他CPU设置为无效的原因,是为了保证其他CPU后面再次试图取a值时,取到的是最新的,而不是缓存的错误数据。
修改完M状态后,发生了什么?是直接同步回内存吗?
不是的!M状态此时就像“独占状态”一样,贪婪地占有这个缓存,后续的修改、读取,都直接读这个缓存,不再走任何总线
其目的和独占状态E一样,都是为了减少非竞争情况下不必要的总线消耗
那么什么时候Modify状态会变化呢?
当其他的CPU试图获取a值,就会发生变化。其过程与 Exclude独占状态到Share状态 是类似的
上面的内容给我一种感觉,MESI协议中,一直在给我们传达一个信息:MESI设置那么多状态,主要是为了避免每次都竞争。竞争只是偶然发生的,我们要尽可能少地乱锁总线!
不可见的误区例子
从上面可以看到,当我们修改缓存时,会通过触发对其他缓存的无效化,达到变量对其他线程“可见”的效果。
因此,MESI缓存一致性协议已经实现了缓存的可见性,
下面这种例子中,当flag=true时, 其他CPU通过MESI协议,是能够感知到flag的变化的,因为缓存一定会在那个时刻被设置为无效,从而获取最新的数据。
class A { static boolean flag = false; static int num = 0; public static void main(String[] args) throws InterruptedException { new Thread(()->{ while (!flag){ num++; } }).start(); flag = true; } //输出结果 1255362997 }
重头戏:有MESI保证可见性的下,为什么还有会多线程问题?
首先可以看这个知乎问题的回答,如果看不懂,可以看我为你整理的详细解释:
https://www.zhihu.com/question/277395220
每个java线程有自己的寄存器。
线程寄存器和CPU缓存的关系?
上面的MESI协议图中,其实缺少了2个关键的优化,这2个优化点,也成了可见性问题的根源。
为了好好讲清楚这2个优化点带来的影响,我特地放到这里才讲述,也将会帮助你大大理解“可见性”问题的本质!
首先我们回到CPU1修改a值时的那张图:
里面提到,CPU1会等待所有CPU都将状态位置为I(无效)后,才开始修改状态并更新。那么有个问题:
CPU1等待其他CPU清空缓存的阻塞等待行为会不会太慢了?
如果CPU1后面有好几条和a无关的指令(例如b=3,d=e等),都在为了等待a的更新而不执行,未免太浪费时间了!
因此MESI设计了一个叫做 “StoreBuffer” 的东西,它会接收CPU1的修改动作,并由StoreBuffer来触发“阻塞等待->全部收到->修改状态M”的动作。
而CPU1则继续管自己去执行后续与a无关的指令。因此StoreBuffer就像是一个异步的“生产者消息队列”。,如下所示:
但是还有个问题,因为是等待所有CPU将a状态改为I,这个修改动作是需要时间的。
如果有一个CPU修改的比较慢,可能会导致 StoreBuffer这个生产者队列出现队满的情况,于是继续引发了阻塞。
有什么办法能加快响应速度Invalid消息的响应速度呢?
那就是再引入一个“异步的消费者队列”,名叫Invalid Queue
这样其他CPU收到消息时,先别急着处理,而是存到这个Queue中,然后直接返回Invalid消息,这样响应就变快了! 也就是更新动作,和失效消息的接收,都加了一个队列!
如下图所示:
多线程问题与StoreBuffer、Invalid-Queue之间的关系
终于来到了关键的部分了。
从刚才的描述中,可以看到CPU引入了2个异步的队列,来处理数据的更新动作。
那么就可能存在赋值的动作被放入异步队列,导致延迟触发的情况。
而正是这个延迟放入的动作,可能导致数据延迟修改,即使没有发生指令重排序。
这样干讲比较难懂,还是需要结合代码和图解。
首先是这个经典的多线程代码:
class ReorderExample { int a = 0; boolean flag = false; public void writer() { a = 1; // 1 flag = true; // 2 } Public void reader() { while (flag != true) { // 3 ; } int c = a * 2; // 4 ………… } }
按照设想,程序员本是希望有如下的表现:
但是事与愿违,当reader方法中离开了flag循环时,a的值仍然是初始化值0,导致c的值为0。
那么在了解了刚才的CPU原理后,我们终于可以开始分析这段代码为什么会发生这种问题了:
1、当线程writer执行a=1时,CPU要做更新,会通过上面提到的异步机制进行更新。如果这个CPU此时堆积了很多的写操作,会导致a=1这个动作在异步队列中处于等待。
2、时间片切换,线程writer切到了另一个CPU上
注意一个很重要的点:线程执行指令,并非只在1个CPU上运行,是可以通过时间片轮转切换的。因此CPU和线程并非完全绑定的关系
3、flag=true动作在CPU2上迅速响应,很快完成了缓存一致性
4、reader线程读到了最新的flag,却没有读到新的a,导致了a还在用旧的值。
因此可以看到,正是CPU之间缓存更新的延迟,导致了多线程不同步问题的发生
volatile又是如何避免CPU更新延迟问题的?
这里不谈论那让人费解的内存屏障, 只要记住一点:对于volatile变量,一旦更新,不会走CPU异步更新,而是在这个CPU阻塞住,直到写动作完整完成,才会继续下一个指令的运行
本质上是利用的#LOCK指令。
它的作用就是必须等待该变量的storeBuffer的清空,读取时也必须等待InvalidQueue的清空,才能去做写和读。从而保证不会出现因异步导致的多线程不同步问题
图解总结
写文章不容易,学习也不容易,给我点个关注点个赞,未来会持续更新具有思考深度的学习文章。欢迎在华为云社区共同交流和学习。
MESI缓存一致性原理图解如下:
多线程同步问题如下:
点击关注,第一时间了解华为云新鲜技术~