面试必问的 volatile,你了解多少?

lurenyi 7年前
   <h3>前言</h3>    <p>Java中volatile这个热门的关键字,在面试中经常会被提及,在各种技术交流群中也经常被讨论,但似乎讨论不出一个完美的结果,带着种种疑惑,准备从JVM、C++、汇编的角度重新梳理一遍。</p>    <p>volatile的两大特性:禁止重排序、内存可见性,这两个概念,不太清楚的同学可以看这篇文章 -> <a href="/misc/goto?guid=4959756732246181863" rel="nofollow,noindex">java volatile关键字解惑</a></p>    <p>概念是知道了,但还是很迷糊, <strong>它们到底是如何实现的?</strong></p>    <p>本文会涉及到一些汇编方面的内容,如果多看几遍,应该能看懂。</p>    <h3>重排序</h3>    <p>为了理解重排序,先看一段简单的代码</p>    <pre>  public class VolatileTest {        int a = 0;      int b = 0;        public void set() {          a = 1;          b = 1;      }        public void loop() {          while (b == 0) continue;          if (a == 1) {              System.out.println("i'm here");          } else {              System.out.println("what's wrong");          }      }  }</pre>    <p>VolatileTest类有两个方法,分别是set()和loop(),假设线程B执行loop方法,线程A执行set方法,会得到什么结果?</p>    <p>答案是不确定,因为这里涉及到了编译器的重排序和CPU指令的重排序。</p>    <p>编译器重排序</p>    <p>编译器在不改变单线程语义的前提下,为了提高程序的运行速度,可以对字节码指令进行重新排序,所以代码中a、b的赋值顺序,被编译之后可能就变成了先设置b,再设置a。</p>    <p>因为对于线程A来说,先设置哪个,都不影响自身的结果。</p>    <p>CPU指令重排序</p>    <p>CPU指令重排序又是怎么回事?</p>    <p>在深入理解之前,先看看x86的cpu缓存结构。</p>    <p><img src="https://simg.open-open.com/show/cf99fc01bc5a5672dc7531bb6e358755.png"></p>    <p>1、各种寄存器,用来存储本地变量和函数参数,访问一次需要1cycle,耗时小于1ns;</p>    <p>2、L1 Cache,一级缓存,本地core的缓存,分成32K的数据缓存L1d和32k指令缓存L1i,访问L1需要3cycles,耗时大约1ns;</p>    <p>3、L2 Cache,二级缓存,本地core的缓存,被设计为L1缓存与共享的L3缓存之间的缓冲,大小为256K,访问L2需要12cycles,耗时大约3ns;</p>    <p>4、L3 Cache,三级缓存,在同插槽的所有core共享L3缓存,分为多个2M的段,访问L3需要38cycles,耗时大约12ns;</p>    <p>当然了,还有平时熟知的DRAM,访问内存一般需要65ns,所以CPU访问一次内存和缓存比较起来显得很慢。</p>    <p>对于不同插槽的CPU,L1和L2的数据并不共享,一般通过MESI协议保证Cache的一致性,但需要付出代价。</p>    <p>在MESI协议中,每个Cache line有4种状态,分别是:</p>    <p>1、M(Modified)</p>    <p>这行数据有效,但是被修改了,和内存中的数据不一致,数据只存在于本Cache中</p>    <p>2、E(Exclusive)</p>    <p>这行数据有效,和内存中的数据一致,数据只存在于本Cache中</p>    <p>3、S(Shared)</p>    <p>这行数据有效,和内存中的数据一致,数据分布在很多Cache中</p>    <p>4、I(Invalid)</p>    <p>这行数据无效</p>    <p>每个Core的Cache控制器不仅知道自己的读写操作,也监听其它Cache的读写操作,假如有4个Core:</p>    <p>1、Core1从内存中加载了变量X,值为10,这时Core1中缓存变量X的cache line的状态是E;</p>    <p>2、Core2也从内存中加载了变量X,这时Core1和Core2缓存变量X的cache line状态转化成S;</p>    <p>3、Core3也从内存中加载了变量X,然后把X设置成了20,这时Core3中缓存变量X的cache line状态转化成M,其它Core对应的cache line变成I(无效)</p>    <p>当然了,不同的处理器内部细节也是不一样的,比如Intel的core i7处理器使用从MESI中演化出的MESIF协议,F(Forward)从Share中演化而来,一个cache line如果是F状态,可以把数据直接传给其它内核,这里就不纠结了。</p>    <p>CPU在cache line状态的转化期间是阻塞的,经过长时间的优化,在寄存器和L1缓存之间添加了LoadBuffer、StoreBuffer来降低阻塞时间,LoadBuffer、StoreBuffer,合称排序缓冲(Memoryordering Buffers (MOB)),Load缓冲64长度,store缓冲36长度,Buffer与L1进行数据传输时,CPU无须等待。</p>    <p>1、CPU执行load读数据时,把读请求放到LoadBuffer,这样就不用等待其它CPU响应,先进行下面操作,稍后再处理这个读请求的结果。</p>    <p>2、CPU执行store写数据时,把数据写到StoreBuffer中,待到某个适合的时间点,把StoreBuffer的数据刷到主存中。</p>    <p>因为StoreBuffer的存在,CPU在写数据时,真实数据并不会立即表现到内存中,所以对于其它CPU是不可见的;同样的道理,LoadBuffer中的请求也无法拿到其它CPU设置的最新数据;</p>    <p>由于StoreBuffer和LoadBuffer是异步执行的,所以在外面看来,先写后读,还是先读后写,没有严格的固定顺序。</p>    <h3>内存可见性如何实现</h3>    <p>从上面的分析可以看出,其实是CPU执行load、store数据时的异步性,造成了不同CPU之间的内存不可见,那么如何做到CPU在load的时候可以拿到最新数据呢?</p>    <p>设置volatile变量</p>    <p>写一段简单的java代码,声明一个volatile变量,并赋值</p>    <pre>  public class VolatileTest {        static volatile int i;        public static void main(String[] args){          i = 10;      }  }</pre>    <p>这段代码本身没什么意义,只是想看看加了volatile之后,编译出来的字节码有什么不同,执行 javap -verbose VolatileTest 之后,结果如下:</p>    <p><img src="https://simg.open-open.com/show/9d274e8f6bb33fddad24e153507d83d0.png"></p>    <p>让人很失望,没有找类似关键字synchronize编译之后的字节码指令(monitorenter、monitorexit),volatile编译之后的赋值指令putstatic没有什么不同,唯一不同是变量i的修饰flags多了一个 ACC_VOLATILE 标识。</p>    <p>不过,我觉得可以从这个标识入手,先全局搜下 ACC_VOLATILE ,无从下手的时候,先看看关键字在哪里被使用了,果然在accessFlags.hpp文件中找到类似的名字。</p>    <p><img src="https://simg.open-open.com/show/2a1b99f058c241955d430eb5ca69aa12.png"></p>    <p>通过 is_volatile() 可以判断一个变量是否被volatile修饰,然后再全局搜”is_volatile”被使用的地方,最后在 bytecodeInterpreter.cpp 文件中,找到putstatic字节码指令的解释器实现,里面有 is_volatile() 方法。</p>    <p><img src="https://simg.open-open.com/show/7c0aa09977893351f2abfe0c919d8b36.png"></p>    <p>当然了,在正常执行时,并不会走这段逻辑,都是直接执行字节码对应的机器码指令,这段代码可以在debug的时候使用,不过最终逻辑是一样的。</p>    <p>其中cache变量是java代码中变量i在常量池缓存中的一个实例,因为变量i被volatile修饰,所以 cache->is_volatile() 为真,给变量i的赋值操作由 release_int_field_put 方法实现。</p>    <p>再来看看 release_int_field_put 方法</p>    <p><img src="https://simg.open-open.com/show/fb9372b013a9ed2bc3422d5c7cdeb453.png"></p>    <p>内部的赋值动作被包了一层, OrderAccess::release_store 究竟做了魔法,可以让其它线程读到变量i的最新值。</p>    <p><img src="https://simg.open-open.com/show/3c2a4874375daf292d3756204ff17dc9.png"></p>    <p>奇怪,在OrderAccess::release_store的实现中,第一个参数强制加了一个volatile,很明显,这是c/c++的关键字。</p>    <p>c/c++中的volatile关键字,用来修饰变量,通常用于语言级别的 <a href="/misc/goto?guid=4959756732333012235" rel="nofollow,noindex">memory barrier</a> ,在” <a href="http://www.amazon.com/gp/product/0201889544/ref=as_li_qf_sp_asin_il_tl?ie=UTF8&camp=1789&creative=9325&creativeASIN=0201889544&linkCode=as2&tag=job0ae-20" rel="nofollow,noindex">The C++ Programming Language</a> ”中,对volatile的描述如下:</p>    <pre>  A volatile specifier is a hint to a compiler that an object may change its value in ways not specified by the language so that aggressive optimizations must be avoided.  </pre>    <p>volatile是一种类型修饰符,被volatile声明的变量表示随时可能发生变化,每次使用时,都必须从变量i对应的内存地址读取,编译器对操作该变量的代码不再进行优化,下面写两段简单的c/c++代码验证一下</p>    <pre>  #include <iostream>    int foo = 10;  int a = 1;  int main(int argc, const char * argv[]) {      // insert code here...      a = 2;      a = foo + 10;      int b = a + 20;      return b;  }</pre>    <p>代码中的变量i其实是无效的,执行 g++ -S -O2 main.cpp 得到编译之后的汇编代码如下:</p>    <p><img src="https://simg.open-open.com/show/de1bc5017690c4b4a09d29a93d4ab764.png"></p>    <p>可以发现,在生成的汇编代码中,对变量a的一些无效负责操作果然都被优化掉了,如果在声明变量a时加上volatile</p>    <pre>  #include <iostream>    int foo = 10;  volatile int a = 1;  int main(int argc, const char * argv[]) {      // insert code here...      a = 2;      a = foo + 10;      int b = a + 20;      return b;  }</pre>    <p>再次生成汇编代码如下:</p>    <p><img src="https://simg.open-open.com/show/de72fca388b61839a1cc561e41f2a5f0.png"></p>    <p>和第一次比较,有以下不同:</p>    <p>1、对变量a赋值2的语句,也保留了下来,虽然是无效的动作,所以volatile关键字可以禁止指令优化,其实这里发挥了编译器屏障的作用;</p>    <p>编译器屏障可以避免编译器优化带来的内存乱序访问的问题,也可以手动在代码中插入编译器屏障,比如下面的代码和加volatile关键字之后的效果是一样</p>    <pre>  #include <iostream>    int foo = 10;  int a = 1;  int main(int argc, const char * argv[]) {      // insert code here...      a = 2;      __asm__ volatile ("" : : : "memory"); //编译器屏障      a = foo + 10;      __asm__ volatile ("" : : : "memory");      int b = a + 20;      return b;  }</pre>    <p>编译之后,和上面类似</p>    <p><img src="https://simg.open-open.com/show/3106017bd72eafde29f61441f4131ce0.png"></p>    <p>2、其中 _a(%rip) 是变量a的每次地址,通过 movl $2, _a(%rip) 可以把变量a所在的内存设置成2,关于RIP,可以查看 <a href="/misc/goto?guid=4959756732505213576" rel="nofollow,noindex">x64下PIC的新寻址方式:RIP相对寻址</a></p>    <p>所以,每次对变量a的赋值,都会写入到内存中;每次对变量的读取,都会从内存中重新加载。</p>    <p>感觉有点跑偏了,让我们回到JVM的代码中来。</p>    <p><img src="https://simg.open-open.com/show/0a7a4210c95a5615325d60495c5fd086.png"></p>    <p>执行完赋值操作后,紧接着执行 OrderAccess::storeload() ,这又是啥?</p>    <p>其实这就是经常会念叨的内存屏障,之前只知道念,却不知道是如何实现的。从CPU缓存结构分析中已经知道:一个load操作需要进入LoadBuffer,然后再去内存加载;一个store操作需要进入StoreBuffer,然后再写入缓存,这两个操作都是异步的,会导致不正确的指令重排序,所以在JVM中定义了一系列的内存屏障来指定指令的执行顺序。</p>    <p>JVM中定义的内存屏障如下,JDK1.7的实现</p>    <p><img src="https://simg.open-open.com/show/0027fd7f2c7d4cd94dfed46863f91e72.png"></p>    <p>1、loadload屏障(load1,loadload, load2)</p>    <p>2、loadstore屏障(load,loadstore, store)</p>    <p>这两个屏障都通过 acquire() 方法实现</p>    <p><img src="https://simg.open-open.com/show/d8d3ae655e92f9b0e251ee51929308b8.png"></p>    <p>其中 __asm__ ,表示汇编代码的开始。</p>    <p>volatile,之前分析过了,禁止编译器对代码进行优化。</p>    <p>把这段指令编译之后,发现没有看懂….最后的”memory”是编译器屏障的作用。</p>    <p>在LoadBuffer中插入该屏障,清空屏障之前的load操作,然后才能执行屏障之后的操作,可以保证load操作的数据在下个store指令之前准备好</p>    <p>3、storestore屏障(store1,storestore, store2)</p>    <p>通过”release()”方法实现:</p>    <p><img src="https://simg.open-open.com/show/554990416df472ec6a97212af9324dbf.png"></p>    <p>在StoreBuffer中插入该屏障,清空屏障之前的store操作,然后才能执行屏障之后的store操作,保证store1写入的数据在执行store2时对其它CPU可见。</p>    <p>4、storeload屏障(store,storeload, load)</p>    <p>对java中的volatile变量进行赋值之后,插入的就是这个屏障,通过”fence()”方法实现:</p>    <p><img src="https://simg.open-open.com/show/52e64b3dad85f71630d07ff437bb993c.png"></p>    <p>看到这个有没有很兴奋?</p>    <p>通过 os::is_MP() 先判断是不是多核,如果只有一个CPU的话,就不存在这些问题了。</p>    <p>storeload屏障,完全由下面这些指令实现</p>    <pre>  __asm__ volatile ("lock; addl $0,0(%%rsp)" : : : "cc", "memory");</pre>    <p>为了试验这些指令到底有什么用,我们再写点c++代码编译一下</p>    <pre>  #include <iostream>    int foo = 10;    int main(int argc, const char * argv[]) {      // insert code here...      volatile int a = foo + 10;      // __asm__ volatile ("lock; addl $0,0(%%rsp)" : : : "cc", "memory");      volatile int b = foo + 20;        return 0;  }</pre>    <p>为了变量a和b不被编译器优化掉,这里使用了volatile进行修饰,编译后的汇编指令如下:</p>    <p><img src="https://simg.open-open.com/show/493bfd2d56abff79c7da2ecfb33f33ae.png"></p>    <p>从编译后的代码可以发现,第二次使用foo变量时,没有从内存重新加载,使用了寄存器的值。</p>    <p>把 __asm__ volatile *** 指令加上之后重新编译</p>    <p><img src="https://simg.open-open.com/show/f5bc65af46cd1e639235676086816ce0.png"></p>    <p>相比之前,这里多了两个指令,一个lock,一个addl。</p>    <p>lock指令的作用是:在执行lock后面指令时,会设置处理器的LOCK#信号(这个信号会锁定总线,阻止其它CPU通过总线访问内存,直到这些指令执行结束),这条指令的执行变成原子操作,之前的读写请求都不能越过lock指令进行重排,相当于一个内存屏障。</p>    <p>还有一个:第二次使用foo变量时,从内存中重新加载,保证可以拿到foo变量的最新值,这是由如下指令实现</p>    <pre>  __asm__ volatile ( : : : "cc", "memory");</pre>    <p>同样是编译器屏障,通知编译器重新生成加载指令(不可以从缓存寄存器中取)。</p>    <p>读取volatile变量</p>    <p>同样在 bytecodeInterpreter.cpp 文件中,找到getstatic字节码指令的解释器实现。</p>    <p><img src="https://simg.open-open.com/show/f62695b43212b0646cde99ab5acc48b4.png"></p>    <p>通过 obj->obj_field_acquire(field_offset) 获取变量值</p>    <p><img src="https://simg.open-open.com/show/d8024f013622461d3347b3afe71f28ab.png"></p>    <p>最终通过 OrderAccess::load_acquire 实现</p>    <pre>  inline jint OrderAccess::load_acquire(volatile jint* p) { return *p; }</pre>    <p>底层基于C++的volatile实现,因为volatile自带了编译器屏障的功能,总能拿到内存中的最新值。</p>    <p> </p>    <p>来自:https://www.jianshu.com/p/506c1e38a922</p>    <p> </p>