嘿嘿,我就知道面试官接下来要问我 ConcurrentHashMap 底层原理了,看我怎么秀他

2022-10-08,,,,

前言

上篇文章介绍了 hashmap 源码后,在博客平台广受好评,让本来己经不打算更新这个系列的我,仿佛被打了一顿鸡血。真的,被读者认可的感觉,就是这么奇妙。

然后,有读者希望我能出一版 concurrenthashmap 的解析。所以,今天的这篇文章,我准备讲述一下 concurrenthashmap 分别在jdk1.7和 jdk1.8 的源码。文章较长,建议小伙伴们可以先收藏再看哦~

说一下为什么我要把源码解析写的这么详细吧。一方面,可以记录下当时自己的思考过程,也方便后续自己复习翻阅;另一方面,记录下来还能够帮助看到文章的小伙伴加深对源码的理解,简直是一举两得的事情。

更正错误

另外,上一篇文章,有个错误点,却没有读者给我指正出来。o(╥﹏╥)o 。因此,我只能自己在此更正一下。见下面截图,

put 方法,在新值替换旧值那里,应该是只有一种情况的,e 不包括新值。图中的方框也标注出来了。因为,判断 e=p.next==null , 然后新的节点是赋值给 p.next 了,并没有赋值给 e,此时 e 依旧是空的。所以 e!=null,代表当前的 e 是已经存在的旧值。

文章编写过程,难免出现作者考虑不周的地方,如果有朋友发现有错误的地方,还请不吝赐教,指正出来。知错能改,善莫大焉,对于技术,我们应该怀有一颗严谨的心态~

文章目录

这篇文章,我打算从以下几个方面来讲。

1)多线程下的 hashmap 有什么问题?

2)怎样保证线程安全,为什么选用 concurrenthashmap?

3)concurrenthashmap 1.7 源码解析

  • 底层存储结构
  • 常用变量
  • 构造函数
  • put() 方法
  • ensuresegment() 方法
  • scanandlockforput() 方法
  • rehash() 扩容机制
  • get() 获取元素方法
  • remove() 方法
  • size() 方法是怎么统计元素个数的

4)concurrenthashmap 1.8 源码解析

  • put()方法详解
  • inittable()初始化表
  • addcount()方法
  • fulladdcount()方法
  • transfer()是怎样扩容和迁移元素的
  • helptransfer()方法帮助迁移元素

多线程下 hashmap 有什么问题?

在上一篇文章中,已经讲解了 hashmap 1.7 死循环的成因,也正因为如此,我们才说 hashmap 在多线程下是不安全的。但是,在jdk1.8 的 hashmap 改为采用尾插法,已经不存在死循环的问题了,为什么也会线程不安全呢?

我们以 put 方法为例(1.8),

假如现在有两个线程都执行到了上图中的划线处。当线程一判断为空之后,cpu 时间片到了,被挂起。线程二也执行到此处判断为空,继续执行下一句,创建了一个新节点,插入到此下标位置。然后,线程一解挂,同样认为此下标的元素为空,因此也创建了一个新节点放在此下标处,因此造成了元素的覆盖。

所以,可以看到不管是 jdk1.7 还是 1.8 的 hashmap 都存在线程安全的问题。那么,在多线程环境下,应该怎样去保证线程安全呢?

怎样保证线程安全,为什么选用 concurrenthashmap?

首先,你可能想到,在多线程环境下用 hashtable 来解决线程安全的问题。这样确实是可以的,但是同样的它也有缺点,我们看下最常用的 put 方法和 get 方法。

可以看到,不管是往 map 里边添加元素还是获取元素,都会用 synchronized 关键字加锁。当有多个元素之前存在资源竞争时,只能有一个线程可以获取到锁,操作资源。更不能忍的是,一个简单的读取操作,互相之间又不影响,为什么也不能同时进行呢?

所以,hashtable 的缺点显而易见,它不管是 get 还是 put 操作,都是锁住了整个 table,效率低下,因此 并不适合高并发场景。

也许,你还会想起来一个集合工具类 collections,生成一个synchronizedmap。其实,它和 hashtable 差不多,同样的原因,锁住整张表,效率低下。

所以,思考一下,既然锁住整张表的话,并发效率低下,那我把整张表分成 n 个部分,并使元素尽量均匀的分布到每个部分中,分别给他们加锁,互相之间并不影响,这种方式岂不是更好 。这就是在 jdk1.7 中 concurrenthashmap 采用的方案,被叫做锁分段技术,每个部分就是一个 segment(段)。

但是,在jdk1.8中,完全重构了,采用的是 synchronized + cas ,把锁的粒度进一步降低,而放弃了 segment 分段。(此时的 synchronized 已经升级了,效率得到了很大提升,锁升级可以了解一下)

concurrenthashmap 1.7 源码解析

我们看下在 jdk1.7中 concurrenthashmap 是怎么实现的。墙裂建议,在本文之前了解一下多线程的基本知识,如jmm内存模型,volatile关键字作用,cas和自旋,reentranlock重入锁。

底层存储结构

在 jdk1.7中,本质上还是采用链表+数组的形式存储键值对的。但是,为了提高并发,把原来的整个 table 划分为 n 个 segment 。所以,从整体来看,它是一个由 segment 组成的数组。然后,每个 segment 里边是由 hashentry 组成的数组,每个 hashentry之间又可以形成链表。我们可以把每个 segment 看成是一个小的 hashmap,其内部结构和 hashmap 是一模一样的。

当对某个 segment 加锁时,如图中 segment2,并不会影响到其他 segment 的读写。每个 segment 内部自己操作自己的数据。这样一来,我们要做的就是尽可能的让元素均匀的分布在不同的 segment中。最理想的状态是,所有执行的线程操作的元素都是不同的 segment,这样就可以降低锁的竞争。

废话了这么多,还是来看底层源码吧,因为所有的思想都在代码里体现。借用 linus的一句话,“no bb . show me the code ” (改编版,哈哈)

常用变量

先看下 1.7 中常用的变量和内部类都有哪些,这有助于我们了解 concurrenthashmap 的整体结构。

//默认初始化容量,这个和 hashmap中的容量是一个概念,表示的是整个 map的容量
static final int default_initial_capacity = 16;

//默认加载因子
static final float default_load_factor = 0.75f;

//默认的并发级别,这个参数决定了 segment 数组的长度
static final int default_concurrency_level = 16;

//最大的容量
static final int maximum_capacity = 1 << 30;

//每个segment中table数组的最小长度为2,且必须是2的n次幂。
//由于每个segment是懒加载的,用的时候才会初始化,因此为了避免使用时立即调整大小,设定了最小容量2
static final int min_segment_table_capacity = 2;

//用于限制segment数量的最大值,必须是2的n次幂
static final int max_segments = 1 << 16; // slightly conservative

//在size方法和containsvalue方法,会优先采用乐观的方式不加锁,直到重试次数达到2,才会对所有segment加锁
//这个值的设定,是为了避免无限次的重试。后边size方法会详讲怎么实现乐观机制的。
static final int retries_before_lock = 2;

//segment掩码值,用于根据元素的hash值定位所在的 segment 下标。后边会细讲
final int segmentmask;

//和 segmentmask 配合使用来定位 segment 的数组下标,后边讲。
final int segmentshift;

// segment 组成的数组,每一个 segment 都可以看做是一个特殊的 hashmap
final segment<k,v>[] segments;

//segment 对象,继承自 reentrantlock 可重入锁。
//其内部的属性和方法和 hashmap 神似,只是多了一些拓展功能。
static final class segment<k,v> extends reentrantlock implements serializable {
	
	//这是在 scanandlockforput 方法中用到的一个参数,用于计算最大重试次数
	//获取当前可用的处理器的数量,若大于1,则返回64,否则返回1。
	static final int max_scan_retries =
		runtime.getruntime().availableprocessors() > 1 ? 64 : 1;

	//用于表示每个segment中的 table,是一个用hashentry组成的数组。
	transient volatile hashentry<k,v>[] table;

	//segment中的元素个数,每个segment单独计数(下边的几个参数同样的都是单独计数)
	transient int count;

	//每次 table 结构修改时,如put,remove等,此变量都会自增
	transient int modcount;

	//当前segment扩容的阈值,同hashmap计算方法一样也是容量乘以加载因子
	//需要知道的是,每个segment都是单独处理扩容的,互相之间不会产生影响
	transient int threshold;

	//加载因子
	final float loadfactor;

	//segment构造函数
	segment(float lf, int threshold, hashentry<k,v>[] tab) {
		this.loadfactor = lf;
		this.threshold = threshold;
		this.table = tab;
	}
	
	...
	// put(),remove(),rehash() 方法都在此类定义
}

// hashentry,存在于每个segment中,它就类似于hashmap中的node,用于存储键值对的具体数据和维护单向链表的关系
static final class hashentry<k,v> {
	//每个key通过哈希运算后的结果,用的是 wang/jenkins hash 的变种算法,此处不细讲,感兴趣的可自行查阅相关资料
	final int hash;
	final k key;
	//value和next都用 volatile 修饰,用于保证内存可见性和禁止指令重排序
	volatile v value;
	//指向下一个节点
	volatile hashentry<k,v> next;

	hashentry(int hash, k key, v value, hashentry<k,v> next) {
		this.hash = hash;
		this.key = key;
		this.value = value;
		this.next = next;
	}
}

构造函数

concurrenthashmap 有五种构造函数,但是最终都会调用同一个构造函数,所以只需要搞明白这一个核心的构造函数就可以了。

ps: 文章注释中 (1)(2)(3) 等序号都是用来方便做标记,不是计算值

public concurrenthashmap(int initialcapacity,
                             float loadfactor, int concurrencylevel) {
	//检验参数是否合法。值得说的是,并发级别一定要大于0,否则就没办法实现分段锁了。
	if (!(loadfactor > 0) || initialcapacity < 0 || concurrencylevel <= 0)
		throw new illegalargumentexception();
	//并发级别不能超过最大值
	if (concurrencylevel > max_segments)
		concurrencylevel = max_segments;
	// find power-of-two sizes best matching arguments
	//偏移量,是为了对hash值做位移操作,计算元素所在的segment下标,put方法详讲
	int sshift = 0;
	//用于设定最终segment数组的长度,必须是2的n次幂
	int ssize = 1;
	//这里就是计算 sshift 和 ssize 值的过程  (1) 
	while (ssize < concurrencylevel) {
		++sshift;
		ssize <<= 1;
	}
	this.segmentshift = 32 - sshift;
	//segment的掩码
	this.segmentmask = ssize - 1;
	if (initialcapacity > maximum_capacity)
		initialcapacity = maximum_capacity;
	//c用于辅助计算cap的值   (2)
	int c = initialcapacity / ssize;
	if (c * ssize < initialcapacity)
		++c;
	// cap 用于确定某个segment的容量,即segment中hashentry数组的长度
	int cap = min_segment_table_capacity;
	//(3)
	while (cap < c)
		cap <<= 1;
	// create segments and segments[0]
	//这里用 loadfactor做为加载因子,cap乘以加载因子作为扩容阈值,创建长度为cap的hashentry数组,
	//三个参数,创建一个segment对象,保存到s0对象中。后边在 ensuresegment 方法会用到s0作为原型对象去创建对应的segment。
	segment<k,v> s0 =
		new segment<k,v>(loadfactor, (int)(cap * loadfactor),
						 (hashentry<k,v>[])new hashentry[cap]);
	//创建出长度为 ssize 的一个 segment数组
	segment<k,v>[] ss = (segment<k,v>[])new segment[ssize];
	//把s0存到segment数组中去。在这里,我们就可以发现,此时只是创建了一个segment数组,
	//但是并没有把数组中的每个segment对象创建出来,仅仅创建了一个segment用来作为原型对象。
	unsafe.putorderedobject(ss, sbase, s0); // ordered write of segments[0]
	this.segments = ss;
}				

上边的注释中留了 (1)(2)(3) 三个地方还没有细说。我们现在假设一组数据,把涉及到的几个变量计算出来,就能明白这些参数的含义了。

//假设调用了默认构造,都用的是默认参数,即 initialcapacity 和 concurrencylevel 都是16
//(1)  sshift 和 ssize 值的计算过程为,每次循环,都会把 sshift 自增1,并且 ssize 左移一位,即乘以2,
//直到 ssize 的值大于等于 concurrencylevel 的值 16。
sshfit=0,1,2,3,4
ssize=1,2,4,8,16
//可以看到,初始他们的值分别是0和1,最终结果是4和16
//sshfit是为了辅助计算segmentshift值,ssize是为了确定segment数组长度。
//(2)  此时,计算c的值,
c = 16/16 = 1;
//判断 c * 16 < 16 是否为真,真的话 c 自增1,此处为false,因此 c的值为1不变。
//(3)  此时,由于c为1, cap为2 ,因此判断 cap < c 为false,最终cap为2。
//总结一下,以上三个步骤,最终都是为了确定以下几个关键参数的值,
//确定 segmentshift ,这个用于后边计算hash值的偏移量,此处即为 32-4=28,
//确定 ssize,必须是一个大于等于 concurrencylevel 的一个2的n次幂值
//确定 cap,必须是一个大于等于2的一个2的n次幂值
//感兴趣的小伙伴,还可以用另外几组参数来计算上边的参数值,可以加深理解参数的含义。
//例如initialcapacity和concurrencylevel分别传入10和5,或者传入33和16

put()方法

put 方法的总体流程是,

  1. 通过哈希算法计算出当前 key 的 hash 值
  2. 通过这个 hash 值找到它所对应的 segment 数组的下标
  3. 再通过 hash 值计算出它在对应 segment 的 hashentry数组 的下标
  4. 找到合适的位置插入元素
//这是map的put方法
public v put(k key, v value) {
	segment<k,v> s;
	//不支持value为空
	if (value == null)
		throw new nullpointerexception();
	//通过 wang/jenkins 算法的一个变种算法,计算出当前key对应的hash值
	int hash = hash(key);
	//上边我们计算出的 segmentshift为28,因此hash值右移28位,说明此时用的是hash的高4位,
	//然后把它和掩码15进行与运算,得到的值一定是一个 0000 ~ 1111 范围内的值,即 0~15 。
	int j = (hash >>> segmentshift) & segmentmask;
	//这里是用unsafe类的原子操作找到segment数组中j下标的 segment 对象
	if ((s = (segment<k,v>)unsafe.getobject          // nonvolatile; recheck
		 (segments, (j << sshift) + sbase)) == null) //  in ensuresegment
		//初始化j下标的segment
		s = ensuresegment(j);
	//在此segment中添加元素
	return s.put(key, hash, value, false);
}

上边有一个这样的方法, unsafe.getobject (segments, (j << sshift) + sbase。它是为了通过unsafe这个类,找到 j 最新的实际值。这个计算 (j << sshift) + sbase ,在后边非常常见,我们只需要知道它代表的是 j 的一个偏移量,通过偏移量,就可以得到 j 的实际值。可以类比,aqs 中的 cas 操作。 unsafe中的操作,都需要一个偏移量,看下图,

(j << sshift) + sbase 就相当于图中的 stateoffset偏移量。只不过图中是 cas 设置新值,而我们这里是取 j 的最新值。 后边很多这样的计算方式,就不赘述了。接着看 s.put 方法,这才是最终确定元素位置的方法。

//segment中的 put 方法
final v put(k key, int hash, v value, boolean onlyifabsent) {
	//这里通过trylock尝试加锁,如果加锁成功,返回null,否则执行 scanandlockforput方法
	//这里说明一下,trylock 和 lock 是 reentrantlock 中的方法,
	//区别是 trylock 不会阻塞,抢锁成功就返回true,失败就立马返回false,
	//而 lock 方法是,抢锁成功则返回,失败则会进入同步队列,阻塞等待获取锁。
	hashentry<k,v> node = trylock() ? null :
		scanandlockforput(key, hash, value);
	v oldvalue;
	try {
		//当前segment的table数组
		hashentry<k,v>[] tab = table;
		//这里就是通过hash值,与tab数组长度取模,找到其所在hashentry数组的下标
		int index = (tab.length - 1) & hash;
		//当前下标位置的第一个hashentry节点
		hashentry<k,v> first = entryat(tab, index);
		for (hashentry<k,v> e = first;;) {
			//如果第一个节点不为空
			if (e != null) {
				k k;
				//并且第一个节点,就是要插入的节点,则替换value值,否则继续向后查找
				if ((k = e.key) == key ||
					(e.hash == hash && key.equals(k))) {
					//替换旧值
					oldvalue = e.value;
					if (!onlyifabsent) {
						e.value = value;
						++modcount;
					}
					break;
				}
				e = e.next;
			}
			//说明当前index位置不存在任何节点,此时first为null,
			//或者当前index存在一条链表,并且已经遍历完了还没找到相等的key,此时first就是链表第一个元素
			else {
				//如果node不为空,则直接头插
				if (node != null)
					node.setnext(first);
				//否则,创建一个新的node,并头插
				else
					node = new hashentry<k,v>(hash, key, value, first);
				int c = count + 1;
				//如果当前segment中的元素大于阈值,并且tab长度没有超过容量最大值,则扩容
				if (c > threshold && tab.length < maximum_capacity)
					rehash(node);
				//否则,就把当前node设置为index下标位置新的头结点
				else
					setentryat(tab, index, node);
				++modcount;
				//更新count值
				count = c;
				//这种情况说明旧值肯定为空
				oldvalue = null;
				break;
			}
		}
	} finally {
		//需要注意reentrantlock必须手动解锁
		unlock();
	}
	//返回旧值
	return oldvalue;
}

这里说明一下计算 segment 数组下标和计算 hashentry 数组下标的不同点:

//下边的hash值是通过哈希运算后的hash值,不是hashcode
//计算 segment 下标
 (hash >>> segmentshift) & segmentmask 
 //计算 hashentry 数组下标
 (tab.length - 1) & hash

思考一下,为什么它们的算法不一样呢? 计算 segment 数组下标是用的 hash值高几位(这里以高 4 位为例)和掩码做与运算,而计算 hashentry 数组下标是直接用的 hash 值和数组长度减1做与运算。

我的理解是,这是为了尽量避免当前 hash 值计算出来的 segment 数组下标和计算出来的 hashentry 数组下标趋于相同。简单说,就是为了避免分配到同一个 segment 中的元素扎堆现象,即避免它们都被分配到同一条链表上,导致链表过长。同时,也是为了减少并发。下面做一个运算,帮助理解一下(假设不用高 4 位运算,而是正常情况都用低位做运算)。

//我们以并发级别16,hashentry数组容量 4 为例,则它们参与运算的掩码分别为 15 和 3
//hash值
0110 1101 0110 1111 0110 1110 0010 0010
//segmentmask = 15   ,标记为 (1)
0000 0000 0000 0000 0000 0000 0000 1111
//tab.length - 1 = 3     ,标记为 (2)
0000 0000 0000 0000 0000 0000 0000 0011
//用 hash 分别和 15 ,3 做与运算,会发现得到的结果是一样,都是十进制 2.
//这表明,当前 hash值被分配到下标为 2 的 segment 中,同时,被分配到下标为 2 的 hashentry 数组中
//现在若有另外一个 hash 值 h2,和第一个hash值,高位不同,但是低4位相同,
1010 1101 0110 1111 0110 1110 0010 0010
//我们会发现,最后它也会被分配到下标为 2 的 segment 和 hashentry 数组,就会和第一个元素形成链表。
//所以,为了避免这种扎堆现象,让元素尽量均匀分配,就让 hash 的高 4 位和 (1)处做与 运算,而用低位和 (2)处做与运算
//这样计算后,它们所在的segment下标分别为 6(0110), 10(1010),即使它们在hashentry数组中的下标都为 2(0010),也无所谓
//因为它们并不在一个 segment 中,也就不会在同一个 hashentry 数组中,更不会形成链表。
//更重要的是,它们不会有并发,因为在各自不同的 segment 自己操作自己的加锁解锁,互不影响

可能有的小伙伴就会打岔了,那如果两个 hash 值,低位和高位都相同,怎么办呢。如果是这样,我只能说,这个 hash 算法也太烂了吧。(这里的 hash 算法也会尽量避免这种情况,当然只是减少几率,并不能杜绝)

我有个大胆的想法,这里的高低位不同的计算方式,是不是后边 1.8 hashmap 让 hash 高低位做异或运算的引子呢?不得而知。。

put 方法比较简单,只要能看懂 hashmap 中的 put 方法,这里也没问题。主要是它调用的子方法比较复杂,下边一个一个讲解。

ensuresegment()方法

回到 map的 put 方法,判断 j 下标的 segment为空后,则需要调用此方法,初始化一个 segment 对象,以确保拿到的对象一定是不为空的,否则无法执行s.put了。

//k为 (hash >>> segmentshift) & segmentmask 算法计算出来的值
private segment<k,v> ensuresegment(int k) {
	final segment<k,v>[] ss = this.segments;
	//u代表 k 的偏移量,用于通过 unsafe 获取主内存最新的实际 k 值
	long u = (k << sshift) + sbase; // raw offset
	segment<k,v> seg;
	//从内存中取到最新的下标位置的 segment 对象,判断是否为空,(1)
	if ((seg = (segment<k,v>)unsafe.getobjectvolatile(ss, u)) == null) {
		//之前构造函数说了,s0是作为一个原型对象,用于创建新的 segment 对象
		segment<k,v> proto = ss[0]; // use segment 0 as prototype
		//容量
		int cap = proto.table.length;
		//加载因子
		float lf = proto.loadfactor;
		//扩容阈值
		int threshold = (int)(cap * lf);
		//把 segment 对应的 hashentry 数组先创建出来
		hashentry<k,v>[] tab = (hashentry<k,v>[])new hashentry[cap];
		//再次检查 k 下标位置的 segment 是否为空, (2)
		if ((seg = (segment<k,v>)unsafe.getobjectvolatile(ss, u))
			== null) { // recheck
			//此处把 segment 对象创建出来,并赋值给 s,
			segment<k,v> s = new segment<k,v>(lf, threshold, tab);
			//循环检查 k 下标位置的 segment 是否为空, (3)
			//若不为空,则说明有其它线程抢先创建成功,并且已经成功同步到主内存中了,
			//则把它取出来,并返回
			while ((seg = (segment<k,v>)unsafe.getobjectvolatile(ss, u))
				   == null) {
				//cas,若当前下标的segment对象为空,就把它替换为最新创建出来的 s 对象。
				//若成功,就跳出循环,否则,就一直自旋直到成功,或者 seg 不为空(其他线程成功导致)。
				if (unsafe.compareandswapobject(ss, u, null, seg = s))
					break;
			}
		}
	}
	return seg;
}

可以发现,我标注了上边 (1)(2)(3) 个地方,每次都判断最新的segment是否为空。可能有的小伙伴就会迷惑,为什么做这么多次判断,我直接去自旋不就好了,反正最后都要自旋的。

我的理解是,在多线程环境下,因为不确定是什么时候会有其它线程 cas 成功,有可能发生在以上的任意时刻。所以,只要发现一旦内存中的对象已经存在了,则说明已经有其它线程把segment对象创建好,并cas成功同步到主内存了。此时,就可以直接返回,而不需要往下执行了。这样做,是为了代码执行效率考虑。

scanandlockforput()方法

put 方法第一步抢锁失败之后,就会执行此方法,

private hashentry<k,v> scanandlockforput(k key, int hash, v value) {
	//根据hash值定位到它对应的hashentry数组的下标位置,并找到链表的第一个节点
	//注意,这个操作会从主内存中获取到最新的状态,以确保获取到的first是最新值
	hashentry<k,v> first = entryforhash(this, hash);
	hashentry<k,v> e = first;
	hashentry<k,v> node = null;
	//重试次数,初始化为 -1
	int retries = -1; // negative while locating node
	//若抢锁失败,就一直循环,直到成功获取到锁。有三种情况
	while (!trylock()) {
		hashentry<k,v> f; // to recheck first below
		//1.若 retries 小于0,
		if (retries < 0) {
			if (e == null) {
				//若 e 节点和 node 都为空,则创建一个 node 节点。这里只是预测性的创建一个node节点
				if (node == null) // speculatively create node
					node = new hashentry<k,v>(hash, key, value, null);
				retries = 0;
			}
			//如当前遍历到的 e 节点不为空,则判断它的key是否等于传进来的key,若是则把 retries 设为0
			else if (key.equals(e.key))
				retries = 0;
			//否则,继续向后遍历节点
			else
				e = e.next;
		}
		//2.若是重试次数超过了最大尝试次数,则调用lock方法加锁。表明不再重试,我下定决心了一定要获取到锁。
		//要么当前线程可以获取到锁,要么获取不到就去排队等待获取锁。获取成功后,再 break。
		else if (++retries > max_scan_retries) {
			lock();
			break;
		}
		//3.若 retries 的值为偶数,并且从内存中再次获取到最新的头节点,判断若不等于first
		//则说明有其他线程修改了当前下标位置的头结点,于是需要更新头结点信息。
		else if ((retries & 1) == 0 &&
				 (f = entryforhash(this, hash)) != first) {
			//更新头结点信息,并把重试次数重置为 -1,继续下一次循环,从最新的头结点遍历当前链表。
			e = first = f; // re-traverse if entry changed
			retries = -1;
		}
	}
	return node;
}

这个方法逻辑比较复杂,会一直循环尝试获取锁,若获取成功,则返回。否则的话,每次循环时,都会同时遍历当前链表。若遍历完了一次,还没找到和key相等的节点,就会预先创建一个节点。注意,这里只是预测性的创建一个新节点,也有可能在这之前,就已经获取锁成功了。

同时,当重试次每偶数次时,就会检查一次当前最新的头结点是否被改变。因为若有变化的话,还需要从最新的头结点开始遍历链表。

还有一种情况,就是循环次数达到了最大限制,则停止循环,用阻塞的方式去获取锁。这时,也就停止了遍历链表的动作,当前线程也不会再做其他预热(warm up)的事情。

关于为什么预测性的创建新节点,源码中原话是这样的:

since traversal speed doesn't matter, we might as well help warm up the associated code and accesses as well.

解释一下就是,因为遍历速度无所谓,所以,我们可以预先(warm up)做一些相关联代码的准备工作。这里相关联代码,指的就是循环中,在获取锁成功或者调用 lock 方法之前做的这些事情,当然也包括创建新节点。

在put 方法中可以看到,有一句是判断 node 是否为空,若创建了,就直接头插。否则的话,它也会自己创建这个新节点。

scanandlockforput 这个方法可以确保返回时,当前线程一定是获取到锁的状态。

rehash()方法

当 put 方法时,发现元素个数超过了阈值,则会扩容。需要注意的是,每个segment只管它自己的扩容,互相之间并不影响。换句话说,可以出现这个 segment的长度为2,另一个segment的长度为4的情况(只要是2的n次幂)。

//node为创建的新节点
private void rehash(hashentry<k,v> node) {
	//当前segment中的旧表
	hashentry<k,v>[] oldtable = table;
	//旧的容量
	int oldcapacity = oldtable.length;
	//新容量为旧容量的2倍
	int newcapacity = oldcapacity << 1;
	//更新新的阈值
	threshold = (int)(newcapacity * loadfactor);
	//用新的容量创建一个新的 hashentry 数组
	hashentry<k,v>[] newtable =
		(hashentry<k,v>[]) new hashentry[newcapacity];
	//当前的掩码,用于计算节点在新数组中的下标
	int sizemask = newcapacity - 1;
	//遍历旧表
	for (int i = 0; i < oldcapacity ; i++) {
		hashentry<k,v> e = oldtable[i];
		//如果e不为空,说明当前链表不为空
		if (e != null) {
			hashentry<k,v> next = e.next;
			//计算hash值再新数组中的下标位置
			int idx = e.hash & sizemask;
			//如果e不为空,且它的下一个节点为空,则说明这条链表只有一个节点,
			//直接把这个节点放到新数组的对应下标位置即可
			if (next == null)   //  single node on list
				newtable[idx] = e;
			//否则,处理当前链表的节点迁移操作
			else { // reuse consecutive sequence at same slot
				//记录上一次遍历到的节点
				hashentry<k,v> lastrun = e;
				//对应上一次遍历到的节点在新数组中的新下标
				int lastidx = idx;
				for (hashentry<k,v> last = next;
					 last != null;
					 last = last.next) {
					//计算当前遍历到的节点的新下标
					int k = last.hash & sizemask;
					//若 k 不等于 lastidx,则说明此次遍历到的节点和上次遍历到的节点不在同一个下标位置
					//需要把 lastrun 和 lastidx 更新为当前遍历到的节点和下标值。
					//若相同,则不处理,继续下一次 for 循环。
					if (k != lastidx) {
						lastidx = k;
						lastrun = last;
					}
				}
				//把和 lastrun 节点的下标位置相同的链表最末尾的几个连续的节点放到新数组的对应下标位置
				newtable[lastidx] = lastrun;
				//再把剩余的节点,复制到新数组
				//从旧数组的头结点开始遍历,直到 lastrun 节点,因为 lastrun节点后边的节点都已经迁移完成了。
				for (hashentry<k,v> p = e; p != lastrun; p = p.next) {
					v v = p.value;
					int h = p.hash;
					int k = h & sizemask;
					hashentry<k,v> n = newtable[k];
					//用的是复制节点信息的方式,并不是把原来的节点直接迁移,区别于lastrun处理方式
					newtable[k] = new hashentry<k,v>(h, p.key, v, n);
				}
			}
		}
	}
	//所有节点都迁移完成之后,再处理传进来的新的node节点,把它头插到对应的下标位置
	int nodeindex = node.hash & sizemask; // add the new node
	//头插node节点
	node.setnext(newtable[nodeindex]);
	newtable[nodeindex] = node;
	//更新当前segment的table信息
	table = newtable;
}

上边的迁移过程和 lastrun 和 lastidx 变量可能不太好理解,我画个图就明白了。以其中一条链表处理方式为例。

从头结点开始向后遍历,找到当前链表的最后几个下标相同的连续的节点。如上图,虽然开头出现了有两个节点的下标都是 k2, 但是中间出现一个不同的下标 k1,打断了下标连续相同,因此从下一个k2,又重新开始算。好在后边三个连续的节点下标都是相同的,因此倒数第三个节点被标记为 lastrun,且变量无变化。

从lastrun节点到尾结点的这部分就可以整体迁移到新数组的对应下标位置了,因为它们的下标都是相同的,可以这样统一处理。

另外从头结点到 lastrun 之前的节点,无法统一处理,只能一个一个去复制了。且注意,这里不是直接迁移,而是复制节点到新的数组,旧的节点会在不久的将来,因为没有引用指向,被 jvm 垃圾回收处理掉。

(不知道为啥这个方法名起为 rehash,其实扩容时 hash 值并没有重新计算,变化的只是它们所在的下标而已。我猜测,可能是,借用了 1.7 hashmap 中的说法吧。。。)

get()

put 方法搞明白了之后,其实 get 方法就很好理解了。也是先定位到 segment,然后再定位到 hashentry 。

public v get(object key) {
	segment<k,v> s; // manually integrate access methods to reduce overhead
	hashentry<k,v>[] tab;
	//计算hash值
	int h = hash(key);
	//同样的先定位到 key 所在的segment ,然后从主内存中取出最新的节点
	long u = (((h >>> segmentshift) & segmentmask) << sshift) + sbase;
	if ((s = (segment<k,v>)unsafe.getobjectvolatile(segments, u)) != null &&
		(tab = s.table) != null) {
		//若segment不为空,且链表也不为空,则遍历查找节点
		for (hashentry<k,v> e = (hashentry<k,v>) unsafe.getobjectvolatile
				 (tab, ((long)(((tab.length - 1) & h)) << tshift) + tbase);
			 e != null; e = e.next) {
			k k;
			//找到则返回它的 value 值,否则返回 null
			if ((k = e.key) == key || (e.hash == h && key.equals(k)))
				return e.value;
		}
	}
	return null;
}

remove()

remove 方法和 put 方法类似,也不用做过多特殊的介绍,

public v remove(object key) {
	int hash = hash(key);
	//定位到segment
	segment<k,v> s = segmentforhash(hash);
	//若 s为空,则返回 null,否则执行 remove
	return s == null ? null : s.remove(key, hash, null);
}

public boolean remove(object key, object value) {
	int hash = hash(key);
	segment<k,v> s;
	return value != null && (s = segmentforhash(hash)) != null &&
		s.remove(key, hash, value) != null;
}

final v remove(object key, int hash, object value) {
	//尝试加锁,若失败,则执行 scanandlock ,此方法和 scanandlockforput 方法类似
	if (!trylock())
		scanandlock(key, hash);
	v oldvalue = null;
	try {
		hashentry<k,v>[] tab = table;
		int index = (tab.length - 1) & hash;
		//从主内存中获取对应 table 的最新的头结点
		hashentry<k,v> e = entryat(tab, index);
		hashentry<k,v> pred = null;
		while (e != null) {
			k k;
			hashentry<k,v> next = e.next;
			//匹配到 key
			if ((k = e.key) == key ||
				(e.hash == hash && key.equals(k))) {
				v v = e.value;
				// value 为空,或者 value 也匹配成功
				if (value == null || value == v || value.equals(v)) {
					if (pred == null)
						setentryat(tab, index, next);
					else
						pred.setnext(next);
					++modcount;
					--count;
					oldvalue = v;
				}
				break;
			}
			pred = e;
			e = next;
		}
	} finally {
		unlock();
	}
	return oldvalue;
}

size()

size 方法需要重点说明一下。爱思考的小伙伴可能就会想到,并发情况下,有可能在统计期间,数组元素个数不停的变化,而且,整个表还被分成了 n个 segment,怎样统计才能保证结果的准确性呢? 我们一起来看下吧。

public int size() {
	// try a few times to get accurate count. on failure due to
	// continuous async changes in table, resort to locking.
	//segment数组
	final segment<k,v>[] segments = this.segments;
	//统计所有segment中元素的总个数
	int size;
	//如果size大小超过32位,则标记为溢出为true
	boolean overflow; 
	//统计每个segment中的 modcount 之和
	long sum;         
	//上次记录的 sum 值
	long last = 0l;   
	//重试次数,初始化为 -1
	int retries = -1; 
	try {
		for (;;) {
			//如果超过重试次数,则不再重试,而是把所有segment都加锁,再统计 size
			if (retries++ == retries_before_lock) {
				for (int j = 0; j < segments.length; ++j)
					//强制加锁
					ensuresegment(j).lock(); // force creation
			}
			sum = 0l;
			size = 0;
			overflow = false;
			//遍历所有segment
			for (int j = 0; j < segments.length; ++j) {
				segment<k,v> seg = segmentat(segments, j);
				//若当前遍历到的segment不为空,则统计它的 modcount 和 count 元素个数
				if (seg != null) {
					//累加当前segment的结构修改次数,如put,remove等操作都会影响modcount
					sum += seg.modcount;
					int c = seg.count;
					//若当前segment的元素个数 c 小于0 或者 size 加上 c 的结果小于0,则认为溢出
					//因为若超过了 int 最大值,就会返回负数
					if (c < 0 || (size += c) < 0)
						overflow = true;
				}
			}
			//当此次尝试,统计的 sum 值和上次统计的值相同,则说明这段时间内,
			//并没有任何一个 segment 的结构发生改变,就可以返回最后的统计结果
			if (sum == last)
				break;
			//不相等,则说明有 segment 结构发生了改变,则记录最新的结构变化次数之和 sum,
			//并赋值给 last,用于下次重试的比较。
			last = sum;
		}
	} finally {
		//如果超过了指定重试次数,则说明表中的所有segment都被加锁了,因此需要把它们都解锁
		if (retries > retries_before_lock) {
			for (int j = 0; j < segments.length; ++j)
				segmentat(segments, j).unlock();
		}
	}
	//若结果溢出,则返回 int 最大值,否则正常返回 size 值 
	return overflow ? integer.max_value : size;
}

其实源码中前两行的注释也说的非常清楚了。我们先采用乐观的方式,认为在统计 size 的过程中,并没有发生 put, remove 等会改变 segment 结构的操作。 但是,如果发生了,就需要重试。如果重试2次都不成功(执行三次,第一次不能叫做重试),就只能强制把所有 segment 都加锁之后,再统计了,以此来得到准确的结果。

concurrenthashmap 1.8 源码分析

需要说明的是,jdk 1.8 的 chm(concurrenthashmap) 实现,完全重构了 1.7 。不再有 segment 的概念,只是为了兼容 1.7 才申明了一下,并没有用到。因此,不再使用分段锁,而是给数组中的每一个头节点(为了方便,以后都叫桶)都加锁,锁的粒度降低了。并且,用的是 synchronized 锁。

可能有的小伙伴就有疑惑了,不是都说同步锁是重量级锁吗,这样不是会影响并发效率吗?

确实之前同步锁是一个重量级锁,但是在 jdk1.6 之后进行了各种优化之后,它已经不再那么重了。引入了偏向锁,轻量级锁,以及锁升级的概念,而且,据说在更细粒度的代码层面上,同步锁已经可以媲美 lock 锁,甚至是赶超了。 除此之外,它还有很多优点,这里不再展开了。感兴趣的可以自行查阅同步锁的锁升级过程,以及它和 lock 锁的区别。

在 1.8 chm 中,底层存储结构和 1.8 的 hashmap 是一样的,都是数组+链表+红黑树。不同的就是,多了一些并发的处理。

文章开头我们提到了,在 1.8 hashmap 中的线程安全问题,就是因为在多个线程同时操作同一个桶的头结点时,会发生值的覆盖情况。那么,顺着这个思路,我们看一下在 chm 中它是怎么避免这种情况发生的吧。

ps: 由于1.8的 chm 和 hashmap 结构和基本属性变量,还有初始化逻辑都差不多,只是多了一些并发情况需要用到的参数和内部类,因此,不再单独拎出来介绍。在方法中用到的时候,再详细解释。

put()方法

因此,从 put 方法开始,我们看下,它在插入新元素的时候,是怎么保证线程安全的吧。

public v put(k key, v value) {
	return putval(key, value, false);
}

final v putval(k key, v value, boolean onlyifabsent) {
	//可以看到,在并发情况下,key 和 value 都是不支持为空的。
	if (key == null || value == null) throw new nullpointerexception();
	//这里和1.8 hashmap 的hash 方法大同小异,只是多了一个操作,如下
	//( h ^ (h >>> 16)) & hash_bits;  hash_bits = 0x7fffffff;
	// 0x7fffffff ,二进制为 0111 1111 1111 1111 1111 1111 1111 1111 。
	//所以,hash值除了做了高低位异或运算,还多了一步,保证最高位的 1 个 bit 位总是0。
	//这里,我并没有明白它的意图,仅仅是保证计算出来的hash值不超过 integer 最大值,且不为负数吗。
	//同 hashmap 的hash 方法对比一下,会发现连源码注释都是相同的,并没有多说明其它的。
	//我个人认为意义不大,因为最后 hash 是为了和 capacity -1 做与运算,而 capacity 最大值为 1<<30,
	//即 0100 0000 0000 0000 0000 0000 0000 0000 ,减1为 0011 1111 1111 1111 1111 1111 1111 1111。
	//即使 hash 最高位为 1(无所谓0),也不影响最后的结果,最高位也总会是0.
	int hash = spread(key.hashcode());
	//用来计算当前链表上的元素个数
	int bincount = 0;
	for (node<k,v>[] tab = table;;) {
		node<k,v> f; int n, i, fh;
		//如果表为空,则说明还未初始化。
		if (tab == null || (n = tab.length) == 0)
			//初始化表,只有一个线程可以初始化成功。
			tab = inittable();
		//若表已经初始化,则找到当前 key 所在的桶,并且判断是否为空
		else if ((f = tabat(tab, i = (n - 1) & hash)) == null) {
			//若当前桶为空,则通过 cas 原子操作,把新节点插入到此位置,
			//这保证了只有一个线程可以 cas 成功,其它线程都会失败。
			if (castabat(tab, i, null,
						 new node<k,v>(hash, key, value, null)))
				break;                   // no lock when adding to empty bin
		}
		//若所在桶不为空,则判断节点的 hash 值是否为 moved(值是-1)
		else if ((fh = f.hash) == moved)
			//若为-1,说明当前数组正在进行扩容,则需要当前线程帮忙迁移数据
			tab = helptransfer(tab, f);
		else {
			v oldval = null;
			//这里用加同步锁的方式,来保证线程安全,给桶中第一个节点对象加锁
			synchronized (f) {
				//recheck 一下,保证当前桶的第一个节点无变化,后边很多这样类似的操作,不再赘述
				if (tabat(tab, i) == f) {
					//如果hash值大于等于0,说明是正常的链表结构
					if (fh >= 0) {
						bincount = 1;
						//从头结点开始遍历,每遍历一次,bincount计数加1
						for (node<k,v> e = f;; ++bincount) {
							k ek;
							//如果找到了和当前 key 相同的节点,则用新值替换旧值
							if (e.hash == hash &&
								((ek = e.key) == key ||
								 (ek != null && key.equals(ek)))) {
								oldval = e.val;
								if (!onlyifabsent)
									e.val = value;
								break;
							}
							node<k,v> pred = e;
							//若遍历到了尾结点,则把新节点尾插进去
							if ((e = e.next) == null) {
								pred.next = new node<k,v>(hash, key,
														  value, null);
								break;
							}
						}
					}
					//否则判断是否是树节点。这里提一下,treebin只是头结点对treenode的再封装
					else if (f instanceof treebin) {
						node<k,v> p;
						bincount = 2;
						if ((p = ((treebin<k,v>)f).puttreeval(hash, key,
													   value)) != null) {
							oldval = p.val;
							if (!onlyifabsent)
								p.val = value;
						}
					}
				}
			}
			//注意下,这个判断是在同步锁外部,因为 treeifybin内部也有同步锁,并不影响
			if (bincount != 0) {
				//如果节点个数大于等于 8,则转化为红黑树
				if (bincount >= treeify_threshold)
					treeifybin(tab, i);
				//把旧节点值返回
				if (oldval != null)
					return oldval;
				break;
			}
		}
	}
	//给元素个数加 1,并有可能会触发扩容,比较复杂,稍后细讲
	addcount(1l, bincount);
	return null;
}

inittable()方法

先看下当数组为空时,是怎么初始化表的。

private final node<k,v>[] inittable() {
	node<k,v>[] tab; int sc;
	//循环判断表是否为空,直到初始化成功为止。
	while ((tab = table) == null || tab.length == 0) {
		//sizectl 这个值有很多情况,默认值为0,
		//当为 -1 时,说明有其它线程正在对表进行初始化操作
		//当表初始化成功后,又会把它设置为扩容阈值
		//当为一个小于 -1 的负数,用来表示当前有几个线程正在帮助扩容(后边细讲)
		if ((sc = sizectl) < 0)
			//若 sc 小于0,其实在这里就是-1,因为此时表是空的,不会发生扩容,sc只能为正数或者-1
			//因此,当前线程放弃 cpu 时间片,只是自旋。
			thread.yield(); // lost initialization race; just spin
		//通过 cas 把 sc 的值设置为-1,表明当前线程正在进行表的初始化,其它失败的线程就会自旋
		else if (u.compareandswapint(this, sizectl, sc, -1)) {
			try {
				//重新检查一下表是否为空
				if ((tab = table) == null || tab.length == 0) {
					//如果sc大于0,则为sc,否则返回默认容量 16。
					//当调用有参构造创建 map 时,sc的值是大于0的。
					int n = (sc > 0) ? sc : default_capacity;
					@suppresswarnings("unchecked")
					//创建数组
					node<k,v>[] nt = (node<k,v>[])new node<?,?>[n];
					table = tab = nt;
					//n减去 1/4 n ,即为 0.75n ,表示扩容阈值
					sc = n - (n >>> 2);
				}
			} finally {
				//更新 sizectl 为扩容阈值
				sizectl = sc;
			}
			//若当前线程初始化表成功,则跳出循环。其它自旋的线程因为判断数组不为空,也会停止自旋
			break;
		}
	}
	return tab;
}

addcount()方法

若 put 方法元素插入成功之后,则会调用此方法,传入参数为 addcount(1l, bincount)。这个方法的目的很简单,就是把整个 table 的元素个数加 1 。但是,实现比较难。

我们先思考一下,如果让我们自己去实现这样的统计元素个数,怎么实现?

类比 1.8 的 hashmap ,我们可以搞一个 size 变量来存储个数统计。但是,这是在多线程环境下,需要考虑并发的问题。因此,可以把 size 设置为 volatile 的,保证可见性,然后通过 cas 乐观锁来自增 1。

这样虽然也可以实现。但是,设想一下现在有非常多的线程,都在同一时间操作这个 size 变量,将会造成特别严重的竞争。所以,基于此,这里做了更好的优化。让这些竞争的线程,分散到不同的对象里边,单独操作它自己的数据(计数变量),用这样的方式尽量降低竞争。到最后需要统计 size 的时候,再把所有对象里边的计数相加就可以了。

上边提到的 size ,在此用 basecount 表示。分散到的对象用 countercell 表示,对象里边的计数变量用 value 表示。注意这里的变量都是 volatile 修饰的。

当需要修改元素数量时,线程会先去 cas 修改 basecount 加1,若成功即返回。若失败,则线程被分配到某个 countercell ,然后操作 value 加1。若成功,则返回。否则,给当前线程重新分配一个 countercell,再尝试给 value 加1。(这里简略的说,实际更复杂)

countercell 会组成一个数组,也会涉及到扩容问题。所以,先画一个示意图帮助理解一下。

//线程被分配到的格子
@sun.misc.contended static final class countercell {
	//此格子内记录的 value 值
    volatile long value;
    countercell(long x) { value = x; }
}

//用来存储线程和线程生成的随机数的对应关系
static final int getprobe() {
	return unsafe.getint(thread.currentthread(), probe);
}

// x为1,check代表链表上的元素个数
private final void addcount(long x, int check) {
	countercell[] as; long b, s;
	//此处要进入if有两种情况
	//1.数组不为空,说明数组已经被创建好了。
	//2.若数组为空,说明数组还未创建,很有可能竞争的线程非常少,因此就直接 cas 操作 basecount
	//若 cas 成功,则方法跳转到 (2)处,若失败,则需要考虑给当前线程分配一个格子(指countercell对象)
	if ((as = countercells) != null ||
		!u.compareandswaplong(this, basecount, b = basecount, s = b + x)) {
		countercell a; long v; int m;
		//字面意思,是无竞争,这里先标记为 true,表示还没有产生线程竞争
		boolean uncontended = true;
		//这里有三种情况,会进入 fulladdcount 方法
		//1.若数组为空,进方法 (1)
		//2.threadlocalrandom.getprobe() 方法会给当前线程生成一个随机数(可以简单的认为也是一个hash值)
		//然后用随机数与数组长度取模,计算它所在的格子。若当前线程所分配到的格子为空,进方法 (1)。
		//3.若数组不为空,且线程所在格子不为空,则尝试 cas 修改此格子对应的 value 值加1。
		//若修改成功,则跳转到 (3),若失败,则把 uncontended 值设为 fasle,说明产生了竞争,然后进方法 (1)
		if (as == null || (m = as.length - 1) < 0 ||
			(a = as[threadlocalrandom.getprobe() & m]) == null ||
			!(uncontended =
			  u.compareandswaplong(a, cellvalue, v = a.value, v + x))) {
			//方法(1), 这个方法的目的是让当前线程一定把 1 加成功。情况更多,更复杂,稍后讲。
			fulladdcount(x, uncontended);
			return;
		}
		//(3)能走到这,说明数组不为空,且修改 basecount失败,
		//且线程被分配到的格子不为空,且修改 value 成功。
		//但是这里没明白为什么小于等于1,就直接返回了,这里我怀疑之前的方法漏掉了bincount=0的情况。
		//而且此处若返回了,后边怎么判断扩容?(存疑)
		if (check <= 1)
			return;
		//计算总共的元素个数
		s = sumcount();
	}
	//(2)这里用于检查是否需要扩容(下边这部分很多逻辑不懂的话,等后边讲完扩容,再回来看就理解了)
	if (check >= 0) {
		node<k,v>[] tab, nt; int n, sc;
		//若元素个数达到扩容阈值,且tab不为空,且tab数组长度小于最大容量
		while (s >= (long)(sc = sizectl) && (tab = table) != null &&
			   (n = tab.length) < maximum_capacity) {
			//这里假设数组长度n就为16,这个方法返回的是一个固定值,用于当做一个扩容的校验标识
			//可以跳转到最后,看详细计算过程,0000 0000 0000 0000 1000 0000 0001 1011
			int rs = resizestamp(n);
			//若sc小于0,说明正在扩容
			if (sc < 0) {
			    //sc的结构类似这样,1000 0000 0001 1011 0000 0000 0000 0001
				//sc的高16位是数据校验标识,低16位代表当前有几个线程正在帮助扩容,resize_stamp_shift=16
				//因此判断校验标识是否相等,不相等则退出循环
				//sc == rs + 1,sc == rs + max_resizers 这两个应该是用来判断扩容是否已经完成,但是计算方法存疑
				//感兴趣的可以看这个地址,应该是一个 bug ,
				// https://bugs.java.com/bugdatabase/view_bug.do?bug_id=jdk-8214427
				//nexttable=null 说明需要扩容的新数组还未创建完成
				//transferindex这个参数小于等于0,说明已经不需要其它线程帮助扩容了,
				//但是并不说明已经扩容完成,因为有可能还有线程正在迁移元素。稍后扩容细讲就明白了。
				if ((sc >>> resize_stamp_shift) != rs || sc == rs + 1 ||
					sc == rs + max_resizers || (nt = nexttable) == null ||
					transferindex <= 0)
					break;
				//到这里说明当前线程可以帮助扩容,因此sc值加一,代表扩容的线程数加1
				if (u.compareandswapint(this, sizectl, sc, sc + 1))
					transfer(tab, nt);
			}
			//当sc大于0,说明sc代表扩容阈值,因此第一次扩容之前肯定走这个分支,用于初始化新表 nexttable
			//rs<<16
			//1000 0000 0001 1011 0000 0000 0000 0000
			//+2
			//1000 0000 0001 1011 0000 0000 0000 0010
			//这个值,转为十进制就是 -2145714174,用于标识,这是扩容时,初始化新表的状态,
			//扩容时,需要用到这个参数校验是否所有线程都全部帮助扩容完成。
			else if (u.compareandswapint(this, sizectl, sc,
										 (rs << resize_stamp_shift) + 2))
				//扩容,第二个参数代表新表,传入null,则说明是第一次初始化新表(nexttable)
				transfer(tab, null);
			s = sumcount();
		}
	}
}

//计算表中的元素总个数
final long sumcount() {
	countercell[] as = countercells; countercell a;
	//basecount,以这个值作为累加基准
	long sum = basecount;
	if (as != null) {
		//遍历 countercells 数组,得到每个对象中的value值
		for (int i = 0; i < as.length; ++i) {
			if ((a = as[i]) != null)
				//累加 value 值
				sum += a.value;
		}
	}
	//此时得到的就是元素总个数
	return sum;
}	

//扩容时的校验标识
static final int resizestamp(int n) {
	return integer.numberofleadingzeros(n) | (1 << (resize_stamp_bits - 1));
}

//integer.numberofleadingzeros方法的作用是返回 n 的最高位为1的前面的0的个数
//n=16,
0000 0000 0000 0000 0000 0000 0001 0000
//前面有27个0,即27
0000 0000 0000 0000 0000 0000 0001 1011
//resize_stamp_bits为16,然后 1<<(16-1),即 1<<15
0000 0000 0000 0000 1000 0000 0000 0000
//它们做或运算,得到 rs 的值
0000 0000 0000 0000 1000 0000 0001 1011

fulladdcount()方法

上边的 addcount 方法还没完,别忘了有可能元素个数加 1 的操作还未成功,就走到 fulladdcount 这个方法了。看方法名,就知道了,全力增加计数值,一定要成功(奥利给)。 这个方法和扩容迁移方法是最难的,保持耐心~

//传过来的参数分别为 1 , false
private final void fulladdcount(long x, boolean wasuncontended) {
	int h;
	//如果当前线程的随机数为0,则强制初始化一个值
	if ((h = threadlocalrandom.getprobe()) == 0) {
		threadlocalrandom.localinit();      // force initialization
		h = threadlocalrandom.getprobe();
		//此时把 wasuncontended 设为true,认为无竞争
		wasuncontended = true;
	}
	//用来表示比 contend(竞争)更严重的碰撞,若为true,表示可能需要扩容,以减少碰撞冲突
	boolean collide = false;                // true if last slot nonempty
	//循环内,外层if判断分三种情况,内层判断又分为六种情况
	for (;;) {
		countercell[] as; countercell a; int n; long v;
		//1. 若countercells数组不为空。  建议先看下边的2和3两种情况,再回头看这个。 
		if ((as = countercells) != null && (n = as.length) > 0) {
			// (1) 若当前线程所在的格子(countercell对象)为空
			if ((a = as[(n - 1) & h]) == null) {
				if (cellsbusy == 0) {    
					//若无锁,则乐观的创建一个 countercell 对象。
					countercell r = new countercell(x); 
					//尝试加锁
					if (cellsbusy == 0 &&
						u.compareandswapint(this, cellsbusy, 0, 1)) {
						boolean created = false;
						//加锁成功后,再 recheck 一下数组是否不为空,且当前格子为空
						try {               
							countercell[] rs; int m, j;
							if ((rs = countercells) != null &&
								(m = rs.length) > 0 &&
								rs[j = (m - 1) & h] == null) {
								//把新创建的对象赋值给当前格子
								rs[j] = r;
								created = true;
							}
						} finally {
							//手动释放锁
							cellsbusy = 0;
						}
						//若当前格子创建成功,且上边的赋值成功,则说明加1成功,退出循环
						if (created)
							break;
						//否则,继续下次循环
						continue;           // slot is now non-empty
					}
				}
				//若cellsbusy=1,说明有其它线程抢锁成功。或者若抢锁的 cas 操作失败,都会走到这里,
				//则当前线程需跳转到(9)重新生成随机数,进行下次循环判断。
				collide = false;
			}
			/**
			*后边这几种情况,都是数组和当前随机到的格子都不为空的情况。
			*且注意每种情况,若执行成功,且不break,continue,则都会执行(9),重新生成随机数,进入下次循环判断
			*/
			// (2) 到这,说明当前方法在被调用之前已经 cas 失败过一次,若不明白可回头看下 addcount 方法,
			//为了减少竞争,则跳转到⑨处重新生成随机数,并把 wasuncontended 设置为true ,认为下一次不会产生竞争
			else if (!wasuncontended)       // cas already known to fail
				wasuncontended = true;      // continue after rehash
			// (3) 若 wasuncontended 为 true 无竞争,则尝试一次 cas。若成功,则结束循环,若失败则判断后边的 (4)(5)(6)。
			else if (u.compareandswaplong(a, cellvalue, v = a.value, v + x))
				break;
			// (4) 结合 (6) 一起看,(4)(5)(6)都是 wasuncontended=true,且cas修改value失败的情况。
			//若数组有变化,或者数组长度大于等于当前cpu的核心数,则把 collide 改为 false
			//因为数组若有变化,说明是由扩容引起的;长度超限,则说明已经无法扩容,只能认为无碰撞。
			//这里很有意思,认真思考一下,当扩容超限后,则会达到一个平衡,即 (4)(5) 反复执行,直到 (3) 中cas成功,跳出循环。
			else if (countercells != as || n >= ncpu)
				collide = false;            // at max size or stale
			// (5) 若数组无变化,且数组长度小于cpu核心数时,且 collide 为 false,就把它改为 true,说明下次循环可能需要扩容
			else if (!collide)
				collide = true;
			// (6) 若数组无变化,且数组长度小于cpu核心数时,且 collide 为 true,说明冲突比较严重,需要扩容了。
			else if (cellsbusy == 0 &&
					 u.compareandswapint(this, cellsbusy, 0, 1)) {
				try {
					//recheck
					if (countercells == as) {// expand table unless stale
						//创建一个容量为原来两倍的数组
						countercell[] rs = new countercell[n << 1];
						//转移旧数组的值
						for (int i = 0; i < n; ++i)
							rs[i] = as[i];
						//更新数组
						countercells = rs;
					}
				} finally {
					cellsbusy = 0;
				}
				//认为扩容后,下次不会产生冲突了,和(4)处逻辑照应
				collide = false;
				//当次扩容后,就不需要重新生成随机数了
				continue;                   // retry with expanded table
			}
			// (9),重新生成一个随机数,进行下一次循环判断
			h = threadlocalrandom.advanceprobe(h);
		}
		//2.这里的 cellsbusy 参数非常有意思,是一个volatile的 int值,用来表示自旋锁的标志,
		//可以类比 aqs 中的 state 参数,用来控制锁之间的竞争,并且是独占模式。简化版的aqs。
		//cellsbusy 若为0,说明无锁,线程都可以抢锁,若为1,表示已经有线程拿到了锁,则其它线程不能抢锁。
		else if (cellsbusy == 0 && countercells == as &&
				 u.compareandswapint(this, cellsbusy, 0, 1)) {
			boolean init = false;
			try {    
				//这里再重新检测下 countercells 数组引用是否有变化
				if (countercells == as) {
					//初始化一个长度为 2 的数组
					countercell[] rs = new countercell[2];
					//根据当前线程的随机数值,计算下标,只有两个结果 0 或 1,并初始化对象
					rs[h & 1] = new countercell(x);
					//更新数组引用
					countercells = rs;
					//初始化成功的标志
					init = true;
				}
			} finally {
				//别忘了,需要手动解锁。
				cellsbusy = 0;
			}
			//若初始化成功,则说明当前加1的操作也已经完成了,则退出整个循环。
			if (init)
				break;
		}
		//3.到这,说明数组为空,且 2 抢锁失败,则尝试直接去修改 basecount 的值,
		//若成功,也说明加1操作成功,则退出循环。
		else if (u.compareandswaplong(this, basecount, v = basecount, v + x))
			break;                          // fall back on using base
	}
}

不得不佩服 doug lea 大神,思维这么缜密,如果是我的话,直接一个 cas 完事。(手动摊手~)

transfer()方法

需要说明的一点是,虽然我们一直在说帮助扩容,其实更准确的说应该是帮助迁移元素。因为扩容的第一次初始化新表(扩容后的新表)这个动作,只能由一个线程完成。其他线程都是在帮助迁移元素到新数组。

这里还是先看下迁移的示意图,帮助理解。

为了方便,上边以原数组长度 8 为例。在元素迁移的时候,所有线程都遵循从后向前推进的规则,即如图a线程是第一个进来的线程,会从下标为7的位置,开始迁移数据。

而且当前线程迁移时会确定一个范围,限定它此次迁移的数据范围,如图 a 线程只能迁移 bound=6到 i=7 这两个数据。

此时,其它线程就不能迁移这部分数据了,只能继续向前推进,寻找其它可以迁移的数据范围,且每次推进的步长为固定值 stride(此处假设为2)。如图中 b线程发现 a 线程正在迁移6,7的数据,因此只能向前寻找,然后迁移 bound=4 到 i=5 的这两个数据。

当每个线程迁移完成它的范围内数据时,都会继续向前推进。那什么时候是个头呢?

这就需要维护一个全局的变量 transferindex,来表示所有线程总共推进到的元素下标位置。如图,线程 a 第一次迁移成功后又向前推进,然后迁移2,3 的数据。此时,若没有其他线程在帮助迁移,则 transferindex 即为2。

剩余部分等待下一个线程来迁移,或者有任何的 a 和b线程已经迁移完成,也可以推进到这里帮助迁移。直到 transferindex=0 。(会做一些其他校验来判断是否迁移全部完成,看代码)。

//这个类是一个标志,用来代表当前桶(数组中的某个下标位置)的元素已经全部迁移完成
static final class forwardingnode<k,v> extends node<k,v> {
	final node<k,v>[] nexttable;
	forwardingnode(node<k,v>[] tab) {
		//把当前桶的头结点的 hash 值设置为 -1,表明已经迁移完成,
		//这个节点中并不存储有效的数据
		super(moved, null, null, null);
		this.nexttable = tab;
	}
}

//迁移数据
private final void transfer(node<k,v>[] tab, node<k,v>[] nexttab) {
	int n = tab.length, stride;
	//根据当前cpu核心数,确定每次推进的步长,最小值为16.(为了方便我们以2为例)
	if ((stride = (ncpu > 1) ? (n >>> 3) / ncpu : n) < min_transfer_stride)
		stride = min_transfer_stride; // subdivide range
	//从 addcount 方法,只会有一个线程跳转到这里,初始化新数组
	if (nexttab == null) {            // initiating
		try {
			@suppresswarnings("unchecked")
			//新数组长度为原数组的两倍
			node<k,v>[] nt = (node<k,v>[])new node<?,?>[n << 1];
			nexttab = nt;
		} catch (throwable ex) {      // try to cope with oome
			sizectl = integer.max_value;
			return;
		}
		//用 nexttable 指代新数组
		nexttable = nexttab;
		//这里就把推进的下标值初始化为原数组长度(以16为例)
		transferindex = n;
	}
	//新数组长度
	int nextn = nexttab.length;
	//创建一个标志类
	forwardingnode<k,v> fwd = new forwardingnode<k,v>(nexttab);
	//是否向前推进的标志
	boolean advance = true;
	//是否所有线程都全部迁移完成的标志
	boolean finishing = false; // to ensure sweep before committing nexttab
	//i 代表当前线程正在迁移的桶的下标,bound代表它本次可以迁移的范围下限
	for (int i = 0, bound = 0;;) {
		node<k,v> f; int fh;
		//需要向前推进
		while (advance) {
			int nextindex, nextbound;
			// (1) 先看 (3) 。i每次自减 1,直到 bound。若超过bound范围,或者finishing标志为true,则不用向前推进。
			//若未全部完成迁移,且 i 并未走到 bound,则跳转到 (7),处理当前桶的元素迁移。
			if (--i >= bound || finishing)
				advance = false;
			// (2) 每次执行,都会把 transferindex 最新的值同步给 nextindex
			//若 transferindex小于等于0,则说明原数组中的每个桶位置,都有线程在处理迁移了,
			//于是,需要跳出while循环,并把 i设为 -1,以跳转到④判断在处理的线程是否已经全部完成。
			else if ((nextindex = transferindex) <= 0) {
				i = -1;
				advance = false;
			}
			// (3) 第一个线程会先走到这里,确定它的数据迁移范围。(2)处会更新 nextindex为 transferindex 的最新值
			//因此第一次 nextindex=n=16,nextbound代表当次迁移的数据范围下限,减去步长即可,
			//所以,第一次时,nextindex=16,nextbound=16-2=14。后续,每次都会间隔一个步长。
			else if (u.compareandswapint
					 (this, transferindex, nextindex,
					  nextbound = (nextindex > stride ?
								   nextindex - stride : 0))) {
				//bound代表当次数据迁移下限
				bound = nextbound;
				//第一次的i为15,因为长度16的数组,最后一个元素的下标为15
				i = nextindex - 1;
				//表明不需要向前推进,只有当把当前范围内的数据全部迁移完成后,才可以向前推进
				advance = false;
			}
		}
		// (4)
		if (i < 0 || i >= n || i + n >= nextn) {
			int sc;
			//若全部线程迁移完成
			if (finishing) {
				nexttable = null;
				//更新table为新表
				table = nexttab;
				//扩容阈值改为原来数组长度的 3/2 ,即新长度的 3/4,也就是新数组长度的0.75倍
				sizectl = (n << 1) - (n >>> 1);
				return;
			}
			//到这,说明当前线程已经完成了自己的所有迁移(无论参与了几次迁移),
			//则把 sc 减1,表明参与扩容的线程数减少 1。
			if (u.compareandswapint(this, sizectl, sc = sizectl, sc - 1)) {
				//在 addcount 方法最后,我们强调,迁移开始时,会设置 sc=(rs << resize_stamp_shift) + 2
				//每当有一个线程参与迁移,sc 就会加 1,每当有一个线程完成迁移,sc 就会减 1。
				//因此,这里就是去校验当前 sc 是否和初始值是否相等。相等,则说明全部线程迁移完成。
				if ((sc - 2) != resizestamp(n) << resize_stamp_shift)
					return;
				//只有此处,才会把finishing 设置为true。
				finishing = advance = true;
				//这里非常有意思,会把 i 从 -1 修改为16,
				//目的就是,让 i 再从后向前扫描一遍数组,检查是否所有的桶都已被迁移完成,参看 (6)
				i = n; // recheck before commit
			}
		}
		// (5) 若i的位置元素为空,则说明当前桶的元素已经被迁移完成,就把头结点设置为fwd标志。
		else if ((f = tabat(tab, i)) == null)
			advance = castabat(tab, i, null, fwd);
		// (6) 若当前桶的头结点是 forwardingnode ,说明迁移完成,则向前推进 
		else if ((fh = f.hash) == moved)
			advance = true; // already processed
		//(7) 处理当前桶的数据迁移。
		else {
			synchronized (f) {  //给头结点加锁
				if (tabat(tab, i) == f) {
					node<k,v> ln, hn;
					//若hash值大于等于0,则说明是普通链表节点
					if (fh >= 0) {
						int runbit = fh & n;
						//这里是 1.7 的 chm 的 rehash 方法和 1.8 hashmap的 resize 方法的结合体。
						//会分成两条链表,一条链表和原来的下标相同,另一条链表是原来的下标加数组长度的位置
						//然后找到 lastrun 节点,从它到尾结点整体迁移。
						//lastrun前边的节点则单个迁移,但是需要注意的是,这里是头插法。
						//另外还有一点和1.7不同,1.7 lastrun前边的节点是复制过去的,而这里是直接迁移的,没有复制操作。
						//所以,最后会有两条链表,一条链表从 lastrun到尾结点是正序的,而lastrun之前的元素是倒序的,
						//另外一条链表,从头结点开始就是倒叙的。看下图。
						node<k,v> lastrun = f;
						for (node<k,v> p = f.next; p != null; p = p.next) {
							int b = p.hash & n;
							if (b != runbit) {
								runbit = b;
								lastrun = p;
							}
						}
						if (runbit == 0) {
							ln = lastrun;
							hn = null;
						}
						else {
							hn = lastrun;
							ln = null;
						}
						for (node<k,v> p = f; p != lastrun; p = p.next) {
							int ph = p.hash; k pk = p.key; v pv = p.val;
							if ((ph & n) == 0)
								ln = new node<k,v>(ph, pk, pv, ln);
							else
								hn = new node<k,v>(ph, pk, pv, hn);
						}
						settabat(nexttab, i, ln);
						settabat(nexttab, i + n, hn);
						settabat(tab, i, fwd);
						advance = true;
					}
					//树节点
					else if (f instanceof treebin) {
						treebin<k,v> t = (treebin<k,v>)f;
						treenode<k,v> lo = null, lotail = null;
						treenode<k,v> hi = null, hitail = null;
						int lc = 0, hc = 0;
						for (node<k,v> e = t.first; e != null; e = e.next) {
							int h = e.hash;
							treenode<k,v> p = new treenode<k,v>
								(h, e.key, e.val, null, null);
							if ((h & n) == 0) {
								if ((p.prev = lotail) == null)
									lo = p;
								else
									lotail.next = p;
								lotail = p;
								++lc;
							}
							else {
								if ((p.prev = hitail) == null)
									hi = p;
								else
									hitail.next = p;
								hitail = p;
								++hc;
							}
						}
						ln = (lc <= untreeify_threshold) ? untreeify(lo) :
							(hc != 0) ? new treebin<k,v>(lo) : t;
						hn = (hc <= untreeify_threshold) ? untreeify(hi) :
							(lc != 0) ? new treebin<k,v>(hi) : t;
						settabat(nexttab, i, ln);
						settabat(nexttab, i + n, hn);
						settabat(tab, i, fwd);
						advance = true;
					}
				}
			}
		}
	}
}

迁移后的新数组链表方向示意图,以 runbit =0 为例。

helptransfer()方法

最后再看 put 方法中的这个方法,就比较简单了。

final node<k,v>[] helptransfer(node<k,v>[] tab, node<k,v> f) {
	node<k,v>[] nexttab; int sc;
	//头结点为 forwardingnode ,并且新数组已经初始化
	if (tab != null && (f instanceof forwardingnode) &&
		(nexttab = ((forwardingnode<k,v>)f).nexttable) != null) {
		int rs = resizestamp(tab.length);
		while (nexttab == nexttable && table == tab &&
			   (sc = sizectl) < 0) {
			//若校验标识失败,或者已经扩容完成,或推进下标到头,则退出
			if ((sc >>> resize_stamp_shift) != rs || sc == rs + 1 ||
				sc == rs + max_resizers || transferindex <= 0)
				break;
			//当前线程需要帮助迁移,sc值加1
			if (u.compareandswapint(this, sizectl, sc, sc + 1)) {
				transfer(tab, nexttab);
				break;
			}
		}
		return nexttab;
	}
	return table;
}

jdk1.8 的 chm 最主要的逻辑基本上都讲完了,其它方法原理类同。1.8 的 concurrenthashmap 实现原理还是比较简单的,但是代码实现比较复杂。相对于 1.7 来说,锁的粒度降低了,效率也提高了。

结语

看到这里的小伙伴,我想说你是最棒的!

求点赞:

上篇文章收藏比点赞还要多,我要哭了 o(╥﹏╥)o。

原创不易,小伙伴们如果觉得文章还不错的话,动动手指,关注我,点个赞吧~

《嘿嘿,我就知道面试官接下来要问我 ConcurrentHashMap 底层原理了,看我怎么秀他.doc》

下载本文的Word格式文档,以方便收藏与打印。