ConcurrentHashMap 中十个提升性能的细节,你都知道吗?

ConcurrentHashMap 中十个提升性能的细节,你都知道吗?
2021年04月20日 13:43 CSDN

【CSDN 编者按】ConcurrentHashMap 是 Java 中支持高并发、搞吞吐量的线程安全 HashMap 实现。在这之前很多人对 ConcurrentHashMap 只有一些肤浅的理解,仅知道它采用了多个锁,大概也足够了。但想提升性能可远不止这些,本文详细阐述了 ConcurrentHashMap 技术细节,随小编一起来看看吧。

作者 | L责编 | 欧阳姝黎

一些题外话

如何在高并发下提高系统吞吐是所有后端开发者追求的目标,Java并发的开创者 Doug Lea 在 Java 7 ConcurrentHashMap 的设计中给出了一些参考答案,本文详细的总结了 ConcurrentHashMap 源码中影响并发性能的十个细节,有常见的自旋锁,CAS 的使用,也有延迟写内存,volatile 语义退化等不常见的技巧,希望对大家的开发设计有所帮助。

由于 ConcurrentHashMap 的内容比较多,而且 Java 7 和 Java 8 两个版本的实现相差比较大,如果采用我们上篇中对比的那种行文思路,在有限的篇幅中难免会遗漏一些细节,因此我决定采用两篇文章去详细阐述两个版本中 ConcurrentHashMap 技术细节,不过为了帮助读者体系化的理解,三篇文章(包含 HashMap 的那一篇)整体文章的结构将保持一致。

把书读薄

《阿里巴巴 Java 开发手册》的作者孤尽对 ConcurrentHashMap 的设计十分推崇,他说:“ConcurrentHashMap 源码是学习 Java 代码开发规范的一个非常好的学习材料,我建议同学们可以时常去看一看,总会有新的收货的”,相信大家平常也能听到很多对于 ConcurrentHashMap 设计的溢美之词,在展开隐藏在 ConcurrentHashMap 所有小秘密之前,大家在大脑中首先要有这样的一幅图:

img

对于Java 7来说,这张图已经能完全把 ConcurrentHashMap 的架构说清楚了:

ConcurrentHashMap 是一个线程安全的 Map 实现,其读取不需要加锁,通过引入 Segment,可以做到写入的时候加锁力度足够小

由于引入了 Segment,ConcurrentHashMap 在读取和写入的时候需要需要做两次哈希,但这两次哈希换来的是更细力粒度的锁,也就意味着可以支持更高的并发

每个桶数组中的 key-value 对仍然以链表的形式存放在桶中,这一点和 HashMap 是一致的。

把书读厚

关于 Java 7 的 ConcurrentHashMap 的整体架构,用上面三两句话就可以概括,这张图应该很快就可以在大家的大脑中留下印象,接下来我们通过几个问题来尝试吸引大家继续看下去,把书读厚:

ConcurrentHashMap 的哪些操作需要加锁?

ConcurrentHashMap 的无锁读是如何实现的?

在多线程的场景下调用 size()方法获取 ConcurrentHashMap 的大小有什么挑战?ConcurrentHashMap 是怎么解决的?

 在有 Segment 存在的前提下,应该如何扩容的?

在上一篇文章中我们总结了 HashMap 中最重要的点有四个:初始化,数据寻址-hash方法,数据存储-put方法,扩容-resize方法,对于 ConcurrentHashMap 来说,这四个操作依然是最重要的,但由于其引入了更复杂的数据结构,因此在调用 size() 查看整个 ConcurrentHashMap 的数量大小的时候也有不小的挑战,我们也会重点看下 Doug Lea 在 size() 方法中的设计

初始化

publicConcurrentHashMap(int initialCapacity, float loadFactor, int concurrencyLevel){

if (!(loadFactor > ) || initialCapacity 0 || concurrencyLevel 0)

thrownew IllegalArgumentException();

if (concurrencyLevel > MAX_SEGMENTS)

        concurrencyLevel = MAX_SEGMENTS;

// Find power-of-two sizes best matching arguments

int sshift = ;

int ssize = 1;

// 保证ssize是大于concurrencyLevel的最小的2的整数次幂

while (ssize 

        ++sshift;

        ssize 1;

    }

// 寻址需要两次哈希,哈希的高位用于确定segment,低位用户确定桶数组中的元素

this.segmentShift = 32 - sshift;

this.segmentMask = ssize - 1;

if (initialCapacity > MAXIMUM_CAPACITY)

        initialCapacity = MAXIMUM_CAPACITY;

int c = initialCapacity / ssize;

if (c * ssize 

        ++c;

int cap = MIN_SEGMENT_TABLE_CAPACITY;

while (cap 

        cap 1;

    Segment s0 = new Segment(loadFactor, (int)(cap * loadFactor), (HashEntry[])new HashEntry[cap]);

    Segment[] ss = (Segment[])new Segment[ssize];

    UNSAFE.putOrderedObject(ss, SBASE, s0); // ordered write of segments[0]

this.segments = ss;

}

初始化方法中做了三件重要的事:

确定了 segments 的数组的大小 ssize,ssize 根据入参concurrencyLevel 确定,取大于 concurrencyLevel 的最小的 2 的整数次幂

确定哈希寻址时的偏移量,这个偏移量在确定元素在 segment 数组中的位置时会用到

初始化 segment 数组中的第一个元素,元素类型为HashEntry的数组,这个数组的长度为 initialCapacity / ssize,即初始化大小除以 segment 数组的大小,segment 数组中的其他元素在后续 put 操作时参考第一个已初始化的实例初始化

staticfinalclassHashEntryK,V> {

finalint hash; 

final K key;

volatile V value;

volatile HashEntry next; 

    HashEntry(int hash, K key, V value, HashEntry next) {

this.hash = hash;

this.key = key;

this.value = value;

this.next = next;

    }

finalvoidsetNext(HashEntry n){

        UNSAFE.putOrderedObject(this, nextOffset, n);

    }

}

这里的HashEntry和HashMap中的HashEntry作用是一样的,它是 ConcurrentHashMap 的数据项,这里要注意两个细节:

细节一:

HashEntry 的成员变量 value 和 next 是被关键字 volatile 修饰的,也就是说所有线程都可以及时检查到其他线程对这两个变量的改变,因而可以在不加锁的情况下读取到这两个引用的最新值

细节二:

HashEntry 的 setNext 方法中调用了 UNSAFE.putOrderedObject,这个接口是属于 sun 安全库中的 api,并不是 J2SE 的一部分,它的作用和 volatile 恰恰相反,调用这个 api 设值是使得 volatile 修饰的变量延迟写入主存,那到底是什么时候写入主存呢?

JMM 中有一条规定:

对一个变量执行 unlock 操作之前,必须先把此变量同步到主内存中(执行 store 和 write 操作)

后文在讲 put 方法的时候我们再详细看 setNext 的用法

哈希

由于引入了 segment,因此不管是调用 get 方法读还是调用 put 方法写,都需要做两次哈希,还记得在上文我们讲初始化的时候系统做了一件重要的事:

确定哈希寻址时的偏移量,这个偏移量在确定元素在 segment 数组中的位置时会用到

没错就是这段代码:

this.segmentShift = 32 - sshift;

这里用32去减是因为int型的长度是32,有了segmentShift,ConcurrentHashMap 是如何做第一次哈希的呢?

public V put(K key, V value){

    Segment s;

if (value == null)

thrownew NullPointerException();

int hash = hash(key);

// 变量j代表着数据项处于segment数组中的第j项

int j = (hash >>> segmentShift) & segmentMask;

// 如果segment[j]为null,则下面的这个方法负责初始化之

        s = ensureSegment(j); 

return s.put(key, hash, value, false);

}

我们以 put 方法为例,变量j代表着数据项处于 segment 数组中的第j项。如下图所示假如 segment 数组的大小为 2 的 n 次方,则hash >>>  segmentShift 正好取了 key 的哈希值的高 n 位,再与掩码 segmentMask 相与相当与仍然用 key 的哈希的高位来确定数据项在 segment 数组中的位置。

image-20210409232020703

hash 方法与非线程安全的 HashMap 相似,这里不再细说。

细节三:

在延迟初始化 Segment 数组时,作者采用了 CAS 避免了加锁,而且 CAS 可以保证最终的初始化只能被一个线程完成。在最终决定调用 CAS 进行初始化前又做了两次检查,第一次检查可以避免重复初始化 tab 数组,而第二次检查则可以避免重复初始化 Segment 对象,每一行代码作者都有详细的考虑。

private Segment ensureSegment(int k){

final Segment[] ss = this.segments;

long u = (k // raw offset 实际的字节偏移量

    Segment seg;

if ((seg = (Segment)UNSAFE.getObjectVolatile(ss, u)) == null) {

        Segment proto = ss[]; // use segment 0 as prototype

int cap = proto.table.length;

float lf = proto.loadFactor;

int threshold = (int)(cap * lf);

        HashEntry[] tab = (HashEntry[])new HashEntry[cap];

if ((seg = (Segment)UNSAFE.getObjectVolatile(ss, u)) == null) { // recheck 再检查一次是否已经被初始化

            Segment s = new Segment(lf, threshold, tab);

while ((seg = (Segment)UNSAFE.getObjectVolatile(ss, u)) == null) {

if (UNSAFE.compareAndSwapObject(ss, u, null, seg = s)) // 使用 CAS 确保只被初始化一次

break;

            }

        }

    }

return seg;

}

put方法

final V put(K key, int hash, V value, boolean onlyIfAbsent){

    HashEntry node = tryLock() ? null : scanAndLockForPut(key, hash, value); 

    V oldValue;

try {

        HashEntry[] tab = table;

int index = (tab.length - 1) & hash;

        HashEntry first = entryAt(tab, index);

for (HashEntry e = first;;) {

if (e != null) {

                K k; // 如果找到key相同的数据项,则直接替换

if ((k = e.key) == key || (e.hash == hash && key.equals(k))) {

                    oldValue = e.value;

if (!onlyIfAbsent) {

                        e.value = value;

                        ++modCount; 

                    }

break;

                }

                e = e.next;

            }

else {

if (node != null)

// node不为空说明已经在自旋等待时初始化了,注意调用的是setNext,不是直接操作next

                    node.setNext(first); 

else

// 否则,在这里新建一个HashEntry

                    node = new HashEntry(hash, key, value, first);

int c = count + 1// 先加1

if (c > threshold && tab.length 

                    rehash(node);

else

// 将新节点写入,注意这里调用的方法有门道

                    setEntryAt(tab, index, node); 

                ++modCount;

                count = c;

                oldValue = null;

break;

            }

        }

    } finally {

        unlock();

    }

return oldValue;

}

这段代码在整个 ConcurrentHashMap 的设计中非常出彩,在这短短的 40 行代码中,Doug Lea 就像一位神奇的魔术师,转眼间已经变换了好几种魔法,让人目瞪口呆,感叹其对并发的理解之深,让我们慢慢的解析 Doug Lea 在这段代码中使用的魔法:

细节四:

CPU 的调度是公平的,好不容易轮到的时间片如果因为获取不到锁就将本线程挂起无疑会降低本线程的效率,更何况挂起之后还要重新调度,切换上下文,又是一笔不小的开销。如果可以遇见其他线程占有锁的时间不会很长,采用自旋将会是一个比较好的选择,在这里面也有一个权衡,如果别的线程占有锁的时间过长,反而是挂起阻塞等待性能好一点,我们来看下 ConcurrentHashMap 的做法:

private HashEntry scanAndLockForPut(K key, int hash, V value){

    HashEntry first = entryForHash(this, hash);

    HashEntry e = first;

    HashEntry node = null;

int retries = -1// negative while locating node

while (!tryLock()) { // 自旋等待

        HashEntry f; // to recheck first below

if (retries 0) {

if (e == null) { // 这个桶中还没有写入k-v项

if (node == null// speculatively create node 直接创建一个新的节点

                    node = new HashEntry(hash, key, value, null);

                retries = ;  

            }

// key值相等,直接跳出去尝试获取锁

elseif (key.equals(e.key))

                retries = ;

else// 遍历链表

                e = e.next;

        }

elseif (++retries > MAX_SCAN_RETRIES) {

// 自旋等待超过一定次数之后只能挂起线程,阻塞等待了

            lock();

break;

        }

elseif ((retries & 1) ==  && (f = entryForHash(this, hash)) != first) { 

// 如果头节点改变了,则重置次数,继续自旋等待

            e = first = f; 

            retries = -1

        }

    }

return node;

}

ConcurrentHashMap 的策略是自旋 MAX_SCAN_RETRIES 次,如果还没有获取到锁则调用 lock 挂起阻塞等待,当然如果其他线程采用头插法改变了链表的头结点,则重置自旋等待次数。

细节五:

要知道,如果要从编码的角度提升系统的并发度,一个黄金法则就是减少并发临界区的大小。在 scanAndLockForPut 这个方法的设计上,有个小细节让我眼前一亮,就是在自旋的过程中初始化了一个 HashEntry,这样做的好处就是线程在拿到锁之后不用初始化 HashEntry 了,占有锁的时间相应减小,进而提升性能。

细节六:

在 put 方法的开头,有这么一行不起眼的代码:

HashEntry[] tab = table;

看起来好像就是简单的临时变量赋值,其实大有来头,我们看一下 table 的声明:

transientvolatile HashEntry[] table;

table 变量被关键字 volatile 修饰,CPU 在处理 volatile 修饰的变量的时候会有下面的行为:

嗅探

每个处理器通过嗅探在总线上传播的数据来检查自己缓存的值是不是过期了,当处理器发现自己缓存行对应的内存地址被修改,就会将当前处理器的缓存行设置成无效状态,当处理器对这个数据进行修改操作的时候,会重新从系统内存中把数据读到处理器缓存里

因此直接读取这类变量的读取和写入比普通变量的性能消耗更大,因此在 put 方法的开头将 table 变量赋值给一个普通的本地变量目的是为了消除 volatile 带来的性能损耗。这里就有另外一个问题:那这样做会不会导致 table 的语义改变,让别的线程读取不到最新的值呢?别着急,我们接着看。

细节七:

注意 put 方法中的这个方法:entryAt():

staticfinal  HashEntry entryAt(HashEntry[] tab, int i){

return (tab == null) ? null : (HashEntry) UNSAFE.getObjectVolatile(tab, ((long)i 

}

这个方法的底层会调用 UNSAFE.getObjectVolatile,这个方法的目的就是对于普通变量读取也能像 volatile 修饰的变量那样读取到最新的值,在前文中我们分析过,由于变量 tab 现在是一个普通的临时变量,如果直接调用 tab[i] 不一定能拿到最新的首节点的。细心的读者读到这里可能会想:Doug Lea 是不是糊涂了,兜兜转换不是回到了原点么,为啥不刚开始就操作 volatile 变量呢,费了这老大劲。我们继续往下看。

细节八:

在 put 方法的实现中,如果链表中没有 key 值相等的数据项,则会把新的数据项插入到链表头写入到数组中,其中调用的方法是:

staticfinal  voidsetEntryAt(HashEntry[] tab, int i, HashEntry e){

    UNSAFE.putOrderedObject(tab, ((long)i 

}

putOrderedObject 这个接口写入的数据不会马上被其他线程获取到,而是在 put 方法最后调用 unclock 后才会对其他线程可见,参见前文中对 JMM 的描述:

对一个变量执行 unlock 操作之前,必须先把此变量同步到主内存中(执行 store 和 write 操作)

这样的好处有两个,第一是性能,因为在持有锁的临界区不需要有同步主存的操作,因此持有锁的时间更短。第二是保证了数据的一致性,在 put 操作的 finally 语句执行完之前,put 新增的数据是不对其他线程展示的,这是 ConcurrentHashMap 实现无锁读的关键原因。

我们在这里稍微总结一下 put 方法里面最重要的三个细节,首先将 volatile 变量转为普通变量提升性能,因为在 put 中需要读取到最新的数据,因此接下来调用 UNSAFE.getObjectVolatile 获取到最新的头结点,但是通过调用 UNSAFE.putOrderedObject 让变量写入主存的时间延迟到 put 方法的结尾,一来缩小临界区提升性能,而来也能保证其他线程读取到的是完整数据。

细节九:

如果 put 真的需要往链表头插入数据项,那也得注意了, ConcurrentHashMap 相应的语句是:

node.setNext(first);

我们看下 setNext 的具体实现:

finalvoidsetNext(HashEntry n){

    UNSAFE.putOrderedObject(this, nextOffset, n);

}

因为next变量是用volatile关键字修饰的,这里调用UNSAFE.putOrderedObject 相当于是改变了volatile的语义,这里面的考量有两个,第一个仍然是性能,这样的实现性能明显更高,这一点前文已经详细的分析过,第二点是考虑了语义的一致性,对于put方法来说因为其调用的是 UNSAFE.getObjectVolatile,仍然能获取到最新的数据,对于 get 方法,在 put 方法未结束之前,是不希望不完整的数据被其他线程通过 get 方法读取的,这也是合理的。

resize扩容

privatevoidrehash(HashEntry node){

    HashEntry[] oldTable = table;

int oldCapacity = oldTable.length;

int newCapacity = oldCapacity 1;

    threshold = (int)(newCapacity * loadFactor);

    HashEntry[] newTable = (HashEntry[]) new HashEntry[newCapacity];

int sizeMask = newCapacity - 1;

for (int i = ; i 

        HashEntry e = oldTable[i];

if (e != null) {

            HashEntry next = e.next;

int idx = e.hash & sizeMask;

if (next == null//  Single node on list 只有一个节点,简单处理

                newTable[idx] = e;

else { 

                HashEntry lastRun = e;

int lastIdx = idx;

// 保证下文中newTable[k]不会为null

for (HashEntry last = next;

                        last != null;

                        last = last.next) {

int k = last.hash & sizeMask;

if (k != lastIdx) {

                        lastIdx = k;

                        lastRun = last;

                    }

                }

                newTable[lastIdx] = lastRun;

// Clone remaining nodes 对标记之前的不能重用的节点进行复制,再重新添加到新数组对应的hash桶中去

for (HashEntry p = e; p != lastRun; p = p.next) {

                    V v = p.value;

int h = p.hash;

int k = h & sizeMask;

                    HashEntry n = newTable[k];

                    newTable[k] = new HashEntry(h, p.key, v, n);

                }

            }

        }

    }

int nodeIndex = node.hash & sizeMask; // add the new node 部分的put功能,把新节点添加到链表的最前面

    node.setNext(newTable[nodeIndex]);

    newTable[nodeIndex] = node;

    table = newTable;

}

如果大家看过我们上一篇分析 HashMap 的 rehash 的过程看这段代码就会比较轻松,在上一篇我们分析过,在整个桶数组长度为 2 的正整数幂的情况下,扩容前同一个桶中的元素在扩容后只会分布在两个桶中,其中一个桶的下标保持不变,我们称之为旧桶,另一个桶的下标为旧桶下标加上旧的容量,我们称之为新桶,其实第一个 for 循环的目的就是在一个链表中找到最后一个应该移到新桶的数据项,直接移到新桶中,这样做是为了保证后面调用 HashEntry n = newTable[k];的时候不会读取到 null。第二个 for 就比较简单了,将所有的数据项移到新的桶数组中,当所有的操作完成之后才将 newTable 赋值给 table。

rehash 方法中是没有加锁的,并不是说调用这个方法不需要加锁,作者是在外层加了锁,这一点需要注意。

size方法

之前在分析 HashMap 方法的时候我们并没有去讲 size 方法,因为在单线程环境下这个方法可以使用一个全局的变量解决,同样的方案当然也可以在多线程场景下使用,不过要在多线程环境下读取全局变量又会陷入到无尽的“锁”中,这是我们不愿意看到的,那 ConcurrentHashMap 是如何解决这个问题的呢:

publicintsize(){

final Segment[] segments = this.segments;

int size;

boolean overflow; // true if size overflows 32 bits

long sum;         // sum of modCounts

long last = 0L;   // previous sum

int retries = -1// first iteration isn't retry

try {

for (;;) {

if (retries++ == RETRIES_BEFORE_LOCK) {

for (int j = ; j 

                    ensureSegment(j).lock(); // force creation

            }

            sum = 0L;

            size = ;

            overflow = false;

for (int j = ; j 

                Segment seg = segmentAt(segments, j);

if (seg != null) {

                    sum += seg.modCount;

int c = seg.count;

if (c 0 || (size += c) 0)

                        overflow = true;

                }

            }

if (sum == last)

break;

            last = sum;

        }

    } finally {

if (retries > RETRIES_BEFORE_LOCK) {

for (int j = ; j 

                segmentAt(segments, j).unlock();

        }

    }

return overflow ? Integer.MAX_VALUE : size;

}

在前面介绍 put 方法时我们选择忽略了一个小小的成员变量 modCount,这个变量在这里大显身手,它的主要作用就是记录整个 Segment 中写入操作的次数,因为写入操作是会影响整个 ConcurrentHashMap 的大小的。

因为在读取 ConcurrentHashMap 大小的时候需要保证读到的是最新的值,因此其调用了 UNSAFE.getObjectVolatile 这个方法,虽然这个方法的性能比普通变量要差,但是比起全局加锁,可好多了。

static final  Segment segmentAt(Segment[] ss, int j) {

    long u = (j 

return ss == null ? null : (Segment) UNSAFE.getObjectVolatile(ss, u);

}

细节十:

在 size 方法的设计上,ConcurrentHashMap 先尝试无锁的方法,如果两次遍历所有 segment 数组的时候整个 ConcurrentHashMap 没有发生写入操作,则直接返回每个 segment 数组的 size() 之和,否则重新遍历,如果写入操作频繁,则不得已加锁处理,这里的加锁相当于是一个全局的锁,因为对 segment 数组的每一个元素都加了锁。那如何判断整个 ConcurrentHashMap 的写入是否频繁呢?就看无锁重试的次数,当无锁重试的次数超过阈值的话就全局加锁处理。

总结

在看完 ConcurrentHashMap 中的这些细节之后我们尝试回答一下文章开头提出来的问题:

ConcurrentHashMap 的哪些操作需要加锁?

答:只有写入操作才需要加锁,读取操作不需要加锁

ConcurrentHashMap 的无锁读是如何实现的?

答:首先 HashEntry 中的 value 和 next 都是有 volatile 修饰的,其次在写入操作的时候通过调用UNSAFE库延迟同步了主存,保证了数据的一致性

在多线程的场景下调用 size()方法获取 ConcurrentHashMap 的大小有什么挑战?ConcurrentHashMap 是怎么解决的?

答:size() 具有全局的语义,如何能保证在不加全局锁的情况下读取到全局状态的值是一个很大的挑战,ConcurrentHashMap 通过查看两次无锁读中间是否发生了写入操作来决定读取到的size()是否可信,如果写入操作频繁,则再退化为全局加锁读取。

在有 Segment 存在的前提下,是如何扩容的?

答:segment 数组的大小在一开始初始化的时候就已经决定了,扩容主要扩的是 HashEntry 数组,基本的思路与 HashTable 一致,但这是一个线程不安全方法,调用之前需要加锁。

财经自媒体联盟更多自媒体作者

新浪首页 语音播报 相关新闻 返回顶部