hashmap 是 java 中最常见数据结构之一,它能够在 o(1) 时间复杂度存储键值对和根据键值读取值操作。本文将分析其内部实现原理(基于 jdk1.8.0_231)。
数据结构
hashmap 是基于哈希值的一种映射,所谓映射,即可以根据 key 获取到相应的 value。例如:数组是一种的映射,根据下标能够取到值。不过相对于数组,hashmap 占用的存储空间更小,复杂度却同样为 o(1)。
hashmap 内部定义了一排“桶”,用一个叫 table 的 node 数组表示;key-value 存放到 hashmap 中时,根据 key 计算的哈希值决定存放的桶。当多个键值对计算出来的哈希值相等时,就产生了哈希碰撞,此时多个元素会放到同一个桶中。
1
2
|
transient node<k,v>[] table; // 桶数组 transient int size; // 统计 hashmap 实例中有多少个元素,不等于 table.length |
桶的实例有两种,一种是 node 的实例,是链表;另一种是 treenode 的实例,是红黑树。node 是 hashmap 中的一个静态内部类,treenode 继承了 node。当桶中的元素较少时,桶的结构为单链表;当桶中的元素较多时,桶的结构会被转化为红黑树。
1
2
3
4
5
6
7
8
9
10
11
12
13
14
|
static class node<k,v> implements map.entry<k,v> { final int hash; final k key; v value; node<k,v> next; } static final class treenode<k,v> extends linkedhashmap.entry<k,v> { treenode<k,v> parent; // red-black tree links treenode<k,v> left; treenode<k,v> right; treenode<k,v> prev; // needed to unlink next upon deletion boolean red; } |
下图表示的是一个 hashmap 内部存储结构。第 1 行表示的是 table 数组,数组中的元素可能为 node 实例,treenode 实例,或者 null。table 数组的长度至少为 64 才能存放 treenode。
需要注意的是,单链表的长度和红黑树元素数量取决于 treeify_threshold(值为 8), untreeify_threshold(值为 6),min_treeify_capacity(值为 64) 三者。
下面几个结论不是很准确:
❌ 单链表长度最多为 8,超过了 8 就会被树化。
✅ 单链表树化不仅要满足单链表长度超过 8,而且要满足 table 数组的长度达到 min_treeify_capacity,只不过每次尝试树化而实际没有树化的话,都会将 table 的长度增加 1 倍。所以单链表的长度有可能超过 8。
❌ 红黑树中元素的数量总是超过 8
✅ table 在扩容的过程中可能会触发树的拆分,即一个桶中的元素在 table 扩容之后可能分配到两个不同的桶里,一棵红黑树可能被拆分成两棵。若拆分后红黑树元素的数量小于等于 untreeify_threshold ,树会被转化为单链表。意味着拆分之后红黑树元素的数量可能为 7 或者 8。
为什么单链表元素较多的时候要转化为红黑树?
单链表桶转化为红黑树桶的过程称为桶的树化,在 hashmap 源码中对应 treeifybin(table, hash) 函数。如果使用单链表作为桶的数据结构,存在大量哈希碰撞时,链表会变得很长,进行一次操作的时间复杂度将变成 o(k),其中 k 为所操作的桶中元素的个数。而红黑树能够保证时间复杂度为 o(log(k)),所以桶中元素过多时,使用树效果会更好,也可以在一定程度上防范利用哈希碰撞进行的黑客攻击。是一种时间上的优化。
不过相对于链表节点 node,红黑树节点 treenode 需要多维护 4 个引用和 1 个红黑标志,存储空间相对更大。而 hashmap 中的大部分桶都是存储很少量元素的(如果大多数桶都存储很多,键的哈希函数设计可能不太不合理),所以在一般情况下,也就是桶中元素很少时使用链表进行存储。是一种空间上的优化。
另外,桶的数据结构之所以不使用二叉排序树,是因为二叉排序树在特殊情况下会退化成单链表。例如:不断往同一个桶中从小到大顺序放入元素,会导致所有的节点都只有右孩子。而红黑树能够确保从根到叶子的最长的可能路径不多于最短的可能路径的两倍长。
构造器
hashmap 提供了 4 个构造器,其中带有参数 initialcapacity 和 loadfactor 这两个参数的构造器最为关键。其源码如下。
1
2
3
4
5
6
7
8
9
10
11
12
|
public hashmap( int initialcapacity, float loadfactor) { if (initialcapacity < 0 ) throw new illegalargumentexception( "illegal initial capacity: " + initialcapacity); if (initialcapacity > maximum_capacity) initialcapacity = maximum_capacity; if (loadfactor <= 0 || float .isnan(loadfactor)) throw new illegalargumentexception( "illegal load factor: " + loadfactor); this .loadfactor = loadfactor; this .threshold = tablesizefor(initialcapacity); } |
initialcapacity 表示的为期望的 table 的长度,jdk 源码中的大多数 capacity 指的都是底层存储数组的长度;loadfactor (负载因子)是一个在区间 (0,1) 的小数,它决定了何时应该对 table 进行扩容。
table 数组的长度发生改变时,将根据 loadfactor 计算 threshold 的值,公式为 threshold = table.length * loadfactor。当 hashmap 中元素的数量 size 大于阈值 threshod 时,将触发 table 扩容。
构造器将传入的 loadfactor 直接赋值给了成员变量 this.loadfactor,然后调用了 tablesizefor(capacity) 函数计算了 this.threshold 的初始值。在这里 thershold 的意义是临时存储 table 的初始长度,只有往 hashmap 中放入元素时,才构造 table 数组,这是一种延迟初始化策略。
tablesizefor(capacity) 函数将计算出一个恰好大于等于 capacity 的2的n次方整数,作为 table 数组的长度,也就是说 table 数组的长度总是 2 的 n 次方。看这个算法时,将关注点放在 cap 的二进制最高位 1 比较容易理解。
1
2
3
4
5
6
7
8
9
|
static final int tablesizefor( int cap) { int n = cap - 1 ; // 处理特殊情况:cap 恰好为 2 的 n 次方,即最高二进制位 1 右边全部为 0 的情况 n |= n >>> 1 ; // 最二进制位1右边1位填充 1 个 1 n |= n >>> 2 ; // 继续填充2个 1 n |= n >>> 4 ; // 填充 4 个 1 n |= n >>> 8 ; // 填充 8 个 1 n |= n >>> 16 ; //填充 16 个 1。 执行完这句之后,已经确保最高位右边部分全部填充成了 1,例如:cap = 101_0101b 时,n = 111_1111b return (n < 0 ) ? 1 : (n >= maximum_capacity) ? maximum_capacity : n + 1 ; // n+1 进位,返回 1000_0000b } |
剩下的 3 个构造器如下。
1
2
3
4
5
6
7
8
9
10
11
12
13
14
|
// 传入 initialcapacity,负载因子使用的是默认值 0.75 public hashmap( int initialcapacity) { this (initialcapacity, default_load_factor); } // capacity 和 loadfactor 均使用默认值 public hashmap() { this .loadfactor = default_load_factor; // all other fields defaulted } // 传入一个 map,传入的元素会逐个放入到新构造的 hashmap 实例中 public hashmap(map<? extends k, ? extends v> m) { this .loadfactor = default_load_factor; putmapentries(m, false ); } |
put(k, v) 过程
put(key, v) 是先调用了 hash(key) 方法计算了一下键的哈希值,然后调用的是 putval() 方法将节点放到 hashmap 中。
1
2
3
|
public v put(k key, v value) { return putval(hash(key), key, value, false , true ); } |
哈希值计算
1
2
3
4
|
static final int hash(object key) { int h; return (key == null ) ? 0 : (h = key.hashcode()) ^ (h >>> 16 ); } |
- 若 key 为 null,则直接返回 0 作为哈希值;
- 若 key 不为 null,则对 key.hashcode() 的结果的高 16 位和低 16 位进行异或操作再返回
这里对哈希值二进制的高 16 位和低 16 位取余的原因是为了让这两部分的二进制位都对桶的选择结果产生影响,减小哈希碰撞的概率。
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
|
final v putval( int hash, k key, v value, boolean onlyifabsent, boolean evict) { // tab 代表 table 数组;p 表示节点;n 表示桶的数量;i 指向应该放入的桶的下标 node<k,v>[] tab; node<k,v> p; int n, i; // table 没有初始化,调用 resize() 构造 table 数组 if ((tab = table) == null || (n = tab.length) == 0 ) n = (tab = resize()).length; // 如果桶中没有元素,则 table 数组的元素作为节点 if ((p = tab[i = (n - 1 ) & hash]) == null ) // 因为 n=2^x,所以 (n-1)&hash 等价于 hash % n tab[i] = newnode(hash, key, value, null ); else { // 桶中有元素 node<k,v> e; k k; // e 表示要存放值的 node , k 表示对应的键,如果键不存在 e 的值为空,如果键存在,让 e 指向该节点 if (p.hash == hash && // p 此时指向 table 中的元素,也就是链表或者树的根 ((k = p.key) == key || (key != null && key.equals(k)))) // 如果 p.key 恰好与 key 相等,存在着一个节点,让 e 指向它 e = p; else if (p instanceof treenode) // 桶是红黑树 e = ((treenode<k,v>)p).puttreeval( this , tab, hash, key, value); else { // 桶是链表 for ( int bincount = 0 ; ; ++bincount) { // 遍历链表 if ((e = p.next) == null ) { // 遍历到了末尾 p.next = newnode(hash, key, value, null ); // 这一句很魔幻,有人说链表中达到了 7 个元素就会被树化,也有说是 8 个的, // 实际上往桶里放入第 9 个元素时才会树化,不信可以看一下这个实验:https://github.com/robothy/java-experiments/blob/main/hashmap/treeifythreshold/treeifythresholdtest.java if (bincount >= treeify_threshold - 1 ) // -1 for 1st treeifybin(tab, hash); break ; } if (e.hash == hash && ((k = e.key) == key || (key != null && key.equals(k)))) // 在链表中找到了相同的 key break ; p = e; } } // 如果 key 已经存在了,hashmap 不会取构造新的 node,而是直接修改 node 中的 value 属性 if (e != null ) { // existing mapping for key v oldvalue = e.value; if (!onlyifabsent || oldvalue == null ) e.value = value; afternodeaccess(e); // 这句在这里什么也没干,留给 linkedhashmap 的 return oldvalue; } } ++modcount; // 操作数统计,用来检查是否有多个线程同时修改 hashmap,jdk中很多非线程安全的容器中都用了这些操作 if (++size > threshold) // size 超过了 threshold,进行扩容操作 resize(); afternodeinsertion(evict); return null ; } |
上面代码中,需要注意以下几点:
- 根据哈希值选择桶的算法是 (n-1)&hash,由于 n 为 2 的幂次方,所以 (n-1)&hash 等价于 hash%n 。之所以采用位运算而不使用取余运算,是因为对于计算机来说,取余的计算开销远大于位运算。能够这样进行等价的前提是 n 为 2 的幂次方。这是哈希桶的数量总保持为 2 的幂次方的重要原因。可以在这里验证一下这个算法。
- 桶中如果只有少量元素,桶的结构为单链表,某个桶中的元素超过了 treefied_threshold,值为 8(必要非充分条件,前面有介绍,还需要满足桶的数量达到 min_treeify_capacity,值为 64 ),该桶的结构将会转化为红黑树;
- 当 hashmap 中元素的数量超过了阈值 threshold 时(threshold = 桶数量 * loadfactor),将触发哈希表的扩容。
整个 put(k, v) 大致流程:
resize() / rehash
上述流程中,还有两个重要的过程。首先是红黑树的操作,它能够在 log(k) 的时间复杂度内完成增删查改,k 为红黑树中元素的数量。
另一个操作时 resize(),它的目的是初始化哈希表 table 或者增加哈希桶的数量,减小哈希碰撞的概率。具体操作是让成员变量 table 指向一个 node 数组。
上面流程图中可以看到,有两个地方可能会触发 resize()。一是 table 未初始化时,需要初始化 table。此时 table 初始长度可能为:
1)threshold,指定了 initialcapaclity 的情况下,构造器中会根据 initialcapacity 计算出一个 capcacity 并赋值给 threshold;
2)default_initial_capacity(值为 16),没有指定 initialcapacity 的情况下。
二是 hashmap 中元素的数量超过了阈值(即:size > threshold),需要对 table 进行扩容。此时 table 的长度为变为原来的 2 倍,hashmap 的内部结构也会发生改变,同一个桶中的元素可能被分配到不同的桶中。这个过程也叫 rehash。
resize() 源代码比较长,这里分为两部分来看,一部分是构造新的 node 数组,更新 threshold;另一部分是将旧的 table 中的元素放到新 table 中的过程。先看前一部分:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
|
final node<k,v>[] resize() { node<k,v>[] oldtab = table; // oldtab 指向旧的 table int oldcap = (oldtab == null ) ? 0 : oldtab.length; // 旧table的长度,如果 table 为空,则长度为 0 int oldthr = threshold; // 旧的阈值,如果 table 没有初始化,threshold 临时存储的是构造方法中根据 initialcapacity 计算的初始 capacity int newcap, newthr = 0 ; if (oldcap > 0 ) { // 这句的含义是 table 已经初始化了,现在要对它扩容 if (oldcap >= maximum_capacity) { // 值已经达到了 2^31,不能再扩容了,因为 int 范围内不能再进行乘以 2 操作了,否则会导致整数溢出 threshold = integer.max_value; // 直接将 threshold 的值提高到 int 范围内的最大值,让后续的 put 操作不再触发 resize() return oldtab; // 直接返回,不扩容了 } else if ((newcap = oldcap << 1 ) < maximum_capacity && oldcap >= default_initial_capacity) newthr = oldthr << 1 ; // 新的 threshold 变为原来的两倍,因为新的 capacity 也是原来的两倍,而 threshod = capacity * loadfactor } else if (oldthr > 0 ) // 旧的 threshold 大于 0;含义是 table 需要初始化,不过在构造 hashmap 时指定了 initialcapacity,table 的初始长度已经定下来了,临时存放在 this.threshold 中,等于 oldthr newcap = oldthr; // 那么新的 table 的长度直接设置为 oldthr 即可 else { // 含义是 table 需要初始化,但是构造器中没有指定初始化的相关参数,则直接使用默认参数计算即可 newcap = default_initial_capacity; // 值为 16 newthr = ( int )(default_load_factor * default_initial_capacity); // 值为 16 * 0.75 = 12 } if (newthr == 0 ) { // table 需要初始化,且构造器中指定了初始化参数 float ft = ( float )newcap * loadfactor; // 使用构造器指定的参数计算阈值,临时放在 ft 中。新阈值 = 新数组长度 * 负载因子 newthr = (newcap < maximum_capacity && ft < ( float )maximum_capacity ? ( int )ft : integer.max_value); // 检查 ft 有没有超出范围,毕竟是用户输入的参数,需要进行检查 } threshold = newthr; // 将前面步骤中计算得到的 newthr 赋值给 this.threshold @suppresswarnings ({ "rawtypes" , "unchecked" }) node<k,v>[] newtab = (node<k,v>[]) new node[newcap]; // 实例化新的 node 数组 table = newtab; // 让 table 指向新的 node 数组 if (oldtab != null ) { // 旧的 table 不为空,则需要将旧 table 中的元素放到新的 table 中 // 省略将旧的 table 中的元素放到新的 table 中的代码 } return newtab; } |
resize() 前半部分代码计算了新的阈值 threshold,创建了空的哈希表。接下来的代码是将旧的哈希表中的元素放到新的哈希表中。
代码算法的大致流程为:遍历每一个桶,若桶为单链表,则拆成两个链表作为2个新的桶;若桶为红黑树,则拆成2棵红黑树作为新的桶,若新的红黑树中元素的数量小于等于 untreeify_threshold,值为 6,则将红黑树转化为单链表。
旧的桶之所以能够恰好拆分成两个新的桶,是因为新的桶的总数 newcap 为旧桶总数 oldcap 的 2 倍,即 newcap = 2 * oldcap,若 hash % oldcap == j,则 hash % (2*oldcap) 的值为 j 或 oldcap + j。也就是说下标为 j 的桶会可能被拆分成下标为 j 和 oldcap+j 的两个桶。
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
|
if (oldtab != null ) { for ( int j = 0 ; j < oldcap; ++j) { // 逐个遍历桶 node<k,v> e; if ((e = oldtab[j]) != null ) { // 桶中有元素 oldtab[j] = null ; if (e.next == null ) // 桶中只有1个元素 newtab[e.hash & (newcap - 1 )] = e; else if (e instanceof treenode) // 桶为红黑树 ((treenode<k,v>)e).split( this , newtab, j, oldcap); // 同样拆分成两个桶 else { // 桶为单链表 node<k,v> lohead = null , lotail = null ; // 子链表(新桶),存放哈希值 % newcap == j 的元素 node<k,v> hihead = null , hitail = null ; // 子链表(新桶),存放哈希值 % newcap == j + oldcap 的元素。 node<k,v> next; do { // 遍历链表 next = e.next; if ((e.hash & oldcap) == 0 ) { // 算法比较巧妙,通过临界的 1 位二进制位即可判断该哈希值余上 newcap 所属桶 if (lotail == null ) lohead = e; else lotail.next = e; lotail = e; } else { if (hitail == null ) hihead = e; else hitail.next = e; hitail = e; } } while ((e = next) != null ); if (lotail != null ) { // 余数较小的桶有元素 lotail.next = null ; newtab[j] = lohead; } if (hitail != null ) { // 余数较大的桶有元素 hitail.next = null ; newtab[j + oldcap] = hihead; } } } } } |
get(k) 过程
get(k) 方法显得比较简单,它调用了 getnode() 方法。算法的时间复杂度约等于 o(1)
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
|
public v get(object key) { node<k,v> e; // 计算哈希值 return (e = getnode(hash(key), key)) == null ? null : e.value; } final node<k,v> getnode( int hash, object key) { node<k,v>[] tab; node<k,v> first, e; int n; k k; if ((tab = table) != null && (n = tab.length) > 0 && (first = tab[(n - 1 ) & hash]) != null ) { // hash%table.length 定位到桶 if (first.hash == hash && // always check first node ((k = first.key) == key || (key != null && key.equals(k)))) return first; // 直接取 table 中的元素 if ((e = first.next) != null ) { if (first instanceof treenode) // 红黑树查找 return ((treenode<k,v>)first).gettreenode(hash, key); do { // 单链表遍历查找 if (e.hash == hash && ((k = e.key) == key || (key != null && key.equals(k)))) return e; } while ((e = e.next) != null ); } } return null ; } |
remove(k) 与 remove(k, v)
这两个重载方法均调用了 removenode 方法。remove(k) 只要找到对应的 key 匹配即移除,remove(k, v) 需要 key 和 value 均匹配才移除。
1
2
3
4
5
6
7
8
9
|
public v remove(object key) { node<k,v> e; return (e = removenode(hash(key), key, null , false , true )) == null ? null : e.value; } public boolean remove(object key, object value) { return removenode(hash(key), key, value, true , true ) != null ; } |
removenode() 方法中流程大致为:根据 key 和 hash 找到对应 node,然后根据各种条件判断是否执行移除。hashmap 的数据结构决定了此操作的时间复杂度仍然大致为 o(1)。
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
|
final node<k,v> removenode( int hash, object key, object value, boolean matchvalue, boolean movable) { node<k,v>[] tab; node<k,v> p; int n, index; if ((tab = table) != null && (n = tab.length) > 0 && (p = tab[index = (n - 1 ) & hash]) != null ) { node<k,v> node = null , e; k k; v v; if (p.hash == hash && ((k = p.key) == key || (key != null && key.equals(k)))) // key 为桶中的第 1 个元素 node = p; // 直接取 table[(n-1)&hash] else if ((e = p.next) != null ) { // 桶中超过 1 个元素 if (p instanceof treenode) // 桶为红黑树 node = ((treenode<k,v>)p).gettreenode(hash, key); else { // 桶为单链表 do { // 单链表搜索 if (e.hash == hash && ((k = e.key) == key || (key != null && key.equals(k)))) { node = e; break ; } p = e; } while ((e = e.next) != null ); } } // 若找到了 key,对应的节点由 node 指向 if (node != null && (!matchvalue || (v = node.value) == value || (value != null && value.equals(v)))) { // 检查 key 和 value 是否均符合要求 if (node instanceof treenode) // node 为红黑树节点 ((treenode<k,v>)node).removetreenode( this , tab, movable); // 执行红黑树移除操作 else if (node == p) // 查找到的 node 为桶中的第 1 个元素 tab[index] = node.next; else p.next = node.next; // 执行单链表移除 ++modcount; --size; afternoderemoval(node); return node; } } return null ; } |
迭代
hashmap 没有直接或间接实现 iterable 接口,因此不能直接使用 for-each 语法结构去遍历一个 hashmap。不过可以通过 entryset() 方法获取一个 entryset,然后对 entryset 进行遍历来达到访问每一个 key-value 的目的。
方法 entryset() 采用了延迟加载和缓存的机制,只有调用 entryset() 方法时才创建 entryset 对象,并赋值给成员变量 this.entryset 缓存起来。重复调用 entryset() 并不会产生多个 entryset 对象。
1
2
3
4
|
public set<map.entry<k,v>> entryset() { set<map.entry<k,v>> es; return (es = entryset) == null ? (entryset = new entryset()) : es; } |
entryset 中的 iterator() 返回的是 entryiterator 对象,迭代相关的部分代码如下。
1
2
3
4
5
6
7
8
9
10
11
12
13
|
int index; // 指向当前的桶,初始值为 0 final node<k,v> nextnode() { node<k,v>[] t; node<k,v> e = next; if (modcount != expectedmodcount) throw new concurrentmodificationexception(); if (e == null ) throw new nosuchelementexception(); if ((next = (current = e).next) == null && (t = table) != null ) { do {} while (index < t.length && (next = t[index++]) == null ); // 不断地跳过空的桶 } return e; } |
迭代 hashmap 的顺序是逐个遍历哈希桶,桶中有元素,则遍历单链表或红黑树。因此,遍历 hashmap 时的顺序与放入顺序无任何关系。hashmap 内部也没有维护任何与插入顺序有关的信息。
小结
以上内容就是 hashmap 的实现原理以及核心 api,这里直接总结一些关于 hashmap 的结论性的东西。
1)hashmap 的 key 和 value 都可以为 null,当 key 为 null 时,计算的哈希值为 0;
2)hashmap 默认的加载因子 loadfactor 是 0.75,它与 table.length 一同决定了扩容阈值 threshold,计算公式为:threshold = table.length * loadfactor;
3)hashmap 各项操作的效率很高,在哈希碰撞不严重的情况下时间复杂度为 o(1)
4)hashmap 中的元素是无序的,它没有维护任何与顺序有关的内容;
5)单个哈希桶中的元素过多时,桶的结构会由单链表转化为红黑树;
6)hashmap 中哈希表 table 的长度(桶的数量)总是 2 的幂次方,这保证了能够通过高效的位运算将 key 映射到对应的桶。
以上就是详解 java hashmap 实现原理的详细内容,更多关于java hashmap 实现原理的资料请关注服务器之家其它相关文章!
原文链接:https://www.cnblogs.com/robothy/p/14144432.html