HashMap源码分析

前言

HashMap是平常开发中用的最多的集合之一,是基于散列表的Map接口的实现。我们首先看一下散列的概念。

散列表Hash table,也叫哈希表),是根据(Key)而直接访问在内存存储位置的数据结构。也就是说,它通过计算一个关于键值的函数,将所需查询的数据映射到表中一个位置来访问记录,这加快了查找速度。这个映射函数称做散列函数,存放记录的数组称做散列表

相关知识可以查一下维基百科,我们可以看到散列表的两个关键的地方是散列函数处理冲突的方法

那么在HashMap中是如何实现散列表中的散列函数处理散列冲突的呢?

HashMap散列策略分析

首先HashMap中存储数据是使用数组+链表(长度大于8时转为红黑树)的方式,根据key值计算出数组的下标,如果产生了冲突那么将待插入的元素链接到当前位置链表的末尾,结合上面我们查阅的散列表的知识,可以发现这种解决冲突的方法就是单独链表法.

HashMap中就是如何通过key计算出对应的数组下标的呢?这里是通过两个步骤结合来计算的,首先HashMap提供了一个hash()方法如下

1
2
3
4
static final int hash(Object key) {
int h;
return (key == null) ? 0 : (h = key.hashCode()) ^ (h >>> 16);
}

计算hash值的方法是将key的hash值无符号右移16位然后与其本身进行按位异或计算,目的是将hashCode的高位的特征与低位的特征相结合从而得到分布更加均匀的hash值。通过次方法计算出了分布比较均匀的hash值,那么如何计算出每个hash值对应的下标呢?HashMap中是这样实现的 hash & (length -1) ,其中length就是数组的长度,这个操作其实是与hash%length是一样的,就是对length取模,计算结果就是对应位置的下标。

hash&(length -1) 等于hash%length是有前提条件的,就是length需要为2^n

那么为什么当length2^n 时就相同呢?现在我们先不考虑HashMap,单独看一下这个公式,当一个数y为2^n时 ,x%y 等于 x&(y-1)

x对y取模等于x/y的余数,当y为2^n时,x/y等于x>>n,那么余数就是移出的那n位的值。那么如何获取这n位的值呢,我们可以用n位1x按位与运算。现在的问题的关键变为了获取n位1y=2^n那么y-1就是n位1了,所以这时候 x&(y-1)就等于x/y的余数,即:x%y 等于 x&(y-1)

hash & (length -1) ,当length=2^n 时,hash & (length -1) 就等于 hash%length

HashMap相关操作分析

接下来分析下HashMap中的相关操作

  1. 创建HashMap
  2. put方法
  3. resize方法
  4. get方法

在开始分析之前我们先看一下HashMap中的常量和参数

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
/* ---------------- 静态常量 ---------------- */
//默认初始化容量
static final int DEFAULT_INITIAL_CAPACITY = 1 << 4; // aka 16
//最大容量
static final int MAXIMUM_CAPACITY = 1 << 30;
//默认负载因子(用来确定数组扩容时机)
static final float DEFAULT_LOAD_FACTOR = 0.75f;

static final int TREEIFY_THRESHOLD = 8;

static final int UNTREEIFY_THRESHOLD = 6;

static final int MIN_TREEIFY_CAPACITY = 64;
/* ---------------- 字段 ---------------- */
//table长度总为2^n,在第一次使用时初始化,当size达到扩容阀值时进行扩容。
transient Node<K,V>[] table;
//entrySet
transient Set<Map.Entry<K,V>> entrySet;
//Map中包含的key-value个数
transient int size;
//HashMap结构被修改的次数
transient int modCount;
//下一次进行resize的阀值(capacity * load factor)
int threshold;
//负载因子
final float loadFactor;

HashMap中提供了四个构造方法

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
//指定容量和负载因子
public HashMap(int initialCapacity, float loadFactor) {
if (initialCapacity < 0)
throw new IllegalArgumentException("Illegal initial capacity: " +
initialCapacity);
if (initialCapacity > MAXIMUM_CAPACITY)
initialCapacity = MAXIMUM_CAPACITY;
if (loadFactor <= 0 || Float.isNaN(loadFactor))
throw new IllegalArgumentException("Illegal load factor: " +
loadFactor);
this.loadFactor = loadFactor;
this.threshold = tableSizeFor(initialCapacity);
}
//指定容量
public HashMap(int initialCapacity) {
this(initialCapacity, DEFAULT_LOAD_FACTOR);
}
//使用默认参数
public HashMap() {
this.loadFactor = DEFAULT_LOAD_FACTOR; // all other fields defaulted
}
//将另外一个map中的全部数据存入
public HashMap(Map<? extends K, ? extends V> m) {
this.loadFactor = DEFAULT_LOAD_FACTOR;
putMapEntries(m, false);
}

其中除了最后一个以另外一个map为参数的构造方法,做了putMapEntries操作,剩下几个都是只对参数进行了赋值,并没有实际初始化数据。

我们首先看一下第一个构造方法,指定了容量和负载因子,判断了参数的合法性后,将loadFactor赋值给参数loadFactor,initialCapacity参数通过tableSizeFor计算出结果赋值给threshold。tableSizeFor方法如下

1
2
3
4
5
6
7
8
9
static final int tableSizeFor(int cap) {
int n = cap - 1;
n |= n >>> 1;
n |= n >>> 2;
n |= n >>> 4;
n |= n >>> 8;
n |= n >>> 16;
return (n < 0) ? 1 : (n >= MAXIMUM_CAPACITY) ? MAXIMUM_CAPACITY : n + 1;
}

这个方法的作用就是计算出大于输入参数且最近的2的整数次幂的数,我们知道2的整数次幂二进制表示肯定最高位为1后面全是0(比如:1,10,1000),那么当一个不是2的整数次幂的数,想要计算出大于本身且最近的2的整数次幂的数,就将本身其中的0转位1,然后再加1即可。tableSizeFor中的几个无符号右移然后在与本身做或运算的操作就是将其中的0转为1(当输入数为0时特殊,结果还是为0)。无符号右移一位+或运算可以确定最左两位为1,然后无符号右移2位+或运算可以确定最左4位为1,以此类推,直到可以确定int类型32位中有效位全部为1时,然后再加1就可以活得2的整数次幂了。int n = cap - 1是为了在cap本身就是2的整次幂情况,如果直接使用cap计算的话结果就为cap*2了。

这样计算出来的就是大于initialCapacity且最近的2的整数次幂的数,然后将其赋值给了threshold,threshold这个参数本身是存储下次扩容的阀值的,这里将容量参数赋值给了threshold感觉有一些别扭,不过后面在初始化时进行了判断,我个人认为这里使用threshold传递容量参数,而不是定义一个新的initialCapacity参数的目的是减少参数,使得后面初始化的resize方法中的逻辑能相对简洁一些。

第二个构造方法只有一个initialCapacity,负载因子使用DEFAULT_LOAD_FACTOR,第三个构造方法没有参数,

initialCapacity和DEFAULT_LOAD_FACTOR全部使用默认值。第四个构造方法使用了默认的负载因子,然后调用了

putMapEntries方法

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
/**
* Implements Map.putAll and Map constructor
*
* @param m the map
* @param evict false when initially constructing this map, else
* true (relayed to method afterNodeInsertion).
*/
final void putMapEntries(Map<? extends K, ? extends V> m, boolean evict) {
int s = m.size();
if (s > 0) {
if (table == null) { // pre-size
float ft = ((float)s / loadFactor) + 1.0F;
int t = ((ft < (float)MAXIMUM_CAPACITY) ?
(int)ft : MAXIMUM_CAPACITY);
if (t > threshold)
threshold = tableSizeFor(t);
}
else if (s > threshold)
resize();
for (Map.Entry<? extends K, ? extends V> e : m.entrySet()) {
K key = e.getKey();
V value = e.getValue();
putVal(hash(key), key, value, false, evict);
}
}
}

首先判断了table是否为null,如果为null标示还没有初始化过table,通过m的大小与负载因子计算threshold, float ft = ((float)s / loadFactor) + 1.0F;最后加1的目的是为了避免将全部元素存入时发生扩容操作。如果table不为null的时候,判断m的大小是否大于扩容的阀值,如果大于的话直接进行扩容操作,这里是提前判断了一下,目的是避免在后面存入元素时产生多次扩容操作。遍历m的元素,循环调用putVal方法将元素存入。resize方法和

putVal,我们和下面的put方法一起分析。

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
public V put(K key, V value) {
return putVal(hash(key), key, value, false, true);
}
final V putVal(int hash, K key, V value, boolean onlyIfAbsent,
boolean evict) {
Node<K,V>[] tab; Node<K,V> p; int n, i;
if ((tab = table) == null || (n = tab.length) == 0)
n = (tab = resize()).length;
if ((p = tab[i = (n - 1) & hash]) == null)
tab[i] = newNode(hash, key, value, null);
else {
Node<K,V> e; K k;
if (p.hash == hash &&
((k = p.key) == key || (key != null && key.equals(k))))
e = p;
else if (p instanceof TreeNode)
e = ((TreeNode<K,V>)p).putTreeVal(this, tab, hash, key, value);
else {
for (int binCount = 0; ; ++binCount) {
if ((e = p.next) == null) {
p.next = newNode(hash, key, value, null);
if (binCount >= TREEIFY_THRESHOLD - 1) // -1 for 1st
treeifyBin(tab, hash);
break;
}
if (e.hash == hash &&
((k = e.key) == key || (key != null && key.equals(k))))
break;
p = e;
}
}
if (e != null) { // existing mapping for key
V oldValue = e.value;
if (!onlyIfAbsent || oldValue == null)
e.value = value;
afterNodeAccess(e);
return oldValue;
}
}
++modCount;
if (++size > threshold)
resize();
afterNodeInsertion(evict);
return null;
}
final Node<K,V>[] resize() {
Node<K,V>[] oldTab = table;
int oldCap = (oldTab == null) ? 0 : oldTab.length;
int oldThr = threshold;
int newCap, newThr = 0;
if (oldCap > 0) {
if (oldCap >= MAXIMUM_CAPACITY) {
threshold = Integer.MAX_VALUE;
return oldTab;
}
else if ((newCap = oldCap << 1) < MAXIMUM_CAPACITY &&
oldCap >= DEFAULT_INITIAL_CAPACITY)
newThr = oldThr << 1; // double threshold
}
else if (oldThr > 0) // initial capacity was placed in threshold
newCap = oldThr;
else { // zero initial threshold signifies using defaults
newCap = DEFAULT_INITIAL_CAPACITY;
newThr = (int)(DEFAULT_LOAD_FACTOR * DEFAULT_INITIAL_CAPACITY);
}
if (newThr == 0) {
float ft = (float)newCap * loadFactor;
newThr = (newCap < MAXIMUM_CAPACITY && ft < (float)MAXIMUM_CAPACITY ?
(int)ft : Integer.MAX_VALUE);
}
threshold = newThr;
@SuppressWarnings({"rawtypes","unchecked"})
Node<K,V>[] newTab = (Node<K,V>[])new Node[newCap];
table = newTab;
if (oldTab != null) {
for (int j = 0; j < oldCap; ++j) {
Node<K,V> e;
if ((e = oldTab[j]) != null) {
oldTab[j] = null;
if (e.next == null)
newTab[e.hash & (newCap - 1)] = e;
else if (e instanceof TreeNode)
((TreeNode<K,V>)e).split(this, newTab, j, oldCap);
else { // preserve order
Node<K,V> loHead = null, loTail = null;
Node<K,V> hiHead = null, hiTail = null;
Node<K,V> next;
do {
next = e.next;
if ((e.hash & oldCap) == 0) {
if (loTail == null)
loHead = e;
else
loTail.next = e;
loTail = e;
}
else {
if (hiTail == null)
hiHead = e;
else
hiTail.next = e;
hiTail = e;
}
} while ((e = next) != null);
if (loTail != null) {
loTail.next = null;
newTab[j] = loHead;
}
if (hiTail != null) {
hiTail.next = null;
newTab[j + oldCap] = hiHead;
}
}
}
}
}
return newTab;
}

put方法调用了putVal方法,putVal中判断是否需要resize如果需要调用resize方法进行扩容或者初始化。

putVal方法逻辑

putval

resize方法逻辑

resize

现在put方法和resize方法都看完了,我们来看下get方法是怎么实现的

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
public V get(Object key) {
Node<K,V> e;
return (e = getNode(hash(key), key)) == null ? null : e.value;
}
final Node<K,V> getNode(int hash, Object key) {
Node<K,V>[] tab; Node<K,V> first, e; int n; K k;
if ((tab = table) != null && (n = tab.length) > 0 &&
(first = tab[(n - 1) & hash]) != null) {
if (first.hash == hash && // always check first node
((k = first.key) == key || (key != null && key.equals(k))))
return first;
if ((e = first.next) != null) {
if (first instanceof TreeNode)
return ((TreeNode<K,V>)first).getTreeNode(hash, key);
do {
if (e.hash == hash &&
((k = e.key) == key || (key != null && key.equals(k))))
return e;
} while ((e = e.next) != null);
}
}
return null;
}

首先通过开始介绍的hash()方法获取key的hash值,然后通过(n - 1) & hash获取对应的数组下标,然后检查是否hash值相同并且key相同,如果不同则说明此位置存在hash冲突,想要的元素存在链表中或者不存在,所以通过遍历链表或者红黑树查询hash相同且key相同的元素。

总结一下HashMap源码中主要的知识有如下几点

  • 散列策略(散列方法、扰动方法、处理冲突的方法)
  • 根据hash值定位的方法
  • 初始化和扩容时机的确定策略

jdk的源代码真的很有意思,逻辑环环相扣,读一下感觉还是不错的,努力学习一下其中的精髓!