发布于2021-06-06 17:55 阅读(852) 评论(0) 点赞(10) 收藏(0)
散列表(Hash table,也叫哈希表),是根据关键码值(Key value)而直接进行访问的数据结构。也就是说,它通过把关键码值映射到表中一个位置来访问记录,以加快查找的速度。这个映射函数叫做散列函数,存放记录的数组叫做散列表。
HashMap是Java程序员使用最频繁的的用于键值对(key value)数据处理的容器,在JDK1.7(Java Developmet Kit)时HashMap采取的是数组+链表的形式存储数据,JDK1.8对HashMap进行了存储结构上的优化,引入了红黑树数据结构,极大的增强了HashMap的存取性能!为什么会引入红黑树呢?因为HashMap存在一个问题,即使负载因子和Hash算法设计的再合理,也无法避免出现在链表上拉链过长的问题,如果极端情况下出现严重的Hash冲突,会严重影响HashMap的存取性能,于是HashMap在jdk1.8时,引入了红黑树,利用红黑树快速增删改查的特点来优化了HashMap的性能!
Java为数据结构中的映射(键值对)定义了一个接口java.util.Map,这个接口有四个我们在开发中使用较为频繁的实现类,分别是HashMap<K, V>、Hashtable<K, V>、LinkedHashMap<K,V>、TreeMap<K,V>
序号 | 实现类 | 特点 |
---|---|---|
1 | HashMap<K, V> | 1、根据键的hashcode存储数据 2、允许一条记录的key为null,允许多条记录的value为null 3、非线程安全 |
2 | Hashtable<K, V> | 1、线程安全 2、性能较低,需要使用的场景可以用ConcurrentHashMap替换 |
3 | LinkedHashMap<K,V> | 1、访问具有顺序性,保存了插入顺序 2、可以通过构造函数入参来使其按照访问次序排序 |
4 | TreeMap<K,V> | 1、有序Map,可以通过排序比较器来自定义存储数据的排序规则,默认按照key的生序排列 2、使用时key需要实现Comparable接口或者通过构造函数传入自定义Comparator |
jdk1.8以后HashMap采用数组+链表/红黑树的方式来存储数据
// HashMap的主干,也就是上面的绿色部分,是一个Node<K,V>数组,每个Node包含一个K-V键值对
transient Node<K,V>[] table;
// Node<K,V>是HashMap的静态内部类,实现了Map接口中的内部Entry接口
static class Node<K,V> implements Map.Entry<K,V> {
// 记录当前Node的key的hash值,可以避免重复计算,空间换时间
final int hash;
// 键
final K key;
// 值
V value;
// 存储指向下一个Entry的引用,是单向链表结构
Node<K,V> next;
// ...
}
// 默认的初始容量 16
static final int DEFAULT_INITIAL_CAPACITY = 1 << 4;
// 最大容量,1左移30位
static final int MAXIMUM_CAPACITY = 1 << 30;
// 默认扩容因子 0.75
static final float DEFAULT_LOAD_FACTOR = 0.75f;
// 链表转红黑树的链表长度
static final int TREEIFY_THRESHOLD = 8;
// 红黑树转链表的阈值
static final int UNTREEIFY_THRESHOLD = 6;
// 链表转红黑树的数组长度
static final int MIN_TREEIFY_CAPACITY = 64;
// 实际存储K-V键值对的个数
transient int size;
// 记录HashMap被改动的次数,由于HashMap非线程安全,modCount可用于FailFast机制
transient int modCount;
// 扩容阈值,默认16*0.75=12,当填充到13个元素时,扩容后将会变为32,
int threshold;
// 负载因子 loadFactor=capacity*threshold,HashMap扩容需要参考loadFactor的值
final float loadFactor;
// 看一个参数比较全的构造函数,构造函数中并未给table分配内存空间,此构造函数HashMap(Map<? extends K, ? extends V> m)会给table分配内存空间
public HashMap(int initialCapacity, float loadFactor) {
// 判断初始化容量是否合法,如果<0则抛出异常
if (initialCapacity < 0)
throw new IllegalArgumentException("Illegal initial capacity: " + initialCapacity);
// 判断initialCapacity是否大于 1<<30,如果大于则取 1<<30 = 2^30
if (initialCapacity > MAXIMUM_CAPACITY)
initialCapacity = MAXIMUM_CAPACITY;
// 判断负载因子是否合法,如果小于等于0或者isNaN,loadFactor!=loadFactor,则抛出异常
if (loadFactor <= 0 || Float.isNaN(loadFactor))
throw new IllegalArgumentException("Illegal load factor: " +loadFactor);
// 赋值loadFactor
this.loadFactor = loadFactor;
// 通过位运算将threshold设值为最接近initialCapacity的一个2的幂次方(这里非常重要)
this.threshold = tableSizeFor(initialCapacity);
}
HashMap中的hash算法实现分为三步。其中第二步使用hash值高16位参与位运算,是为了保证在数组table的length比较小的时候,可以保证高低bit都参与到hash运算中,保证分配均匀的同时采用位运算,也不会有太多的性能消耗;其中第三步,当n是2的整数的幂次方是,hash&(n-1),相当于对hash值取模,而位运算比取模运算效率更高;具体流程可以通过图示查看。
第一步:通过key.hashCode()获取key的hashcode;
第二步:通过(h = key.hashCode()) ^ (h >>> 16)进行高16位的位运算;
第三步:通过(n - 1) & hash对计算的hash值取模运算,得到节点插入的数组所在位置。
第一步:判断键值对数组table[i]是否为空/null,是则执行resize()扩容。
第二步:根据键key计算hash值得到插入数组的索引i,如果tab[i]== null则直接插入,执行第六步;如果tab[i] != null,执行第三步。
第三步:判断tab[i]的第一个元素与插入元素key的hashcode&equals是否相等,相等则覆盖,否则执行第四步。
第四步:判断tab[i]是否是红黑树节点TreeNode,是则在红黑树中插入节点,否则执行第五步。
第五步:遍历tab[i]判断链表是否大于8,大于8则可能转成红黑树(数组需要大于64),满足则在红黑树中插入节点;否则在链表中插入;在遍历链表的过程中如果存在key的hashcode&equals相等则替换即可。
第六步:插入成功,判断hashmap的size是否超过threshold的值,超过则扩容。
put(K key, V value)
public V put(K key, V value) {
// hash(key) 根据key计算一个hash值,具体实现如下函数
return putVal(hash(key), key, value, false, true);
}
计算key的hash值
static final int hash(Object key) {
int h;
// 如果key等于null,返回0
// 否则取key的hashcode值h, 将h无符号右移16位也就是获取高16位,将两个值做异或位运算后返回
return (key == null) ? 0 : (h = key.hashCode()) ^ (h >>> 16);
}
putVal(int hash, K key, V value, boolean onlyIfAbsent, boolean evict)
final V putVal(int hash, K key, V value, boolean onlyIfAbsent, boolean evict) {
Node<K,V>[] tab; Node<K,V> p; int n, i;
// 判断table是否为空,为空则resize()创建
if ((tab = table) == null || (n = tab.length) == 0)
n = (tab = resize()).length;
// (n - 1) & hash计算插入节点在数组中的索引index,为空则直接插入
if ((p = tab[i = (n - 1) & hash]) == null)
tab[i] = newNode(hash, key, value, null);
else {
Node<K,V> e; K k;
// 如果节点key存在,则覆盖当前元素
if (p.hash == hash && ((k = p.key) == key || (key != null && key.equals(k))))
e = p;
// 节点不存在且当前的数组节点上的链为RBT红黑树,则按照红黑树的方式插入节点
else if (p instanceof TreeNode)
e = ((TreeNode<K,V>)p).putTreeVal(this, tab, hash, key, value);
// 链为链表
else {
for (int binCount = 0; ; ++binCount) {
// 节点的下一个节点为null,说明遍历到了链表的最后一个节点,将当前遍历到的最后一个节点的next指向新插入节点
if ((e = p.next) == null) {
p.next = newNode(hash, key, value, null);
// 链表长度大于8可能需要做红黑树转换,具体要看treeifyBin()中判断数组的长度是否大于64
if (binCount >= TREEIFY_THRESHOLD - 1) // -1 for 1st
treeifyBin(tab, hash);
break;
}
// 节点存在则返回
if (e.hash == hash && ((k = e.key) == key || (key != null && key.equals(k))))
break;
// 不存在且写一个节点不为null,则将下一个节点赋值给当前节点,继续下一次循环
p = e;
}
}
// 节点存在替换后直接返回,不会记录HashmMap结构变化
if (e != null) { // existing mapping for key
V oldValue = e.value;
if (!onlyIfAbsent || oldValue == null)
e.value = value;
afterNodeAccess(e);
return oldValue;
}
}
// 记录HashMap的结构变化
++modCount;
// 判断节点插入后是否需要对hashMap的数组进行扩容
if (++size > threshold)
resize();
afterNodeInsertion(evict);
return null;
}
扩容
final Node<K,V>[] resize() {
// 将扩容前的数组赋值给oldTab
Node<K,V>[] oldTab = table;
int oldCap = (oldTab == null) ? 0 : oldTab.length;
int oldThr = threshold;
int newCap, newThr = 0;
if (oldCap > 0) {
// 判断数组长度是否大于等于允许的最大值,超过则取最大值,直接返回
if (oldCap >= MAXIMUM_CAPACITY) {
threshold = Integer.MAX_VALUE;
return oldTab;
}
// 将原先数组大小左移一位,也就是扩大两倍,扩容前需要判断大小是否超过允许的最大值
else if ((newCap = oldCap << 1) < MAXIMUM_CAPACITY &&
oldCap >= DEFAULT_INITIAL_CAPACITY)
newThr = oldThr << 1; // double threshold
}
// 如果数组大小小于等于0且threshold大于0(比如HashMap中的元素被全部删除了),则将oldThr的值赋值给newCap
else if (oldThr > 0)
newCap = oldThr;
//首次初始化,给与默认的值
else {
newCap = DEFAULT_INITIAL_CAPACITY;
newThr = (int)(DEFAULT_LOAD_FACTOR * DEFAULT_INITIAL_CAPACITY);
}
// 如果新的扩容临界值仍为0,需要给newThr计算一个值
if (newThr == 0) {
float ft = (float)newCap * loadFactor;
newThr = (newCap < MAXIMUM_CAPACITY && ft < (float)MAXIMUM_CAPACITY ?
(int)ft : Integer.MAX_VALUE);
}
// 赋值新的数组扩容阈值
threshold = newThr;
@SuppressWarnings({"rawtypes","unchecked"})
// 根据新的容量实例化一个新的Node数组
Node<K,V>[] newTab = (Node<K,V>[])new Node[newCap];
table = newTab;
if (oldTab != null) {
// 遍历旧数组赋值到新数组中
for (int j = 0; j < oldCap; ++j) {
Node<K,V> e;
// 如果节点不为null,则将节点赋值给e
if ((e = oldTab[j]) != null) {
// 将节点引用置空,等待GC回收
oldTab[j] = null;
// 如果节点的next指向为空,则根据节点记录的hash值&扩容的大小-1,重新计算节点在数组中的索引位置
if (e.next == null)
newTab[e.hash & (newCap - 1)] = e;
// 如果节点是红黑树节点,按照红黑树节点插入方式插入
else if (e instanceof TreeNode)
((TreeNode<K,V>)e).split(this, newTab, j, oldCap);
// 此处表示当前节点上的链为链表,遍历链表,将链表转移到新的数组上
else {
// 创建两条链lo链在原先数组节点位置
Node<K,V> loHead = null, loTail = null;
// hi链插入原先数组索引+oldCap位置
Node<K,V> hiHead = null, hiTail = null;
Node<K,V> next;
do {
next = e.next;
// 重点
// 获取当前节点的hash值,与oldCap做按位与运算,如果运算结果为0,则加入lo链
if ((e.hash & oldCap) == 0) {
if (loTail == null)
loHead = e;
else
loTail.next = e;
loTail = e;
}
// 否则加入hi链
else {
if (hiTail == null)
hiHead = e;
else
hiTail.next = e;
hiTail = e;
}
} while ((e = next) != null);
// 新数组的原位置指向lo链的头节点
if (loTail != null) {
loTail.next = null;
newTab[j] = loHead;
}
// 新数组的j+oldCap指向hi链的头节点
if (hiTail != null) {
hiTail.next = null;
newTab[j + oldCap] = hiHead;
}
}
}
}
}
return newTab;
}
在jdk1.8中,当发生HashMap扩容时我们通过源码可以发现,HashMap并未重新通过新的数组长度来确定节点的位置,而是通过(e.hash & oldCap) == 0,原hash值与原数组长度做与位运算来确定节点在新数组中的位置,当(e.hash & oldCap) == 0时,节点在新数组中的位置和老数组位置一致;当(e.hash & oldCap) != 0时,节点在新数组中的位置为j + oldCap,也就是原先的位置加上老数组的长度。
这里抛出两个问题,带着问题来分析,
问题一:为什么能这么实现呢?
问题二:以前hash值相同的节点在数组的同一个索引位置上,现在竟然会被随机分配到两个新的索引位置上,这会不会导致get(key)时无法获取到元素呢?
1、HashMap在做初始化的时候数组的默认大小是16,且如果我们设值的初始值不是2的整数次幂,那么它会自动的去计算一个与初始化值最靠近的2的整数次幂的初始值,具体实现可以查看源码中的tableSizeFor()方法。
static final int tableSizeFor(int cap) {
int n = cap - 1;
n |= n >>> 1;
n |= n >>> 2;
n |= n >>> 4;
n |= n >>> 8;
n |= n >>> 16;
return (n < 0) ? 1 : (n >= MAXIMUM_CAPACITY) ? MAXIMUM_CAPACITY : n + 1;
}
2、HashMap扩容的方式是oldCap << 1,一定是扩容为原来的2倍,保证扩容后仍然是2的整数次幂
3、HashMap计算数组索引的方式为(n - 1) & hash
数组的初始大小为16,扩容因子为0.75,依次插入三个节点,节点的key分别为key1、key2、key3,假设在插入完成第三个节点后数组中节点的个数到达12个,此时需要进行扩容
此时HashMap中元素分布假设下图所示,size=12,进行扩容
扩容的算法为 e.hash & oldCap,计算后发现key2的值为0,维持在老数组中下标位置,key1和key3需要转移到j + oldCap的位置,也就是1+16=17下标位置上
扩容后节点分布图
此时我们再来看扩容后根据key获取元素的代码
public V get(Object key) {
Node<K,V> e;
// 根据当前key计算hash值,这个计算方式上面已经详细介绍过
return (e = getNode(hash(key), key)) == null ? null : e.value;
}
final Node<K,V> getNode(int hash, Object key) {
Node<K,V>[] tab; Node<K,V> first, e; int n; K k;
// 当数组不为空,并且key对应的数组下标的元素存在
if ((tab = table) != null && (n = tab.length) > 0 && (first = tab[(n - 1) & hash]) != null) {
// 检查获取的节点是否是第一个节点,是则返回
if (first.hash == hash && ((k = first.key) == key || (key != null && key.equals(k))))
return first;
// 不是头结点则判断下一个节点是否存在
if ((e = first.next) != null) {
// 如果节点是红黑树,则在红黑树中获取元素
if (first instanceof TreeNode)
return ((TreeNode<K,V>)first).getTreeNode(hash, key);
// 如果是链表则遍历链表中的节点,匹配key则返回,当e不存在下一个节点则结束循环返回null
do {
if (e.hash == hash &&
((k = e.key) == key || (key != null && key.equals(k))))
return e;
} while ((e = e.next) != null);
}
}
// 为匹配上则返回null
return null;
}
从上面的源代码中我们可以非常明显的看见,获取节点所在数组中的下标的方式也是(n - 1) & hash,与插入节点时计算数组下标的方式是一抹一样的,那此时为何能准确的找到在key1、key2、key3呢?原因就是n的值变为了原来的两倍,而节点的hash值是不会发生改变的,此时计算出来的节点在数组中的位置,与我们在扩容时,进行的节点移动操作(也可以理解为重新计算数组中的索引)是一致的;我们可以通过get时,计算key1、key2、key3的索引来展示效果,如下
原文链接:https://blog.csdn.net/qq_41125219/article/details/117487019
作者:狗蛋你别跑
链接:http://www.phpheidong.com/blog/article/88214/c02f7882e5a78a543147/
来源:php黑洞网
任何形式的转载都请注明出处,如有侵权 一经发现 必将追究其法律责任
昵称:
评论内容:(最多支持255个字符)
---无人问津也好,技不如人也罢,你都要试着安静下来,去做自己该做的事,而不是让内心的烦躁、焦虑,坏掉你本来就不多的热情和定力
Copyright © 2018-2021 php黑洞网 All Rights Reserved 版权所有,并保留所有权利。 京ICP备18063182号-4
投诉与举报,广告合作请联系vgs_info@163.com或QQ3083709327
免责声明:网站文章均由用户上传,仅供读者学习交流使用,禁止用做商业用途。若文章涉及色情,反动,侵权等违法信息,请向我们举报,一经核实我们会立即删除!