【Java集合类源码分析】HashMap源码分析一

xiaoxiao2021-02-28  126

【Java集合类源码分析】HashMap源码分析一

一、HashMap简介

    HashMap是基于哈希表(拉链法)实现的,每个元素都是一个key-value对,其内部通过单链表解决冲突,容量不足(超过了阈值)时,同样会进行扩容。

public class HashMap<K,V> extends AbstractMap<K,V> implements Map<K,V>, Cloneable, Serializable

    HashMap继承了AbstractMap抽象类,实现了Map接口。     HashMap实现了Cloneable接口,支持克隆;实现了Serializable接口,支持序列化。     HashMap非线程安全,在单线程环境下使用。在多线程环境下可以考虑选择Hashtable或者用 Collections的synchronizedMap方法使HashMap具有线程安全的能力或者Concurrent并发包下的concurrentHashMap类。

二、HashMap设计思路

    Map< K,V>是一种以键值对存储数据的容器,HashMap借助了键值K的hashCode值来组织存储,使得可以非常快速高效地根据键值K进行数据的存取。     对每个键值对< K,V>,HashMap内部会将其封装成一个对应的Entry< K,V>对象,即Entry< K,V>对象是< K,V>的组织形式。     JVM会为每个对象生成一个hashCode值,HashMap在存储键值对Entry< K,V>时,会根据K的hashCode值,以某种映射关系,决定将这对键值对存储在HashMap中的哪个位置。     当通过K值取数据时,会根据K的hashCode值,以内部映射条件,直接定位到K对应的V值存放在什么位置,可以非常快速高效地将V值取出。

三、HashMap内部结构

    为了实现上述的设计思路,在HashMap内部采用数组+单链表的形式来组织键值对Entry< K,V >。

四、HashMap源码分析(JDK1.7)

public class HashMap<K,V> extends AbstractMap<K,V> implements Map<K,V>, Cloneable, Serializable { /** * 默认的初始容量(容量为HashMap中槽的数目)为16 * 实际容量必须是2的整数次幂 */ static final int DEFAULT_INITIAL_CAPACITY = 16; /** * 最大容量 * 必须是2的整数次幂且小于2的30次方 */ static final int MAXIMUM_CAPACITY = 1 << 30; /** * 默认加载因子为0.75 */ static final float DEFAULT_LOAD_FACTOR = 0.75f; /** * 存储数据的Entry数组。必要时调整大小,长度必须始终是2的幂 * HashMap采用链表法解决冲突,每一个Entry本质上是一个单向链表 */ transient Entry[] table; /** * HashMap中包含的键值映射的数量 */ transient int size; /**. * 阀值,用于判断是否需要调整HashMap的容量(阀值=容量*加载因子) * @serial */ int threshold; /** * 加载因子 * @serial */ final float loadFactor; /** * HashMap被修改的次数,用于实现fail-fast机制 */ transient int modCount; /** * 构造具有指定的初始容量和加载因子的空HashMap * @param initialCapacity 初始容量 * @param loadFactor 加载因子 */ public HashMap(int initialCapacity, float loadFactor) { if (initialCapacity < 0) throw new IllegalArgumentException("Illegal initial capacity: " + initialCapacity); if (initialCapacity > MAXIMUM_CAPACITY) initialCapacity = MAXIMUM_CAPACITY; if (loadFactor <= 0 || Float.isNaN(loadFactor)) throw new IllegalArgumentException("Illegal load factor: " + loadFactor); //找出大于initialCapacity的最小的2次幂 // Find a power of 2 >= initialCapacity int capacity = 1; while (capacity < initialCapacity) capacity <<= 1; //设置加载因子 this.loadFactor = loadFactor; //设置阀值 threshold = (int)(capacity * loadFactor); //创建Entry数组 table = new Entry[capacity]; init(); } /** * 构造具有指定初始容量和默认加载因子(0.75)的空HashMap * @param initialCapacity 初始容量 */ public HashMap(int initialCapacity) { this(initialCapacity, DEFAULT_LOAD_FACTOR); } /** * 构造一个默认初始容量(16)和默认负载因子(0.75)空的HashMap */ public HashMap() { this.loadFactor = DEFAULT_LOAD_FACTOR; threshold = (int)(DEFAULT_INITIAL_CAPACITY * DEFAULT_LOAD_FACTOR); table = new Entry[DEFAULT_INITIAL_CAPACITY]; init(); } /** * 构造一个新的HashMap包含指定的map */ public HashMap(Map<? extends K, ? extends V> m) { this(Math.max((int) (m.size() / DEFAULT_LOAD_FACTOR) + 1, DEFAULT_INITIAL_CAPACITY), DEFAULT_LOAD_FACTOR); putAllForCreate(m); } // internal utilities void init() { } /** * 重新计算hashCode值 * 防止质量较差的哈希函数带来过多的冲突(碰撞)问题 * 空键总是映射到哈希值0,因此索引为0 */ static int hash(int h) { h ^= (h >>> 20) ^ (h >>> 12); return h ^ (h >>> 7) ^ (h >>> 4); } /** * 返回哈希码h在数组中的索引。用&代替取模,以提升效率 * h&(length-1)保证返回值的小于length,不会产生数组越界问题 */ static int indexFor(int h, int length) return h & (length-1); } /** * 返回HashMap中键值对的数量 */ public int size() { return size; } /** * 如果HashMap不包含键值对,则返回true */ public boolean isEmpty() { return size == 0; } /** * 返回指定键映射到的值(Key->Value) */ public V get(Object key) { //判断key是否为空,说明HashMap支持Key为null的情况 if (key == null) return getForNullKey(); //获取key的再hash值以确定桶的位置 int hash = hash(key.hashCode()); //遍历所在桶中的链表以查找键值等于key的元素 for (Entry<K,V> e = table[indexFor(hash, table.length)]; e != null; e = e.next) { Object k; //判断key是否相同 if (e.hash == hash && ((k = e.key) == key || key.equals(k))) return e.value; } return null; } /** * 获取key为null的value值 * HashMap将key为null的元素存放在table[0],但不一定是该链表的第一个位置 */ private V getForNullKey() { for (Entry<K,V> e = table[0]; e != null; e = e.next) { if (e.key == null) return e.value; } return null; } /** * 如果HashMap包含指定key,则返回true */ public boolean containsKey(Object key) { return getEntry(key) != null; } /** * 返回键为key的键值对 */ final Entry<K,V> getEntry(Object key) { //key为null的元素存放在table[0] //key不为null的则调用hash()重新计算hash值 int hash = (key == null) ? 0 : hash(key.hashCode()); //在该hash值对应的链表上查找键值等于key的元素 for (Entry<K,V> e = table[indexFor(hash, table.length)]; e != null; e = e.next) { Object k; if (e.hash == hash && ((k = e.key) == key || (key != null && key.equals(k)))) return e; } return null; } /** * 将指定的值与HashMap中的指定键相关联 */ public V put(K key, V value) { //key为null,则将该键值对添加到table[0]中 if (key == null) return putForNullKey(value); //key不为null,则计算该key的hash值,将其添加到该hash值对应的链表 int hash = hash(key.hashCode()); int i = indexFor(hash, table.length); for (Entry<K,V> e = table[i]; e != null; e = e.next) { Object k; if (e.hash == hash && ((k = e.key) == key || key.equals(k))) { V oldValue = e.value; e.value = value; //value值被覆盖时调用该函数 e.recordAccess(this); return oldValue; } } modCount++; //该key值不存在,则将该键值对添加到链表头 addEntry(hash, key, value, i); return null; } /** * 将key为null的键值对添加到table[0]中 */ private V putForNullKey(V value) { for (Entry<K,V> e = table[0]; e != null; e = e.next) { if (e.key == null) { V oldValue = e.value; e.value = value; e.recordAccess(this); return oldValue; } } modCount++; addEntry(0, null, value, 0); return null; } /** * 被构造函数和伪构造函数(clone,readObject)调用。 它不会调整表的大小 */ private void putForCreate(K key, V value) { int hash = (key == null) ? 0 : hash(key.hashCode()); int i = indexFor(hash, table.length); for (Entry<K,V> e = table[i]; e != null; e = e.next) { Object k; if (e.hash == hash && ((k = e.key) == key || (key != null && key.equals(k)))) { e.value = value; return; } } createEntry(hash, key, value, i); } private void putAllForCreate(Map<? extends K, ? extends V> m) { for (Map.Entry<? extends K, ? extends V> e : m.entrySet()) putForCreate(e.getKey(), e.getValue()); } /** * 重新调整HashMap的大小 * 当HashMap中的键数达到其阈值时,将自动调用此方法 * 如果当前容量为MAXIMUM_CAPACITY,则此方法不会调整映射大小,而是将阈值设置为Integer.MAX_VALUE * @param newCapacity 调整后的容量,必须是2的幂,必须大于当前容量,除非当前容量为MAXIMUM_CAPACITY */ void resize(int newCapacity) { Entry[] oldTable = table; int oldCapacity = oldTable.length; if (oldCapacity == MAXIMUM_CAPACITY) { threshold = Integer.MAX_VALUE; return; } //新建一个新Entry数组,将旧数组的全部元素添加到新数组中 Entry[] newTable = new Entry[newCapacity]; transfer(newTable); table = newTable; //设置下一次需要扩容的阀值 threshold = (int)(newCapacity * loadFactor); } /** * 将HashMap中的全部元素添加到newTable中 */ void transfer(Entry[] newTable) { Entry[] src = table; int newCapacity = newTable.length; for (int j = 0; j < src.length; j++) { Entry<K,V> e = src[j]; if (e != null) { src[j] = null; do { Entry<K,V> next = e.next; int i = indexFor(e.hash, newCapacity); e.next = newTable[i]; newTable[i] = e; e = next; } while (e != null); } } } /** * 将m中的全部元素都添加到HashMap中 */ public void putAll(Map<? extends K, ? extends V> m) { int numKeysToBeAdded = m.size(); if (numKeysToBeAdded == 0) return; /* * 如果要添加的映射数大于或等于阀值,则进行扩容 * 明显的条件是(m.size()+size>=阈值,但是如果要添加的键与已经在该HashMap中的键相同, * 则该条件可能导致调整后的容量具有适当容量的两倍 * 所以采用保守的做法,避免拓展到过大的容量 */ if (numKeysToBeAdded > threshold) { int targetCapacity = (int)(numKeysToBeAdded / loadFactor + 1); if (targetCapacity > MAXIMUM_CAPACITY) targetCapacity = MAXIMUM_CAPACITY; int newCapacity = table.length; while (newCapacity < targetCapacity) newCapacity <<= 1; if (newCapacity > table.length) resize(newCapacity); } for (Map.Entry<? extends K, ? extends V> e : m.entrySet()) put(e.getKey(), e.getValue()); } /** * 删除键为key的元素,并返回value(如果存在) */ public V remove(Object key) { Entry<K,V> e = removeEntryForKey(key); return (e == null ? null : e.value); } /** * 删除键为key的元素,并返回键值对 */ final Entry<K,V> removeEntryForKey(Object key) { int hash = (key == null) ? 0 : hash(key.hashCode()); int i = indexFor(hash, table.length); Entry<K,V> prev = table[i]; Entry<K,V> e = prev; //本质是删除单链表中的结点 while (e != null) { Entry<K,V> next = e.next; Object k; if (e.hash == hash && ((k = e.key) == key || (key != null && key.equals(k)))) { modCount++; size--; if (prev == e) table[i] = next; else prev.next = next; e.recordRemoval(this); return e; } prev = e; e = next; } return e; } /** * 删除键值对 */ final Entry<K,V> removeMapping(Object o) { if (!(o instanceof Map.Entry)) return null; Map.Entry<K,V> entry = (Map.Entry<K,V>) o; Object key = entry.getKey(); int hash = (key == null) ? 0 : hash(key.hashCode()); int i = indexFor(hash, table.length); Entry<K,V> prev = table[i]; Entry<K,V> e = prev; //本质是删除单链表中的结点 while (e != null) { Entry<K,V> next = e.next; if (e.hash == hash && e.equals(entry)) { modCount++; size--; if (prev == e) table[i] = next; else prev.next = next; e.recordRemoval(this); return e; } prev = e; e = next; } return e; } /** * 清空HashMap,将Entry数组中的元素设为null */ public void clear() { modCount++; Entry[] tab = table; for (int i = 0; i < tab.length; i++) tab[i] = null; size = 0; } /** * 是否包含V为value的元素 */ public boolean containsValue(Object value) { //判断key是否为空,说明HashMap也支持value为null的情况 if (value == null) return containsNullValue(); Entry[] tab = table; for (int i = 0; i < tab.length ; i++) for (Entry e = tab[i] ; e != null ; e = e.next) if (value.equals(e.value)) return true; return false; } /** * 是否包含V为null的元素 */ private boolean containsNullValue() { Entry[] tab = table; for (int i = 0; i < tab.length ; i++) for (Entry e = tab[i] ; e != null ; e = e.next) if (e.value == null) return true; return false; } /** * 返回HashMap实例的浅副本,键和值本身不会克隆 */ public Object clone() { HashMap<K,V> result = null; try { result = (HashMap<K,V>)super.clone(); } catch (CloneNotSupportedException e) { // assert false; } result.table = new Entry[table.length]; result.entrySet = null; result.modCount = 0; result.size = 0; result.init(); result.putAllForCreate(this); return result; } /** * Entry<K,V>是单向链表,是HashMap<K,V>的组织形式 */ static class Entry<K,V> implements Map.Entry<K,V> { final K key; V value; Entry<K,V> next; final int hash; /** * Creates new entry. */ Entry(int h, K k, V v, Entry<K,V> n) { value = v; next = n; key = k; hash = h; } public final K getKey() { return key; } public final V getValue() { return value; } public final V setValue(V newValue) { V oldValue = value; value = newValue; return oldValue; } public final boolean equals(Object o) { if (!(o instanceof Map.Entry)) return false; Map.Entry e = (Map.Entry)o; Object k1 = getKey(); Object k2 = e.getKey(); if (k1 == k2 || (k1 != null && k1.equals(k2))) { Object v1 = getValue(); Object v2 = e.getValue(); if (v1 == v2 || (v1 != null && v1.equals(v2))) return true; } return false; } public final int hashCode() { return (key==null ? 0 : key.hashCode()) ^ (value==null ? 0 : value.hashCode()); } public final String toString() { return getKey() + "=" + getValue(); } /** * 当向HashMap中添加元素且value值被覆盖时调用此方法 */ void recordAccess(HashMap<K,V> m) { } /** * 当从HashMap中删除元素时,将调用此方法 */ void recordRemoval(HashMap<K,V> m) { } } /** * 将指定的键,值和哈希码的新元素添加到指定的存储桶 * 满足扩容条件时,该方法有责任调整表的大小 * 用于新增Entry可能导致“HashMap的实际容量”超过“阈值”的情况下 */ void addEntry(int hash, K key, V value, int bucketIndex) { //在链表头部插入一个结点 Entry<K,V> e = table[bucketIndex]; table[bucketIndex] = new Entry<>(hash, key, value, e); if (size++ >= threshold) //超过阀值,扩容为原来的两倍 resize(2 * table.length); } /** * 类似于addEntry,但它不会调整表的大小 * 用于新增Entry不会导致“HashMap的实际容量”超过“阈值”的情况下 */ void createEntry(int hash, K key, V value, int bucketIndex) { Entry<K,V> e = table[bucketIndex]; table[bucketIndex] = new Entry<>(hash, key, value, e); size++; } private abstract class HashIterator<E> implements Iterator<E> { Entry<K,V> next; // next entry to return int expectedModCount; // For fast-fail int index; // current slot Entry<K,V> current; // current entry HashIterator() { expectedModCount = modCount; if (size > 0) { // advance to first entry Entry[] t = table; while (index < t.length && (next = t[index++]) == null) ; } } public final boolean hasNext() { return next != null; } final Entry<K,V> nextEntry() { if (modCount != expectedModCount) throw new ConcurrentModificationException(); Entry<K,V> e = next; if (e == null) throw new NoSuchElementException(); if ((next = e.next) == null) { Entry[] t = table; while (index < t.length && (next = t[index++]) == null) ; } current = e; return e; } public void remove() { if (current == null) throw new IllegalStateException(); if (modCount != expectedModCount) throw new ConcurrentModificationException(); Object k = current.key; current = null; HashMap.this.removeEntryForKey(k); expectedModCount = modCount; } } /** value的迭代器 */ private final class ValueIterator extends HashIterator<V> { public V next() { return nextEntry().value; } } /** key的迭代器 */ private final class KeyIterator extends HashIterator<K> { public K next() { return nextEntry().getKey(); } } /** Entry的迭代器 */ private final class EntryIterator extends HashIterator<Map.Entry<K,V>> { public Map.Entry<K,V> next() { return nextEntry(); } } // Subclass overrides these to alter behavior of views' iterator() method Iterator<K> newKeyIterator() { return new KeyIterator(); } Iterator<V> newValueIterator() { return new ValueIterator(); } Iterator<Map.Entry<K,V>> newEntryIterator() { return new EntryIterator(); } /** HashMap的Entry对应的集合 */ private transient Set<Map.Entry<K,V>> entrySet = null; /** * 返回key对应的集合 * KeySet继承于AbstractSet,说明该集合中没有重复的key */ public Set<K> keySet() { Set<K> ks = keySet; return (ks != null ? ks : (keySet = new KeySet())); } private final class KeySet extends AbstractSet<K> { public Iterator<K> iterator() { return newKeyIterator(); } public int size() { return size; } public boolean contains(Object o) { return containsKey(o); } public boolean remove(Object o) { return HashMap.this.removeEntryForKey(o) != null; } public void clear() { HashMap.this.clear(); } } /** * 返回value对应的集合 * Values继承于AbstractCollection,不同于KeySet继承于AbstractSet * Values中的元素能够重复,因为不同的key可以指向相同的value */ public Collection<V> values() { Collection<V> vs = values; return (vs != null ? vs : (values = new Values())); } private final class Values extends AbstractCollection<V> { public Iterator<V> iterator() { return newValueIterator(); } public int size() { return size; } public boolean contains(Object o) { return containsValue(o); } public void clear() { HashMap.this.clear(); } } /** * 返回Entry对应的集合 */ public Set<Map.Entry<K,V>> entrySet() { return entrySet0(); } /** * 返回Entry对应的集合 * EntrySet继承于AbstractSet,说明该集合中没有重复的EntrySet */ private Set<Map.Entry<K,V>> entrySet0() { Set<Map.Entry<K,V>> es = entrySet; return es != null ? es : (entrySet = new EntrySet()); } private final class EntrySet extends AbstractSet<Map.Entry<K,V>> { public Iterator<Map.Entry<K,V>> iterator() { return newEntryIterator(); } public boolean contains(Object o) { if (!(o instanceof Map.Entry)) return false; Map.Entry<K,V> e = (Map.Entry<K,V>) o; Entry<K,V> candidate = getEntry(e.getKey()); return candidate != null && candidate.equals(e); } public boolean remove(Object o) { return removeMapping(o) != null; } public int size() { return size; } public void clear() { HashMap.this.clear(); } } /** * 将HashMap实例的状态保存到流中(即序列化) */ private void writeObject(java.io.ObjectOutputStream s) throws IOException { Iterator<Map.Entry<K,V>> i = (size > 0) ? entrySet0().iterator() : null; // Write out the threshold, loadfactor, and any hidden stuff s.defaultWriteObject(); // Write out number of buckets 桶数 s.writeInt(table.length); // Write out size (number of Mappings) 映射数 s.writeInt(size); // Write out keys and values (alternating) 键和值 if (i != null) { while (i.hasNext()) { Map.Entry<K,V> e = i.next(); s.writeObject(e.getKey()); s.writeObject(e.getValue()); } } } private static final long serialVersionUID = 362498820763181265L; /** * 从流中重构HashMap实例(即反序列化) */ private void readObject(java.io.ObjectInputStream s) throws IOException, ClassNotFoundException { // Read in the threshold, loadfactor, and any hidden stuff s.defaultReadObject(); // Read in number of buckets and allocate the bucket array; int numBuckets = s.readInt(); table = new Entry[numBuckets]; init(); // Give subclass a chance to do its thing. // Read in size (number of Mappings) int size = s.readInt(); // Read the keys and values, and put the mappings in the HashMap for (int i=0; i<size; i++) { K key = (K) s.readObject(); V value = (V) s.readObject(); putForCreate(key, value); } } // These methods are used when serializing HashSets int capacity() { return table.length; } float loadFactor() { return loadFactor; } }

四、HashMap遍历方式

    1、foreach map.entrySet()

for (Map.Entry<String,String> entry : map.entrySet()) { entry.getKey(); entry.getValue(); }

    2、显示调用map.entrySet()的集合迭代器

Iterator<Map.Entry<String,String>> iter = map.entrySet().iterator(); while (iter.hasNext()) { Map.Entry<String,String> entry = iter.next(); entry.getKey(); entry.getValue(); }

    3、foreach map.keySet(),在调用get获取

for (String key : map.keySet()) { map.get(key); }

    4、foreach map.entrySet(),用临时变量保存map.entrySet()

Set<Map.Entry<String, String>> entrySet = map.entrySet(); for (Map.Entry<String, String> entry : entrySet) { entry.getKey(); entry.getValue(); }

五、HashMap扩容机制

    1、根据key的hashCode可以直接定位到存储这个Entry< K,V >所在桶的位置,时间复杂度为O(1);     2、在桶中查找对应的Entry< K,V >结点,需要遍历这个桶中的单链表,时间复杂度为O(n)。     那么,应该尽可能的将第二步的时间复杂度O(n)降到最低,即要求桶中的链表长度越短越好。桶中的链表长度越短,所消耗的查找时间就越低。这样一来,桶中的Entry< K,V >对象结点要求尽可能少,这就要求桶的数量要多了。     HashMap的桶数目,即Entry[] table数组的长度,由于数组是内存中连续的存储单元,它的空间代价很大,但是它的随机存取速度是在Java集合中最快的。通过增大桶的数量而减少Entry< K,V >链表的长度,来提高HashMap中读取数据的速度,是典型的拿空间换时间的策略。     但是不能刚开始就给HashMap分配过多的桶(即Entry[] table数组的起始容量不能太大),因为数组是连续的存储空间,它的创建代价很大,况且不能确定给HashMap分配这么大的空间,它实际能够拥多少,为了解决这个问题,HashMap采用了根据实际情况,动态地分配桶的数量。     HashMap的权衡策略:HashMapd的大小(size)>阀值(threshold)(threshold=capacity*loadFactor) 容量(capacity):HashMap内部Entry[] table数组的长度 加载因子(loadFactory):一个经验值,默认为0.75 阀值(threshold):当HashMap的大小(即Entry< K,V >结点的个数)超过了阀值,HashMap的容量(即Entry[] table的长度)将拓展为原来的两倍,并且rehash(重新组织内部各个Entry< K,V >)。

void addEntry(int hash, K key, V value, int bucketIndex) { Entry<K,V> e = table[bucketIndex]; table[bucketIndex] = new Entry<>(hash, key, value, e); //判断size是否到达了需要扩充table数组容量的界限并让size自增1 如果达到了则调用resize(int capacity)方法将数组容量拓展为原来的两倍 if (size++ >= threshold) resize(2 * table.length); } void resize(int newCapacity) { Entry[] oldTable = table; int oldCapacity = oldTable.length; //当数组容量达到MAXIMUM_CAPACITY时,不会再触发resize方法 即此后table数组中的链表可以不断变长,但数组长度不再改变 if (oldCapacity == MAXIMUM_CAPACITY) { threshold = Integer.MAX_VALUE; return; } //新建一个新Entry数组,容量为指定的容量 Entry[] newTable = new Entry[newCapacity]; //将旧Entry数组中的链表结点重新映射到新数组 transfer(newTable); table = newTable; //设置下一次需要调整数组大小的界限 threshold = (int)(newCapacity * loadFactor); } /** * 将HashMap中的全部元素都添加到newTable中 */ void transfer(Entry[] newTable) { //保留原数组的引用 Entry[] src = table; //新数组的容量 int newCapacity = newTable.length; //遍历原数组 for (int j = 0; j < src.length; j++) { //获取原数组j位置的链表头结点 Entry<K,V> e = src[j]; if (e != null) { //将数组中的元素设为null src[j] = null; //遍历原数组j位置的链表 do { Entry<K,V> next = e.next; //根据新容量重新计算结点e在新数组的位置 int i = indexFor(e.hash, newCapacity); //将e插入到新数组的新位置所指向的链表头部(复制原表内容时链表被倒置) e.next = newTable[i]; newTable[i] = e; e = next; } while (e != null); } } }

    通过分析HashMap的扩容源码,不难得出一次容量扩充的代价非常大,因为这个过程需要重新计算原始元素在新数组中的位置并进行复制处理,所以扩充的比例为当前的一倍,这样做是尽量减少容量扩充的次数。因此,在使用HashMap时,最好能提前预估下HashMap中元素的个数,这样有助于提高HashMap的性能。

六、HashMap的put()和get()

    1、put()方法-向HashMap中存储键值对

public V put(K key, V value) { //1.若key为null,则将该键值对放置到table[0],即第一个桶 if (key == null) return putForNullKey(value); //2.若key不为null,重新计算key的hashCode值 int hash = hash(key.hashCode()); //3.计算当前hashCode值确定应该将这一对键值对存放在哪一个桶中,即确定要存放桶的索引 int i = indexFor(hash, table.length); //4.遍历所在桶中的Entry<K,V>链表,查找其中是否已经存在以key值为K存储的Entry<K,V>对象 for (Entry<K,V> e = table[i]; e != null; e = e.next) { Object k; //5.已存在,定位到对应的Entry<K,V>,其中的value值更新为新的value值,并返回旧值 if (e.hash == hash && ((k = e.key) == key || key.equals(k))) { V oldValue = e.value; e.value = value; e.recordAccess(this); return oldValue; } } //6.不存在,根据键值对<K,V>创建一个新的Entry<K,V>对象,然后添加到这个桶的链表头部 modCount++; addEntry(hash, key, value, i); return null; } private V putForNullKey(V value) { for (Entry<K,V> e = table[0]; e != null; e = e.next) { if (e.key == null) { V oldValue = e.value; e.value = value; e.recordAccess(this); return oldValue; } } modCount++; addEntry(0, null, value, 0); return null; } void addEntry(int hash, K key, V value, int bucketIndex) { Entry<K,V> e = table[bucketIndex]; table[bucketIndex] = new Entry<>(hash, key, value, e); //7.判断当前HashMap的大小(即Entry<K,V>结点的个数)是否超过了阀值, 若超过了阀值,则拓展HashMap的容量(即Entry[] table的长度)为原来的两倍,并且重新组织内部各个Entry<K,V> if (size++ >= threshold) resize(2 * table.length); }

    注意:当遍历某个桶中的Entry< K,V>链表来查找Entry实例的过程中所使用的判断条件e.hash == hash && ((k = e.key) == key || key.equals(k))     判断给定的key值是否与Entry链表中的某个Entry对象的key值相等使用的是(k = e.key) == key || key.equals(k),另外还有一个判读条件:e.hash == hash,即给定的key值经过hash函数转换后的hash值和当前Entry对象的hash属性值相等(该hash属性值就是Entry内的key经过hash函数转换后的hash值)。     因此HashMap在确定key是否存在的要求有两个:key值是否相等和hashCode值是否相等。正如JDK在Object.equals(Object obj)方法注释里写的注意:当此方法被重写时,通常有必要重写hashCode()方法,以维护hashCode 方法的常规协定,该协定声明相等对象必须具有相等的哈希码。如果在定义类时,只重写了equals()方法,但是hashCode却没有保证相等,就会导致当使用该类实例作为key值放入HashMap中时,会出现HashMap工作异常问题(当put两个equals()相等的key时,不会产生覆盖value值而是增加新Entry< K,V>结点)。     2、get()方法-根据指定的key值从HashMap中取value值

public V get(Object key) { //1.若key为null,则直接在table[0]中查找 (key为null的键值对永远都放在以table[0]为头结点的链表中,但是不一定是存放在头结点table[0]中。) if (key == null) return getForNullKey(); //2.若key不为null,获取这个key重新计算后的hashCode值,根据此hashCode值决定应该从哪一个桶中查找 int hash = hash(key.hashCode()); //3.遍历所在桶中的Entry<K,V>链表,查找其中是否已经有了以key值为key存储的Entry<K,V>对象 for (Entry<K,V> e = table[indexFor(hash, table.length)]; e != null; e = e.next) { Object k; //4.若已存在,定位到对应的Entry<K,V>,返回value值 if (e.hash == hash && ((k = e.key) == key || key.equals(k))) return e.value; } //5.若不存在,返回null return null; } private V getForNullKey() { for (Entry<K,V> e = table[0]; e != null; e = e.next) { if (e.key == null) return e.value; } return null; }

七、总结

    1、使用HashMap时,要注意HashMap容量和加载因子的关系(即阀值),这将直接影响到HashMap的性能问题。加载因子过小,会提高HashMap的查找效率,但同时也消耗了大量的内存空间;加载因子过大,节省了空间,但是会导致HashMap的查找效率降低。     2、HashMap中key和value都允许为null(最多只允许一条记录的键为null,允许多条记录的值为null)。     3、求hash值和索引值的方法,是HashMap设计中最为核心的部分,两者的结合能够保证哈希表中的元素尽可能均匀地散列。

/** * 根据特定的hashCode重新计算hash值,防止质量较差的哈希函数带来过多的冲突(碰撞)问题 * 由于JVM生成的hashCode的低字节(lower bits)冲突概率大 * 为了提高性能,HashMap对key的hashCode再加工,取key的hashCode的高字节参与运算 */ static int hash(int h) { h ^= (h >>> 20) ^ (h >>> 12); return h ^ (h >>> 7) ^ (h >>> 4); } /** * 返回此hashcode应当分配到的桶的索引 * h&(length-1)保证返回值的小于length,不会产生数组越界问题,用&代替取模,以提升效率 */ static int indexFor(int h, int length) { return h & (length-1); }

    一般对哈希表的散列很自然地会想到用hash值对length取模(即除法散列法),Hashtable中也是这样实现的,这种方法基本能够保证元素在哈希表中散列的比较均匀,但取模会用到除法运算,效率很低,HashMap中则通过h&(length-1)的方法来代替取模,同样实现了均匀散列,但效率要高很多,这也是HashMap对Hashtable的一个改进。     为什么哈希表的容量一定要是2的整数次幂?(无论指定的初始容量为多少,构造方法都会将实际容量设为不小于指定容量的2的次方的一个数,且最大值不能超过2的30次方)     首先,length为2的整数次幂的话,h&(length-1)就相当于对length取模,这样便保证了散列的均匀,同时也提升了效率;其次,length为2的整数次幂的话,为偶数,length-1为奇数,奇数的最后一位是1,这样便保证了h&(length-1)的最后一位可能为0,也可能为1(这取决于h的值),而length为奇数的话,length-1为偶数,偶数的最后一位是0,这样h&(length-1)的最后一位肯定为0,即只能为偶数,这样任何hash值都只会被散列到数组的偶数下标位置,这就浪费了近一半的存储空间。因此,length值取2的整数次幂是为了使不同hash值发生碰撞的概率较小,这样就能使得元素在哈希表中均匀地散列

转载请注明原文地址: https://www.6miu.com/read-34529.html

最新回复(0)