Java 中的集合

news/2024/11/16 5:23:28/文章来源:https://www.cnblogs.com/acatsmiling/p/18328109

Author: ACatSmiling

Since: 2024-07-28

概述

在 Java 语言中,数组(Array)和集合都是对多个数据进行存储操作的结构,简称Java 容器。此时的存储,主要指的是内存层面的存储,不涉及到持久化的存储。

数组在内存存储方面的特点:

  • 数组一旦初始化以后,其长度就确定了。
  • 数组一旦定义好,其元素的类型也就确定了。

数组在存储数据方面的弊端:

  • 数组一旦初始化以后,其长度就不可修改,不便于扩展。
  • 数组中提供的属性和方法少,不便于进行添加、删除、插入等操作,且效率不高。
  • 数组中没有现成的属性和方法,去直接获取数组中已存储的元素的个数(只能直接知道数组的长度)。
  • 数组存储的数据是有序的、可重复的。对于无序、不可重复的需求,不能满足,即数组存储数据的特点比较单一。

Java 集合类可以用于存储数量不等的多个对象,还可用于保存具有映射关系的关联数组。

Java 集合框架可分为CollectionMap两种体系:

  • Collection 接口 :单列集合,用来存储一个一个的对象。
    • List 接口:存储有序的、可重复的数据。包括:ArrayList、LinkedList、Vector。
    • Set 接口:存储无序的、不可重复的数据。包括:HashSet、LinkedHashSet、TreeSet。
  • Map 接口:双列集合,用来存储具有映射关系 "key - value 对" 的数据。包括:HashMap、LinkedHashMap、TreeMap、Hashtable、Properties。

List 接口

List 集合类中元素有序、且可重复,集合中的每个元素都有其对应的顺序索引。

ArrayList

基础属性:

public class ArrayList<E> extends AbstractList<E>implements List<E>, RandomAccess, Cloneable, java.io.Serializable
{@java.io.Serialprivate static final long serialVersionUID = 8683452581122892189L;/*** Default initial capacity.*/private static final int DEFAULT_CAPACITY = 10;/*** Shared empty array instance used for empty instances.*/private static final Object[] EMPTY_ELEMENTDATA = {};/*** Shared empty array instance used for default sized empty instances. We* distinguish this from EMPTY_ELEMENTDATA to know how much to inflate when* first element is added.*/private static final Object[] DEFAULTCAPACITY_EMPTY_ELEMENTDATA = {};/*** The array buffer into which the elements of the ArrayList are stored.* The capacity of the ArrayList is the length of this array buffer. Any* empty ArrayList with elementData == DEFAULTCAPACITY_EMPTY_ELEMENTDATA* will be expanded to DEFAULT_CAPACITY when the first element is added.*/transient Object[] elementData; // non-private to simplify nested class access/*** The size of the ArrayList (the number of elements it contains).** @serial*/private int size;
}

本文源码,均基于 JDK 17。

new ArrayList() 时,底层 Object[] 数组 elementData 初始化为 {},是一个长度为 0 的空数组

/*** Constructs an empty list with an initial capacity of ten.*/
public ArrayList() {this.elementData = DEFAULTCAPACITY_EMPTY_ELEMENTDATA;
}

第一次调用 add() 方法,初始化底层 Object[] 数组 elementData 的长度为 10,并将元素添加到 elementData 中:

/*** Appends the specified element to the end of this list.** @param e element to be appended to this list* @return {@code true} (as specified by {@link Collection#add})*/
public boolean add(E e) {modCount++;add(e, elementData, size);return true;
}
/*** This helper method split out from add(E) to keep method* bytecode size under 35 (the -XX:MaxInlineSize default value),* which helps when add(E) is called in a C1-compiled loop.*/
private void add(E e, Object[] elementData, int s) {// 第一次执行 add() 方法,size 属性的值为 0,elementData.length 为 0if (s == elementData.length)elementData = grow();// 添加元素到数组中elementData[s] = e;size = s + 1;
}
private Object[] grow() {return grow(size + 1);
}
/*** Increases the capacity to ensure that it can hold at least the* number of elements specified by the minimum capacity argument.** @param minCapacity the desired minimum capacity* @throws OutOfMemoryError if minCapacity is less than zero*/
private Object[] grow(int minCapacity) {int oldCapacity = elementData.length;if (oldCapacity > 0 || elementData != DEFAULTCAPACITY_EMPTY_ELEMENTDATA) {int newCapacity = ArraysSupport.newLength(oldCapacity,minCapacity - oldCapacity, /* minimum growth */oldCapacity >> 1           /* preferred growth */);return elementData = Arrays.copyOf(elementData, newCapacity);} else {// 初始化数组,长度为 DEFAULT_CAPACITY,即 10return elementData = new Object[Math.max(DEFAULT_CAPACITY, minCapacity)];}
}

之后,每次执行 add() 方法,直接将元素添加到 elementData 对应的位置,直到第 11 次添加元素。此时,添加的元素的总数,已经超过了数组的长度,需要进行扩容操作

/*** This helper method split out from add(E) to keep method* bytecode size under 35 (the -XX:MaxInlineSize default value),* which helps when add(E) is called in a C1-compiled loop.*/
private void add(E e, Object[] elementData, int s) {// 第 11 次添加元素,此时,满足 s == elementData.length 条件if (s == elementData.length)elementData = grow();elementData[s] = e;size = s + 1;
}

默认情况下,数组长度扩容为原来容量的 1.5 倍,同时,将原有数组中的数据复制到新的数组中

/*** Increases the capacity to ensure that it can hold at least the* number of elements specified by the minimum capacity argument.** @param minCapacity the desired minimum capacity* @throws OutOfMemoryError if minCapacity is less than zero*/
private Object[] grow(int minCapacity) {int oldCapacity = elementData.length;// 满足 oldCapacity > 0 条件if (oldCapacity > 0 || elementData != DEFAULTCAPACITY_EMPTY_ELEMENTDATA) {// 扩容数组长度到原来的 1.5 倍int newCapacity = ArraysSupport.newLength(oldCapacity,minCapacity - oldCapacity, /* minimum growth */oldCapacity >> 1           /* preferred growth */);// 复制原数组数据到新数组return elementData = Arrays.copyOf(elementData, newCapacity);} else {return elementData = new Object[Math.max(DEFAULT_CAPACITY, minCapacity)];}
}

结论:

  1. ArrayList 是第一次添加元素时,才创建一个初始容量为 10 的数组,延迟了数组的创建。
  2. 添加数据时,如果底层的数组需要扩容,均扩容为原来容量的 1.5 倍,同时,将原有数组中的数据复制到新的数组中。
  3. 开发中使用 ArrayList 时,建议按需求在初始化时就指定 ArrayList 的容量,以尽可能的避免扩容。

LinkedList

双向链表,内部定义了内部类 Node,作为 LinkedList 中保存数据的基本结构。

LinkedList 内部没有声明数组,而是定义了 Node 类型的 first 和 last,用于记录首末元素:

image-20210322150052189

对于频繁的插入或删除元素的操作,建议使用 LinkedList 类,效率较高。

new LinkedList() 时,内部声明了 Node 类型的 first 和 last 属性,默认值为 null:

public class LinkedList<E>extends AbstractSequentialList<E>implements List<E>, Deque<E>, Cloneable, java.io.Serializable
{transient int size = 0;/*** Pointer to first node.*/transient Node<E> first;/*** Pointer to last node.*/transient Node<E> last;/*** Constructs an empty list.*/public LinkedList() {}
}
// Node 内部类
private static class Node<E> {// 当前 Node 存储的数据E item;// 指向链表的后一个元素Node<E> next;// 指向链表的前一个元素Node<E> prev;Node(Node<E> prev, E element, Node<E> next) {this.item = element;this.next = next;this.prev = prev;}
}

调用 add() 方法添加元素:

/*** Appends the specified element to the end of this list.** <p>This method is equivalent to {@link #addLast}.** @param e element to be appended to this list* @return {@code true} (as specified by {@link Collection#add})*/
public boolean add(E e) {linkLast(e);return true;
}
/*** Links e as last element.*/
void linkLast(E e) {// last,原链表的最后一个对象final Node<E> l = last;// 创建一个新的 Node 对象final Node<E> newNode = new Node<>(l, e, null);// 当前新创建的 Node 对象,成为新链表的最后一个对象last = newNode;if (l == null)// 如果原链表为 null,则将当前新创建的 Node 对象指定为链表的第一个节点 firstfirst = newNode;else// 如果原链表不为 null,则将原链表的最后一个对象,指向当前新的 Node 对象l.next = newNode;size++;modCount++;
}

Set 接口

Set 集合存储无序的、不可重复的数据,如果把两个相同的元素加入同一个 Set 集合中,则添加操作失败。

  • 无序性:不等于随机性。以 HashSet 为例,存储的数据在底层数组中并非按照数组索引的顺序添加,而是根据数据的哈希值决定的。
  • 不可重复性:保证添加的元素按照 equals() 判断时,不能返回 true。即:相同的元素只能添加一个。

Set 接口是 Collection 的子接口,Set 接口没有提供额外的方法,使用的都是Collection中声明过的方法。

Set 判断两个对象是否相同不是使用 == 运算符,而是根据 equals()。对于存放在 Set(主要指:HashSet、LinkedHashSet)容器中的对象,其对应的类一定要重写equals()hashCode(),以实现对象相等规则。

  • 要求:重写的 hashCode() 和 equals() 尽可能保持一致性,即:相等的对象必须具有相等的散列码
    • 如果不重写所添加元素所在类的 hashCode(),则会调用 Object 类的 hashCode(),该方法是产生一个随机数,因此,即使添加两个一样的元素,其 hashCode 值也可能不同,也就都能添加成功。
  • 重写两个方法的小技巧:对象中用作 equals() 方法比较的 Field,都应该用来计算 hashCode 值。
  • TreeSet 比较两个元素是否相同的方法,不是 equals() 和 hashCode(),而是元素对应类的排序方法。

重写 hashCode() 方法的基本原则:

  • 在程序运行时,同一个对象多次调用 hashCode() 方法应该返回相同的值。
  • 当两个对象的 equals() 方法比较返回 true 时,这两个对象的 hashCode() 方法的返回值也应相等。
  • 对象中用作 equals() 方法比较的 Field,都应该用来计算 hashCode 值。

重写 equals() 方法的基本原则,以自定义的 Customer 类为例,何时需要重写 equals():

  • 如果一个类有自己特有的 "逻辑相等" 概念,当重写 equals() 的时候,总是需要重写 hashCode()。因为根据一个类改写后的 equals(),两个截然不同的实例有可能在逻辑上是相等的,但是,根据 Object 类的 hashCode(),它们仅仅是两个对象。这种情况,违反了 "相等的对象必须具有相等的散列码" 的原则。

结论:重写 equals() 的时候,一般都需要同时重写 hashCode() 方法。通常参与计算 hashCode 的对象的属性也应该参与到 equals() 中进行计算。

Eclipse/IDEA 工具里 hashCode() 的重写,为什么会有 31 这个数字:

@Override
public int hashCode() {int result = name.hashCode();result = 31 * result + age;return result;
}
  • 选择系数的时候要选择尽量大的系数,因为如果计算出来的 hashCode 值越大,所谓的冲突就越少,查找起来效率也会提高。---> 减少冲突
  • 31 只占用 5 bits,相乘造成数据溢出的概率较小。
  • 31 可以由i * 31 == (i << 5) - 1来表示,现在很多虚拟机里面都有做相关优化。---> 提高算法效率
  • 31 是一个素数,素数作用就是如果用一个数字来乘以这个素数,那么最终出来的结果只能被素数本身和被乘数还有 1 来整除!---> 减少冲突

HashSet

HashSet 按 Hash 算法来存储集合中的元素,因此具有很好的存取、查找、删除性能。

HashSet 具有以下特点:

  • 不保证元素的排列顺序。
  • 不是线程安全的。
  • 集合元素可以是 null,但是只能有一个。

HashSet 的底层,使用的是 HashMap:

/*** Constructs a new, empty set; the backing {@code HashMap} instance has* default initial capacity (16) and load factor (0.75).*/
public HashSet() {map = new HashMap<>();
}

LinkedHashSet

LinkedHashSet 根据元素的 hashCode 值来决定元素的存储位置,但它同时使用双向链表维护元素的次序,这使得元素看起来是以插入顺序保存的。

  • 遍历 LinkedHashSet 内部数据时,可以按照添加的顺序遍历。

LinkedHashSet 插入性能略低于 HashSet,但在迭代访问 Set 里的全部元素时有很好的性能。对于频繁的遍历操作,LinkedHashSet 效率高于 HashSet。

LinkedHashSet 的底层,使用的是 LinkedHashMap:

public LinkedHashSet() {super(16, .75f, true);
}
HashSet(int initialCapacity, float loadFactor, boolean dummy) {map = new LinkedHashMap<>(initialCapacity, loadFactor);
}

Map 接口

HashMap

HashMap 源码中的重要常量:

  • DEFAULT_INITIAL_CAPACITY:HashMap 的默认容量,16

    /*** The default initial capacity - MUST be a power of two.*/
    static final int DEFAULT_INITIAL_CAPACITY = 1 << 4; // aka 16
    
  • MAXIMUM_CAPACITY:HashMap 的最大支持容量,$2^{30}$。

    /*** The maximum capacity, used if a higher value is implicitly specified* by either of the constructors with arguments.* MUST be a power of two <= 1<<30.*/
    static final int MAXIMUM_CAPACITY = 1 << 30;
    
  • DEFAULT_LOAD_FACTOR:HashMap 的默认加载因子,0.75

    /*** The load factor used when none specified in constructor.*/
    static final float DEFAULT_LOAD_FACTOR = 0.75f;
    
    • 不同于 ArrayList,HashMap 不是在底层数组全部填满时才进行扩容操作,因为数组上有一些位置可能会一直都没有添加元素,但其他位置上元素可能有很多,导致链表和二叉树结构变多。因此,会在元素添加到一定数量时,就执行扩容操作,即添加元素数量达到 threshold 值时扩容。默认加载因子如果过小,会导致数组还有很多空位置时扩容,数组利用率低;默认加载因子如果过大,会导致数组中存在很多元素时才扩容,链表和二叉树结构过多。因此,默认加载因子在 0.7 ~ 0.75 左右比较合适。
  • TREEIFY_THRESHOLD:Bucket 中链表存储的 Node 长度大于该默认值,判断是否转换为红黑树,默认为 8

    /*** The bin count threshold for using a tree rather than list for a* bin.  Bins are converted to trees when adding an element to a* bin with at least this many nodes. The value must be greater* than 2 and should be at least 8 to mesh with assumptions in* tree removal about conversion back to plain bins upon* shrinkage.*/
    static final int TREEIFY_THRESHOLD = 8;
    
  • UNTREEIFY_THRESHOLD:Bucket 中红黑树存储的 Node 长度小于该默认值,转换为链表,默认为 6

    /*** The bin count threshold for untreeifying a (split) bin during a* resize operation. Should be less than TREEIFY_THRESHOLD, and at* most 6 to mesh with shrinkage detection under removal.*/
    static final int UNTREEIFY_THRESHOLD = 6;
    
  • MIN_TREEIFY_CAPACITY:桶中的 Node 被树化时最小的 hash 表容量,默认为 64。

    /*** The smallest table capacity for which bins may be treeified.* (Otherwise the table is resized if too many nodes in a bin.)* Should be at least 4 * TREEIFY_THRESHOLD to avoid conflicts* between resizing and treeification thresholds.*/
    static final int MIN_TREEIFY_CAPACITY = 64;
    
    • 当桶中 Node 的数量大到需要变红黑树(8)时,若 hash 表容量小于 MIN_TREEIFY_CAPACITY,此时应执行 resize() 进行扩容操作。MIN_TREEIFY_CAPACITY 的值至少是 TREEIFY_THRESHOLD 的 4 倍。
  • table存储元素的数组,长度总是 2 的 n 次幂。

    /*** The table, initialized on first use, and resized as* necessary. When allocated, length is always a power of two.* (We also tolerate length zero in some operations to allow* bootstrapping mechanics that are currently not needed.)*/
    transient Node<K,V>[] table;
    
  • entrySet:存储具体元素的集。

    /*** Holds cached entrySet(). Note that AbstractMap fields are used* for keySet() and values().*/
    transient Set<Map.Entry<K,V>> entrySet;
    
  • size:HashMap 中已存储的键值对的数量。

    /*** The number of key-value mappings contained in this map.*/
    transient int size;
    
  • modCount:HashMap 扩容和结构改变的次数。

    /*** The number of times this HashMap has been structurally modified* Structural modifications are those that change the number of mappings in* the HashMap or otherwise modify its internal structure (e.g.,* rehash).  This field is used to make iterators on Collection-views of* the HashMap fail-fast.  (See ConcurrentModificationException).*/
    transient int modCount;
    
  • threshold:扩容的临界值,其值一般等于(容量 * 加载因子),(int) Math.min(capacity * loadFactor, MAXIMUM_CAPACITY + 1);。扩容的操作不是当底层数组全部被填满后再扩容,而是达到临界值后的下一次添加操作进行扩容。

    /*** The next size value at which to resize (capacity * load factor).** @serial*/
    // (The javadoc description is true upon serialization.
    // Additionally, if the table array has not been allocated, this
    // field holds the initial array capacity, or zero signifying
    // DEFAULT_INITIAL_CAPACITY.)
    int threshold;
    
  • loadFactor:加载因子。

    /*** The load factor for the hash table.** @serial*/
    final float loadFactor;
    

new HashMap<>() 时,赋值加载因子 loadFactor 为 DEFAULT_LOAD_FACTOR,即 0.75

/*** Constructs an empty {@code HashMap} with the default initial capacity* (16) and the default load factor (0.75).*/
public HashMap() {this.loadFactor = DEFAULT_LOAD_FACTOR; // all other fields defaulted
}

第一次调用 put() 方法时,通过 resize() 方法,创建一个长度为 16 的 Node 数组

/*** Associates the specified value with the specified key in this map.* If the map previously contained a mapping for the key, the old* value is replaced.** @param key key with which the specified value is to be associated* @param value value to be associated with the specified key* @return the previous value associated with {@code key}, or*         {@code null} if there was no mapping for {@code key}.*         (A {@code null} return can also indicate that the map*         previously associated {@code null} with {@code key}.)*/
public V put(K key, V value) {// key 做 hashreturn putVal(hash(key), key, value, false, true);
}
/*** Implements Map.put and related methods.** @param hash hash for key* @param key the key* @param value the value to put* @param onlyIfAbsent if true, don't change existing value* @param evict if false, the table is in creation mode.* @return previous value, or null if none*/
final V putVal(int hash, K key, V value, boolean onlyIfAbsent,boolean evict) {Node<K,V>[] tab; Node<K,V> p; int n, i;if ((tab = table) == null || (n = tab.length) == 0)// 第一次调用 put() 方法,此时,table 未初始化,为 null,调用 resize() 方法,创建长度为 16 的 Node 数组n = (tab = resize()).length;// 然后,查看 Node 数组中的位置 i 的元素 p,是否为 nullif ((p = tab[i = (n - 1) & hash]) == null)// 如果 p 为 null,说明当前位置 i 没有元素,添加成功 ---> 情况 1tab[i] = newNode(hash, key, value, null);else {Node<K,V> e; K k;if (p.hash == hash &&((k = p.key) == key || (key != null && key.equals(k))))// 位置 i 上的元素,与当前待添加元素的 key 相同e = p;else if (p instanceof TreeNode)e = ((TreeNode<K,V>)p).putTreeVal(this, tab, hash, key, value);else {// 位置 i 上的元素,与当前待添加元素的 key 不同for (int binCount = 0; ; ++binCount) {// 位置 i 上,只有一个元素if ((e = p.next) == null) {// 位置 i 上的原元素指向当前待添加的元素,添加成功 ---> 情况 2 和 3p.next = newNode(hash, key, value, null);if (binCount >= TREEIFY_THRESHOLD - 1) // -1 for 1st// 如果链表的长度超过 8 时,判断是否转为红黑树结构treeifyBin(tab, hash);break;}// 位置 i 上,不止一个元素,依次获得该链表上的每一个元素,与当前待添加元素的 key,对比 hash 值和 equals() 方法if (e.hash == hash &&((k = e.key) == key || (key != null && key.equals(k))))break;p = e;}}if (e != null) { // existing mapping for keyV oldValue = e.value;if (!onlyIfAbsent || oldValue == null)e.value = value;afterNodeAccess(e);return oldValue;}}++modCount;if (++size > threshold)resize();afterNodeInsertion(evict);return null;
}
/*** Initializes or doubles table size.  If null, allocates in* accord with initial capacity target held in field threshold.* Otherwise, because we are using power-of-two expansion, the* elements from each bin must either stay at same index, or move* with a power of two offset in the new table.** @return the table*/
final Node<K,V>[] resize() {Node<K,V>[] oldTab = table;int oldCap = (oldTab == null) ? 0 : oldTab.length;int oldThr = threshold;int newCap, newThr = 0;if (oldCap > 0) {if (oldCap >= MAXIMUM_CAPACITY) {threshold = Integer.MAX_VALUE;return oldTab;}else if ((newCap = oldCap << 1) < MAXIMUM_CAPACITY &&oldCap >= DEFAULT_INITIAL_CAPACITY)newThr = oldThr << 1; // double threshold}else if (oldThr > 0) // initial capacity was placed in thresholdnewCap = oldThr;else {               // zero initial threshold signifies using defaults// 默认数组长度 16newCap = DEFAULT_INITIAL_CAPACITY;// 默认扩容的临界值 0.75 * 16 = 12newThr = (int)(DEFAULT_LOAD_FACTOR * DEFAULT_INITIAL_CAPACITY);}if (newThr == 0) {float ft = (float)newCap * loadFactor;newThr = (newCap < MAXIMUM_CAPACITY && ft < (float)MAXIMUM_CAPACITY ?(int)ft : Integer.MAX_VALUE);}// 赋值扩容的临界值 12threshold = newThr;@SuppressWarnings({"rawtypes","unchecked"})// 创建一个长度为 16 的 Node 数组Node<K,V>[] newTab = (Node<K,V>[])new Node[newCap];table = newTab;if (oldTab != null) {for (int j = 0; j < oldCap; ++j) {Node<K,V> e;if ((e = oldTab[j]) != null) {oldTab[j] = null;if (e.next == null)newTab[e.hash & (newCap - 1)] = e;else if (e instanceof TreeNode)((TreeNode<K,V>)e).split(this, newTab, j, oldCap);else { // preserve orderNode<K,V> loHead = null, loTail = null;Node<K,V> hiHead = null, hiTail = null;Node<K,V> next;do {next = e.next;if ((e.hash & oldCap) == 0) {if (loTail == null)loHead = e;elseloTail.next = e;loTail = e;}else {if (hiTail == null)hiHead = e;elsehiTail.next = e;hiTail = e;}} while ((e = next) != null);if (loTail != null) {loTail.next = null;newTab[j] = loHead;}if (hiTail != null) {hiTail.next = null;newTab[j + oldCap] = hiHead;}}}}}return newTab;
}

计算 key 的 hash 值:

/*** Computes key.hashCode() and spreads (XORs) higher bits of hash* to lower.  Because the table uses power-of-two masking, sets of* hashes that vary only in bits above the current mask will* always collide. (Among known examples are sets of Float keys* holding consecutive whole numbers in small tables.)  So we* apply a transform that spreads the impact of higher bits* downward. There is a tradeoff between speed, utility, and* quality of bit-spreading. Because many common sets of hashes* are already reasonably distributed (so don't benefit from* spreading), and because we use trees to handle large sets of* collisions in bins, we just XOR some shifted bits in the* cheapest possible way to reduce systematic lossage, as well as* to incorporate impact of the highest bits that would otherwise* never be used in index calculations because of table bounds.*/
static final int hash(Object key) {int h;return (key == null) ? 0 : (h = key.hashCode()) ^ (h >>> 16);
}

判断链表是否转红黑树:

/*** Replaces all linked nodes in bin at index for given hash unless* table is too small, in which case resizes instead.*/
final void treeifyBin(Node<K,V>[] tab, int hash) {int n, index; Node<K,V> e;if (tab == null || (n = tab.length) < MIN_TREEIFY_CAPACITY)// 如果底层数组的长度小于 64,只扩容,不转红黑树resize();else if ((e = tab[index = (n - 1) & hash]) != null) {TreeNode<K,V> hd = null, tl = null;do {TreeNode<K,V> p = replacementTreeNode(e, null);if (tl == null)hd = p;else {p.prev = tl;tl.next = p;}tl = p;} while ((e = e.next) != null);if ((tab[index] = hd) != null)hd.treeify(tab);}
}

总结:

  • new HashMap<>() 时,底层没有创建数组,只赋值加载因子 loadFactor 为 0.75。
  • 首次调用 put() 方法时,底层创建长度为 16 的 Node 数组。
  • 执行 map.put(key1, value1) 操作,可能已经执行过多次 put() 方法:
    • 首先,计算 key1 所在类的 hashCode() 以及其他操作计算 key1 的哈希值,此哈希值经过某种算法计算以后,得到在 Node 数组中的存放位置。

    • 如果此位置上的数据为空,此时的 key1 - value1 添加成功。---> 情况 1

    • 如果此位置上的数据不为空,意味着此位置上存在一个或多个数据,比较 key1 和已经存在的一个或多个数据的哈希值:

      • 如果 key1 的哈希值与已经存在的数据的哈希值都不相同,此时 key1 - value1 添加成功。---> 情况 2
      • 如果 key1 的哈希值和已经存在的某一个数据(key2 - value2)的哈希值相同,则调用 key1 所在类的 equals(key2),继续比较:
        • 如果 equals() 返回 false:此时 key1 - value1 添加成功。---> 情况 3
        • 如果 equals() 返回 true:使用 value1 替换 value2。
    • 补充:关于情况 2 和情况 3,此时 key1 - value1 和原来的数据以链表的方式存储。

  • 当数组的某一个索引位置上的元素以链表形式存在的数据个数 > 8 且当前数组的长度 > 64时,此时此索引位置上的数据改为使用红黑树存储。

存储结构:数组 + 链表 + 红黑树

1722141753815

扩容过程:

  • 当 HashMap 中的元素越来越多的时候,hash 冲突的几率也就越来越高,因为底层数组的长度是固定的。所以为了提高查询的效率,就要对 HashMap 的底层数组进行扩容,而在 HashMap 数组扩容之后,最消耗性能的点就出现了:原数组中的数据必须重新计算其在新数组中的位置,并放进去,这就是resize()
  • 当 HashMap 中的元素个数超过 "数组大小(数组总大小 length,不是数组中存储的元素个数 size) * loadFactor" 时 , 就会进行数组扩容 。其中,loadFactor 的 默认值为 0.75,这是一个折中的取值,默认情况下,数组大小为 16,那么当 HashMap 中元素个数 ≥ 16 * 0.75 = 12 (这个值就是代码中的 threshold 值,也叫做临界值)且要存放的位置非空的时候,就把数组的大小扩展为 2 * 16 = 32,即扩大一倍,然后重新计算每个元素在数组中的位置,把原有的数据复制到新数组中。
  • 扩容是一个非常消耗性能的操作,如果已经预知 HashMap 中元素的个数,那么预设元素的个数能够有效的提高 HashMap 的性能。

LinkedHashMap

LinkedHashMap 在 HashMap 存储结构的基础上,使用了一对双向链表来记录添加元素的顺序,对于频繁的遍历操作,执行效率高于 HashMap。

  • LinkedHashMap 在遍历元素时,可以按照添加的顺序实现遍历。

LinkedHashMap 在原有的 HashMap 底层结构基础上,添加了一对指针 befor 和 after,指向当前元素的前一个和后一个元素:

/*** HashMap.Node subclass for normal LinkedHashMap entries.*/
static class Entry<K,V> extends HashMap.Node<K,V> {Entry<K,V> before, after;Entry(int hash, K key, V value, Node<K,V> next) {super(hash, key, value, next);}
}

原文链接

https://github.com/ACatSmiling/zero-to-zero/blob/main/JavaLanguage/java-advanced.md

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.hqwc.cn/news/772990.html

如若内容造成侵权/违法违规/事实不符,请联系编程知识网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

log工具类

package com.atheima.controller.utils;import org.slf4j.Logger; import org.slf4j.LoggerFactory;public class BaseLog {private Class clazz = null;public static Logger log;public BaseLog(){clazz = this.getClass();log = LoggerFactory.getLogger(clazz);}//第二中实…

周期信号的傅里叶级数和频谱

傅里叶级数和信号频谱 对于一个确定的时域信号,我们只需要知道它的函数表达式就可以在任意时刻确定一个信号,但是各种场景下中我们需要的往往并不是这样的解析式,因为这些复杂的式子首先难以快速准确地获得,另外难以进行快速进行分析,其中所蕴含的信息也难以提取。因此需要…

mysqld: Table '.mac_vod' is marked as crashed and should be repaired

mysqld: Table '.mac_vod' is marked as crashed and should be repaired 这类问题大多是重启服务器后导致的故障, 一般可以理解为表损坏。 解决方法其实也简单, 通过数据库管理工具,进行表修复就可以。 REPAIR TABLE mac_vod 这里的mac_vod 替换成自己的数据表名称。…

【WPF】Command 的一些使用方案

Command,即命令,具体而言,指的是实现了 ICommand 接口的对象。此接口要求实现者包含这些成员: 1、CanExecute 方法:确定该命令是否可以执行,若可,返回 true;若不可,返回 false; 2、CanExecuteChanged 事件:发送命令(命令源)的控件可以订阅此事件,当命令的可执行性…

leetcode-7

题目: 给你一个 32 位的有符号整数 x ,返回将 x 中的数字部分反转后的结果。 如果反转后整数超过 32 位的有符号整数的范围 [−231, 231 − 1] ,就返回 0。 推导:代码:class Solution { public:int reverse(int x) {int res = 0;while (x != 0) {int tmp = x % 10;if (re…

QOJ5090 妙妙题

将白色看作 \(0\),黑色看作 \(1\),并将所有人等距离排在圆上,若知道所有人颜色的异或和,就可以根据自己看见的颜色集合判断自己的颜色,且将圆等切为两半一定有少的一边的人数 \(\ge \lfloor \frac{n-1}{2} \rfloor\),但若圆两边的黑点关于切线翻转对称(如下图),则会出…

Vulfocus靶场搭建以及镜像管理界面没有镜像可以拉取的解决办法

Vulfocus靶场搭建 1.拉取vulfocue镜像 docker pull vulfocus/vulfocus:latest拉取成功2.开启靶场 首先使用ifconfig查看一下虚拟机的IP,发现为x.x.x.x 然后使用物理机去ping一下这个IP地址看看是否能ping通 若能ping通则继续下面的操作 生成docker容器 docker create -p 80:80…

BUUCTF 5.level0

很简单的一道栈溢出的题(不知道为啥解题人数却比前几个少) 直接开干:看不出啥来保护只开了NX,我们看一下IDA很明了的一道题,直接秒 exp:flag:

mysql 关于幻读

前言 什么是幻读?幻读这个概念产生是因为事物隔离级别可重复读需要解决的一个问题。 可重复读,顾名思义,就是一个事物中多次读取的结果是一致的。 那其中就包含两个需要解决的问题:虚读: 对同一行数据,每次读取的不一致。具体表现为T1读取某一数据后,当T2进行了修改,然后…

冻鳗蔓延设在MC游玩上的一些解决方案(以当期Modpacks Infinte Infinity为例,并拓展)

本文介绍了基于OPL联机工具和PCL2的LittleSkin登录来实现MC联机的操作方法文章组成 一、前言 二、游玩须知 三、Mod 解决方案 四、联机解决方案 五、拓展 一、前言 关于MC一时起兴,然后大部分人不知道怎么搞我们正在玩的模组,所以写这样一则博客来记录本期 MC 游玩的一些技术…

BUUCTF 5.pwn1_sctf_2016

拿到题目首先先运行。我们发现他是将我们输入的重新输出出来,但是第二次运行时,我输入超长字符串后,仅仅只是输出了一部分,所以我们可以猜测程序中应该有检测长度的部分,我们再检查一下保护机制。我们发现仅仅只是开了一个nx保护,那么我们直接看IDA我们发现主函数中仅仅只…

leetcode-6

题目: 将一个给定字符串 s 根据给定的行数 numRows ,以从上往下、从左到右进行 Z 字形排列。 推导:代码:class Solution { public:string convert(string s, int numRows) {if (numRows < 2) {return s;}vector<string> rows(numRows);int i = 0, flag = -1;for (…