HashMap线程安全问题及解决方案

为什么线程不安全

个人觉得 HashMap 在并发时可能出现的问题主要是两方面,首先如果多个线程同时使用put方法添加元素,而且假设正好存在两个 put 的 key 发生了碰撞(根据 hash 值计算的 bucket 一样),那么根据 HashMap 的实现,这两个 key 会添加到数组的同一个位置,这样最终就会发生其中一个线程的 put 的数据被覆盖。第二就是如果多个线程同时检测到元素个数超过数组大小* loadFactor ,这样就会发生多个线程同时对 Node 数组进行扩容,都在重新计算元素位置以及复制数据,但是最终只有一个线程扩容后的数组会赋给 table,也就是说其他线程的都会丢失,并且各自线程 put 的数据也丢失。
关于 HashMap 线程不安全这一点,《Java并发编程的艺术》一书中是这样说的:

HashMap 在并发执行 put 操作时会引起死循环,导致 CPU 利用率接近100%。因为多线程会导致 HashMap 的 Node 链表形成环形数据结构,一旦形成环形数据结构,Node 的 next 节点永远不为空,就会在获取 Node 时产生死循环。

哇塞,听上去si不si好神奇,居然会产生死循环。。。。 google 了一下,才知道死循环并不是发生在 put 操作时,而是发生在扩容时。详细的解释可以看下面几篇博客:

如何线程安全的使用HashMap

了解了 HashMap 为什么线程不安全,那现在看看如何线程安全的使用 HashMap。这个无非就是以下三种方式:

  • Hashtable
  • ConcurrentHashMap
  • Synchronized Map

性能对比

这是要靠数据说话的时代,所以不能只靠嘴说 CHM 快,它就快了。写个测试用例,实际的比较一下这三种方式的效率(源码来源),下面的代码分别通过三种方式创建 Map 对象,使用 ExecutorService 来并发运行5个线程,每个线程添加/获取500K个元素。

11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66

public class CrunchifyConcurrentHashMapVsSynchronizedMap { public final static int THREAD_POOL_SIZE = 5; public static Map<String, Integer> crunchifyHashTableObject = null; public static Map<String, Integer> crunchifySynchronizedMapObject = null; public static Map<String, Integer> crunchifyConcurrentHashMapObject = null; public static void main(String[] args) throws InterruptedException { // Test with Hashtable Object crunchifyHashTableObject = new Hashtable<>(); crunchifyPerformTest(crunchifyHashTableObject); // Test with synchronizedMap Object crunchifySynchronizedMapObject = Collections.synchronizedMap( new HashMap<String, Integer>()); crunchifyPerformTest(crunchifySynchronizedMapObject); // Test with ConcurrentHashMap Object crunchifyConcurrentHashMapObject = new ConcurrentHashMap<>(); crunchifyPerformTest(crunchifyConcurrentHashMapObject); } public static void crunchifyPerformTest(final Map<String, Integer> crunchifyThreads) throws InterruptedException { System.out.println( “Test started for: “ + crunchifyThreads.getClass()); long averageTime = 0; for ( int i = 0; i < 5; i++) { long startTime = System.nanoTime(); ExecutorService crunchifyExServer = Executors.newFixedThreadPool(THREAD_POOL_SIZE); for ( int j = 0; j < THREAD_POOL_SIZE; j++) { crunchifyExServer.execute( new Runnable() { @SuppressWarnings( “unused”) @Override public void run() { for ( int i = 0; i < 500000; i++) { Integer crunchifyRandomNumber = ( int) Math.ceil(Math.random() * 550000); // Retrieve value. We are not using it anywhere Integer crunchifyValue = crunchifyThreads.get(String.valueOf(crunchifyRandomNumber)); // Put value crunchifyThreads.put(String.valueOf(crunchifyRandomNumber), crunchifyRandomNumber); } } }); } // Make sure executor stops crunchifyExServer.shutdown(); // Blocks until all tasks have completed execution after a shutdown request crunchifyExServer.awaitTermination(Long.MAX_VALUE, TimeUnit.DAYS); long entTime = System.nanoTime(); long totalTime = (entTime – startTime) / 1000000L; averageTime += totalTime; System.out.println( “2500K entried added/retrieved in “ + totalTime + ” ms”); } System.out.println( “For “ + crunchifyThreads.getClass() + ” the average time is “ + averageTime / 5 + ” ms\n”); } }

测试结果:

Test started
for: class java.util.Hashtable 2500K entried added/retrieved
in 2018 ms 2500K entried added/retrieved
in 1746 ms 2500K entried added/retrieved
in 1806 ms 2500K entried added/retrieved
in 1801 ms 2500K entried added/retrieved
in 1804 ms For class java.util.Hashtable the average time is 1835 ms Test started
for: class java.util.Collections
$SynchronizedMap 2500K entried added/retrieved
in 3041 ms 2500K entried added/retrieved
in 1690 ms 2500K entried added/retrieved
in 1740 ms 2500K entried added/retrieved
in 1649 ms 2500K entried added/retrieved
in 1696 ms For class java.util.Collections
$SynchronizedMap the average time is 1963 ms Test started
for: class java.util.concurrent.ConcurrentHashMap 2500K entried added/retrieved
in 738 ms 2500K entried added/retrieved
in 696 ms 2500K entried added/retrieved
in 548 ms 2500K entried added/retrieved
in 1447 ms 2500K entried added/retrieved
in 531 ms For class java.util.concurrent.ConcurrentHashMap the average time is 792 ms

CHM 性能是明显优于 Hashtable 和 SynchronizedMap 的,CHM 花费的时间比前两个的一半还少。

    原文作者:专注移动开发技术
    原文地址: https://blog.csdn.net/qq_33275597/article/details/79692056
    本文转自网络文章,转载此文章仅为分享知识,如有侵权,请联系博主进行删除。
点赞