disgare 的博客
首页
博客
分类
标签
首页
博客
分类
标签
  • 网络

    • 计算机网络学习笔记
    • 网络安全相关
    • 域名和子网掩码
    • CORS 跨域资源共享
    • DNS、HTTP 与 HTTPS
    • Server-Sent Events (SSE)
    • WebSocket 长连接
  • 计算机基础

    • 操作系统 IO 相关知识
    • 操作系统学习笔记
    • 程序的机器级表示
    • 音频文件基础
    • 正则表达式相关概念
    • ffmpeg 的安装以及实现音频切分功能
    • Hex 和 Base64 编码
    • XML 的使用
  • 数据结构与算法

    • 动态规划算法学习笔记
    • 基于比较的排序算法的最坏情况下的最优下界为什么是O(nlogn)
    • 集合与数据结构学习笔记
    • 面试常见算法总结
    • 算法导论第二部分排序学习笔记
    • 算法导论第一部分学习笔记
  • Java

    • 对象之间的映射与转换
    • 反射学习笔记
    • 泛型相关概念
    • 关于 boolean 类型的坑
    • 如何使用 lambda 表达式实现排序
    • CompletableFuture 相关用法
    • CompletableFuture 源码浅要阅读
    • FutureTask 源码阅读
    • Guava 常用 API
    • Guava 源码阅读:Multimap 相关
    • Jackson 的各种使用
    • Java 的 Excel 相关操作
    • java 的常见性能问题分析以及出现场景
    • java 基础知识
    • JAVA 枚举的基础和原理
    • Java 图片文件上传下载处理
    • Java 序列化
    • Java 异常
    • Java 语法糖
    • Java 中关于字符串处理的常用方法
    • Java 中强、软、弱、虚引用
    • JAVA 注解小结
    • Java Http 访问框架
    • Java Stream 的使用
    • Java8 新特性
    • netty 学习笔记
    • Scanner 的各种用法
    • Servlet 学习笔记
    • String、StringBuffer、StringBuilder 学习笔记
  • JVM

    • 虚拟机执行子系统
    • JVM 自动内存管理
    • Linux 中 JVM 常用工具以及常见问题解决思路
  • Linux

    • crontab 表达式
    • Linux 常见命令
    • Linux 文件系统
  • 中间件

    • 关于定时任务原理
    • 详解 kafka
    • ES 搜索引擎
    • flink 提交流程
    • Grape-RAG
    • Hadoop 基础原理
  • 多线程

    • 多线程基础学习笔记
    • 简单了解并发集合
      • ConcurrentHashMap
        • 1.7实现
        • 结构
        • 初始化
        • put 方法
        • 扩容
        • 1.8实现
        • 结构
        • put
      • HashTable 和 Collections.synchronizedMap
      • CopyOnWriteArrayList
      • Vector 和 Collections.synchronizedList
      • 阻塞队列
    • 如何手写单例
    • 深入理解 java 多线程安全
    • 生产者消费者问题
    • 线程池作用、用法以及原理
    • AQS 组件
    • ThreadLocal 原理以及使用
  • 非关系型数据库

    • Redis 集群
    • Redis 数据结构、对象与数据库
    • Redis 学习笔记
  • 关系型数据库

    • B+ 树的插入、删除和数据页分裂机制
    • MySQL 的 binglog、redolog、undolog
    • MySQL 的记录存储结构、存储引擎与 Buffer Pool
    • MySQL 基本的特性
    • MySQL 开发规范
    • MySQL 事务与锁与 MVCC
    • MySQL 数据类型、字符集相关内容
    • MySQL 索引与索引优化
    • PostgreSQL 更新数据时 HOT优化
    • PostgreSQL 相关用法
  • Python

    • Python 基础语法
    • Python 学习
  • Spring 项目

    • Lombok 的常用注解
    • maven 小结
    • MyBatis 框架的使用
    • MyBatis 重要知识点总结
    • MybatisPlus 的使用
    • Spring 框架基础使用
    • Spring 事务相关
    • Spring IOC 的原理及源码
    • Spring AOP 的使用和原理
    • SpringBoot 的原理
    • SpringBoot 基础使用
    • SpringWeb 重要知识点
  • 分布式

    • 初步了解 docker
    • 从 ACID 到 BASE 事务处理的实现
    • 访问远程服务
    • 分布式 id
    • 分布式缓存相关问题
    • 分布式集群理论和分布式事务协议
    • 分布式架构的观测
    • 分布式一致性算法
    • 负载均衡 Load Balancing
    • 关于分布式系统 RPC 中高可用功能的实现
    • 集群间数据同步的目的
    • 三高问题下的系统优化
    • 数据库分库分表
    • 详解 Spring Cloud
    • Dubbo 基础概念
    • Gossip 协议
    • nginx 学习笔记
    • Protobuf 通信协议
    • Zookeeper 基础学习
  • 架构设计

    • 参数校验与异常处理
    • 抽象方法与设计模式
    • 代码整洁之道
    • 权限系统设计
    • 用低内存处理大量数据
    • 设计模式——策略模式
    • 设计模式——过滤器模式在 Spring 中的实践
    • 状态模式
    • 统一结果返回
    • 为什么要打日志?怎么打日志?打什么日志?
    • 运维监控常见指标含义
    • 资深研发进阶
    • DDD 架构学习笔记
    • Java 常用的规则引擎
    • MVC 架构学习笔记
  • AI

    • 如何编写 Prompt
    • Agent 工程架构
    • LLM 相关内容
    • NLP 相关知识
    • vibe coding 最佳实践
    • windows 下 ollama 迁移到 D 盘
  • 开发工具

    • 如何画时序图、流程图、状态流转图
    • excel 关于 =vlookup 的用法
    • git 的学习以及使用
    • IDEA 插件推荐
    • IDEA 常用快捷键以及调试
    • Shell 脚本
    • swagger 的使用
  • 前端

    • 简单了解前端页面开发
    • 伪静态是什么
    • GitHub Pages 部署教程
    • Vercel 部署教程
    • vue-admin-template 简单使用
    • VuePress 博客搭建指南
  • 项目

    • 面试刷题网——技术方案
    • 影视资源聚合站——技术方案
  • 问题记录

    • 定时任务单线程消费 redis 中数据导致消费能力不足
    • 提供可传递的易受攻击的依赖项
    • Liteflow 在 SpringBoot 启动时无法注入组件问题 couldn‘t find chain with the id[THEN(NodeComponent)]
  • 金融

    • 股票分析——关于电力
    • 股票技术面——量价关系
    • 股票技术面——盘口
    • 股票技术面——基础
    • 基础的金融知识
    • 基金与股票
    • 韭菜的自我总结
    • 聊聊价值投资
  • 其他

    • 程序员职场工作需要注意什么
    • 创业全链路SOP:从灵光一现到系统化增长的实战指南
    • 观罗翔讲刑法随笔
    • 价格和价值
    • 立直麻将牌效益理论
    • 梅花易数学习笔记
    • 压力管理
2021-10-15
多线程
目录

简单了解并发集合

# ConcurrentHashMap

可以理解成线程安全的 HashMap,在 Java7 与 Java8 中的实现不一样。在使用的时候只需要调用 Maps.newConcurrentMap 即可构建一个 ConcurrentHashMap

# 1.7实现

一图解释1.7实现: 在这里插入图片描述 ConcurrentHashMap 存入数据时,会计算要 put 的 key 的位置,获取指定位置的 Segment。并且对 Segment 加锁,这么做只是避免了对整个集合加锁

# 结构

1.7之前的 ConcurrnetHashMap 由多个 Segment 组成,每一个 Segment 都类似 HashMap

Segment 的个数一旦初始化就不能改变,每一个 Segment 同时只会被一个线程修改,Segment 的个数决定了有多少个线程可以并发执行

当对 Segment 中的数据进行修改时,需要先获得锁,而 Segment 继承自可重入锁,获取锁只需要调用 tryLock 方法

也就是说,1.7的 ConcurrnetHashMap 只是多个可以上锁的 hashMap 拼起来的而已

# 初始化

在实例化对象的时候,会初始化 segments[0],默认大小为 2,负载因子 0.75,扩容阀值是 2*0.75=1.5,插入第二个值时才会进行扩容

以下是初始化源码

public ConcurrentHashMap(int initialCapacity,float loadFactor, int concurrencyLevel) {
    // 参数校验
    if (!(loadFactor > 0) || initialCapacity < 0 || concurrencyLevel <= 0)
        throw new IllegalArgumentException();
    if (concurrencyLevel > MAX_SEGMENTS)
        concurrencyLevel = MAX_SEGMENTS;
    int sshift = 0;
    int ssize = 1;
    while (ssize < concurrencyLevel) {
        ++sshift;
        ssize <<= 1;
    }
    // 记录段偏移量
    this.segmentShift = 32 - sshift;
    // 记录段掩码
    this.segmentMask = ssize - 1;
    // 设置容量
    if (initialCapacity > MAXIMUM_CAPACITY)
        initialCapacity = MAXIMUM_CAPACITY;
    int c = initialCapacity / ssize;
    if (c * ssize < initialCapacity)
        ++c;
    int cap = MIN_SEGMENT_TABLE_CAPACITY;
    while (cap < c)
        cap <<= 1;
    Segment<K,V> s0 = new Segment<K,V>(loadFactor, (int)(cap * loadFactor),
                         (HashEntry<K,V>[])new HashEntry[cap]);
    Segment<K,V>[] ss = (Segment<K,V>[])new Segment[ssize];
    UNSAFE.putOrderedObject(ss, SBASE, s0); 
    this.segments = ss;
}
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31

上面的主要流程是:

1,参数校验 2,如果 concurrencyLevel 大于最大值,Segment 数目设为为最大值。无参构造默认值是16;否则寻找 concurrencyLevel 之上最近的2的幂次方值,作为初始化容量大小 3,记录 segmentShift 偏移量,这个值为【容量 = 2 的N次方】中的 N,在后面 Put 时计算位置时会用到。默认是 32 - sshift = 28

记录 segmentMask,默认是 ssize - 1 = 16 -1 = 15 初始化 segments[0],默认大小为 2,负载因子 0.75,扩容阀值是 2*0.75=1.5,插入第二个值时才会进行扩容

在 put 方法中,当其他的 segment 被需要时,使用 Segment[0] 的容量和负载因子创建一个新的 HashEntry 数组

由于可能有多个线程对这个集合进行操作,在复制时会多次判断这个 segment 是否为 null,并用 CAS 来进行操作

# put 方法

由 hash 函数计算出这个键值对属于哪一个 segment,hash 函数与 HashMap 中的不同,segmentShift 是偏移量。Segment 继承了 ReentrantLock,所以直接对自己上锁即可

    int j = (hash >>> segmentShift) & segmentMask;
1

计算出数据属于哪一个 segment 之后有两种情况, segment 没有初始化和已经初始化的情况:

    if ((s = (Segment<K,V>)UNSAFE.getObject      
         (segments, (j << SSHIFT) + SBASE)) == null) 
        s = ensureSegment(j);
    return s.put(key, hash, value, false);
1
2
3
4

没有初始化,执行 ensureSegment 方法。它也只干了三件事:

1,检查计算得到的位置的 Segment 是否为 null.,为 null 继续初始化,不然的话使用Segment[0]的容量和负载因子创建一个HashEntry数组 2,再次检查计算得到的指定位置的Segment是否为null,使用创建的HashEntry数组初始化这个Segment 3,自旋判断计算得到的指定位置的Segment是否为null,使用CAS在这个位置赋值为Segment

private Segment<K,V> ensureSegment(int k) {
    final Segment<K,V>[] ss = this.segments;
    long u = (k << SSHIFT) + SBASE; 
    Segment<K,V> seg;
    if ((seg = (Segment<K,V>)UNSAFE.getObjectVolatile(ss, u)) == null) {
        Segment<K,V> proto = ss[0]; 
        int cap = proto.table.length;
        float lf = proto.loadFactor;
        int threshold = (int)(cap * lf);
        HashEntry<K,V>[] tab = (HashEntry<K,V>[])new HashEntry[cap];
        if ((seg = (Segment<K,V>)UNSAFE.getObjectVolatile(ss, u)) == null) { 
            Segment<K,V> s = new Segment<K,V>(lf, threshold, tab);
            while ((seg = (Segment<K,V>)UNSAFE.getObjectVolatile(ss, u))
                   == null) {
                if (UNSAFE.compareAndSwapObject(ss, u, null, seg = s))
                    break;
            }
        }
    }
    return seg;
}
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21

已经初始化:

tryLock() 获取锁,获取不到使用 scanAndLockForPut 方法(这个方法中自旋调用 tryLock 方法,当自旋次数大于指定次数时,使用 lock() 阻塞获取锁)继续获取。后续的步骤和 hashmap 基本类似,不再说明

# 扩容

和 hashmap 一样,大于扩容阈值后开始扩容,不过只能在 segment 内部进行扩容,segment 的数量是不能改变的

ConcurrentHashMap 的扩容只会扩容到原来的两倍。老数组里的数据移动到新的数组时,位置要么不变,要么变为 index+oldSize,参数里的 node 会在扩容之后使用链表头插法插入到指定位置

为什么位置要么不变,要么变为 index+oldSize?

因为扩容后哈希函数多了一位比特,这位要么是1要么是0,而这对应的就是 index 的有无

# 1.8实现

# 结构

1.7 中,每个数据存放和取出都需要计算两次位置(查找段一次,查找 hashMap 一次),我们在1.8中优化了这个问题

现在的 ConcurrnetHashMap 和普通的 HashMap 结构差不多,是 Node 数组和链表加红黑树,这样就少了一次 hash 值的计算。还有一个优化就是会将 node 数组扩容 在这里插入图片描述

# put

ConcurrentHashMap 的初始化是通过自旋和 CAS 操作完成的

使用 hash 函数计算出位置后:

1,如果当前位置的 Node 数组没有被初始化,使用自旋和 CAS 来构造这个 Node 数组 2,如果 Node 数组为空表示当前位置可以写入数据,利用 CAS 尝试写入,失败则进行重试,这里不会上悲观锁 3,如果当前位置的 MOVED == -1(扩容标识),则需要进行扩容 5,如果不需要扩容则会用 synchronized 锁写入数据,synchronized 只锁定当前链表或红黑二叉树的首节点,这样只要 hash 不冲突,就不会产生并发 4,若检测到其他线程正在扩容(节点 hash 值为 MOVED),当前线程会协助迁移数据(helpTransfer),加速扩容过程。具体方式是每个线程负责一个区间的节点迁移,提升扩容效率。

扩容:

1,和 hashmap 一样,大于扩容阈值后开始扩容 2,同 HashMap 一样,链表也会在长度达到 8 的时候转化为红黑树,这样可以提升大量冲突时候的查询效率 3,ConcurrentHashMap 的扩容会将 node 数组扩容

# HashTable 和 Collections.synchronizedMap

线程安全的 HashMap,大多数方法用 synchronized 标记实现同步。HashTable 是较为远古的使用 Hash 算法的容器结构了,现在基本已被淘汰,单线程转为使用 HashMap,多线程使用 ConcurrentHashMap

在 java17 中,你甚至都找不到它 在这里插入图片描述 我们在使用的时候可以直接调用 Collections.synchronizedMap 来创建一个线程安全的 HashMap,他的实现原理和 HashTable 基本类似请添加图片描述

# CopyOnWriteArrayList

线程安全的 ArrayList

读操作远远大于写操作使用,因为这个结构对读操作不上锁,并对所有可变操作创建新数组并修改新数组来实现,在修改后直接将引用指向修改完的数组。所有可变操作都会上锁以保证操作的原子性

# Vector 和 Collections.synchronizedList

线程安全的 ArrayList,因为里面装的是对象数组

    protected Object[] elementData;
1

使用 synchronized 实现同步

一般在项目中不直接使用 Vector 了,我们现在使用 Collections.synchronizedList 来提供并发 list,它的同步原理和 Vector 类似:

    public static <T> List<T> synchronizedList(List<T> list) {
        return (list instanceof RandomAccess ?
                new SynchronizedRandomAccessList<>(list) :
                new SynchronizedList<>(list));
    }
1
2
3
4
5

SynchronizedList 的部分源码,可以看到他也使用 synchronized 做同步 请添加图片描述

# 阻塞队列

这个接口叫 BolckingQueue,其下所有的实现类都是实现一定同步功能的。阻塞队列的意思是,该队列在被清空的时候自动阻塞拿取元素的方法,队列在满的时候自动阻塞存放元素的方法,优点是我们不用去关心底层的同步问题,可以用于解决生产者消费者

下面是一些阻塞队列的常见实现类:

ArrayBlockingQueue
LinkedBlockingQueue
LinkedBlockingDeque
PriorityBlockingQueue
1
2
3
4
#并发集合
最后更新: 2/23/2026, 9:23:04 AM
多线程基础学习笔记
如何手写单例

← 多线程基础学习笔记 如何手写单例→

最近更新
01
vibe coding 最佳实践
02-24
02
立直麻将牌效益理论
02-23
03
伪静态是什么
02-08
更多文章>
Theme by Vdoing
  • 跟随系统
  • 浅色模式
  • 深色模式
  • 阅读模式