资源共享
1块资源可能会被多个线程共享,也就是多个线程可能会访问同一块资源
比如多个线程访问同一个对象、同一个变量、同一个文件
当多个线程访问同一块资源时,很容易引发数据错乱和数据安全问题
一、解决方案
解决方案:使用线程同步技术(同步,就是协同步调,按预定的先后次序进行)
常见的线程同步技术是:加锁
1、osspinlock
osspinlock叫做”自旋锁”,等待锁的线程会处于忙等(busy-wait)状态,一直占用着cpu资源
目前已经不再安全,可能会出现优先级反转问题
如果等待锁的线程优先级较高,它会一直占用着cpu资源,优先级低的线程就无法释放锁
需要导入头文件#import<libkern/osatomic.h>
2、os_unfair_lock
os_unfair_lock用于取代不安全的osspinlock,从ios10开始才支持
从底层调用看,等待os_unfair_lock锁的线程会处于休眠状态,并非忙等
需要导入头文件#import<os/lock.h>
3、pthread_mutex
mutex叫做”互斥锁”,等待锁的线程会处于休眠状态
需要导入头文件#import<pthread.h>
pthread_mutex–普通锁
pthread_mutex–递归锁
pthread_mutex–条件
4、nslock
nslock是对mutex普通锁的封装
5、nsrecursivelock
nsrecursivelock也是对mutex递归锁的封装,api跟nslock基本一致
6、nscondition
nscondition是对mutex和cond的封装
7、nsconditionlock
nsconditionlock是对nscondition的进一步封装,可以设置具体的条件值
8、dispatch_semaphore
semaphore叫做”信号量”
信号量的初始值,可以用来控制线程并发访问的最大数量
信号量的初始值为1,代表同时只允许1条线程访问资源,保证线程同步
9、dispatch_queue(dispatch_queue_serial)
直接使用gcd的串行队列,也是可以实现线程同步的
10、@synchronized
@synchronized是对mutex递归锁的封装
源码查看:objc4中的objc-sync.mm文件()
@synchronized(obj)内部会生成obj对应的递归锁,然后进行加锁、解锁操作
二、ios线程同步方案性能比较
原则:
普通锁比递归锁性能好
语言越高级,封装的逻辑越多,性能也就越差(所有语言都如此)
实际测试
性能从高到低排序
os_unfair_lock // 缺点:ios10才支持
osspinlock // 缺点:可能出现优先级反转 已经不再安全 苹果也不推荐使用
dispatch_semaphore // 推荐使用
pthread_mutex // 优点:跨平台 互斥锁(普通锁) 推荐使用
dispatch_queue(dispatch_queue_serial) // c
nslock // oc
nscondition // oc
pthread_mutex(recursive) // 递归锁
nsrecursivelock // oc
nsconditionlock // oc
@synchronized // 递归锁 oc
三、自旋锁、互斥锁 选择
自旋锁:等待状态处于忙等
互斥锁:等待状态处于休眠
1、什么情况使用自旋锁比较划算?
预计线程等待锁的时间很短
加锁的代码(临界区)经常被调用,但竞争情况很少发生
cpu资源不紧张
多核处理器
2、什么情况使用互斥锁比较划算?
预计线程等待锁的时间较长
单核处理器
临界区有io操作
临界区代码复杂或者循环量大
临界区竞争非常激烈
四、读写锁
场景:
同一时间,只能有1个线程进行写的操作
同一时间,允许有多个线程进行读的操作
同一时间,不允许既有写的操作,又有读的操作
上面的场景就是典型的“多读单写”,经常用于文件等数据的读写操作,ios中的实现方案有:
1、读写锁:pthread_rwlock
等待锁的线程会进入休眠
2、dispatch_barrier_async
这个函数传入的并发队列必须是自己通过dispatch_queue_cretate创建的
如果传入的是一个串行或是一个全局的并发队列,那这个函数便等同于dispatch_async函数的效果
原文链接:https://blog.csdn.net/weixin_41963895/article/details/80143556