02什么是CPU上下文切换

上⼀节, 讲了要怎么理解平均负载( Load Average) , 并⽤三个案例展示了不同场景下平均负载升⾼的分析⽅法。 这其中, 多个进程竞争 CPU 就是⼀个经常被我们忽视的问题。

1、CPU上下文切换的概念

我想你⼀定很好奇, 进程在竞争 CPU 的时候并没有真正运⾏, 为什么还会导致系统的负载升⾼呢? 看到今天的主题, 你应该已经猜到了, CPU 上下⽂切换就是罪魁祸⾸。

我们都知道, Linux 是⼀个多任务操作系统, 它⽀持远⼤于 CPU 数量的任务同时运⾏。 当然, 这些任务实际上并不是真的在同时运⾏, ⽽是因为系统在很短的时间内, 将 CPU 轮流分配给它们, 造成多任务同时运⾏的错觉。

⽽在每个任务运⾏前, CPU 都需要知道任务从哪⾥加载、 ⼜从哪⾥开始运⾏, 也就是说, 需要系统事先帮它设置好 CPU 寄存器和程序计数器(Program Counter, PC) 。

CPU 寄存器, 是 CPU 内置的容量⼩、 但速度极快的内存。 ⽽程序计数器, 则是⽤来存储 CPU 正在执⾏的指令位置、 或者即将执⾏的下⼀条指令位置。 它们都是 CPU 在运⾏任何任务前, 必须的依赖环境, 因此也被叫做 CPU 上下⽂
在这里插入图片描述

知道了什么是 CPU 上下⽂, 我想你也很容易理解 CPU 上下⽂切换。 CPU 上下⽂切换, 就是先把前⼀个任务的 CPU 上下⽂(也就是 CPU 寄存器和程序计数器) 保存起来, 然后加载新任务的上下⽂到这些寄存器和程序计数器, 最后再跳转到程序计数器所指的新位置, 运⾏新任务。

⽽这些保存下来的上下⽂, 会存储在系统内核中, 并在任务重新调度执⾏时再次加载进来。 这样就能保证任务原来的状态不受影响, 让任务看起来还是连续运⾏。

我猜肯定会有⼈说, CPU 上下⽂切换⽆⾮就是更新了 CPU 寄存器的值嘛, 但这些寄存器, 本身就是为了快速运⾏任务⽽设计的, 为什么会影响系统的 CPU 性能呢?

在回答这个问题前, 不知道你有没有想过, 操作系统管理的这些“任务”到底是什么呢?

也许你会说, 任务就是进程, 或者说任务就是线程。 是的, 进程和线程正是最常⻅的任务。 但是除此之外, 还有没有其他的任务呢?

不要忘了, 硬件通过触发信号, 会导致中断处理程序的调⽤, 也是⼀种常⻅的任务。

2、CPU上下文切换的分类

所以, 根据任务的不同, CPU 的上下⽂切换就可以分为⼏个不同的场景, 也就是进程上下⽂切换线程上下⽂切换以及中断上下⽂切换

这节课我就带你来看看, 怎么理解这⼏个不同的上下⽂切换, 以及它们为什么会引发 CPU 性能相关问题。

2.1 进程上下⽂切换

Linux 按照特权等级, 把进程的运⾏空间分为内核空间和⽤户空间, 分别对应着下图中, CPU 特权等级的 Ring 0 和 Ring3。

  • ​ 内核空间(Ring 0) 具有最⾼权限, 可以直接访问所有资源;

  • ​ ⽤户空间(Ring 3) 只能访问受限资源, 不能直接访问内存等硬件设备, 必须通过系统调⽤陷⼊到内核中, 才能访问这些特权资源。

在这里插入图片描述

换个⻆度看, 也就是说, 进程既可以在⽤户空间运⾏, ⼜可以在内核空间中运⾏。 进程在⽤户空间运⾏时, 被称为进程的⽤户态, ⽽陷⼊内核空间的时候, 被称为进程的内核态。

从⽤户态到内核态的转变, 需要通过系统调⽤来完成。 ⽐如, 当我们查看⽂件内容时, 就需要多次系统调⽤来完成: ⾸先调⽤open() 打开⽂件, 然后调⽤ read() 读取⽂件内容, 并调⽤ write() 将内容写到标准输出, 最后再调⽤ close() 关闭⽂件。

那么, 系统调⽤的过程有没有发⽣ CPU 上下⽂的切换呢? 答案⾃ 然是肯定的。

CPU 寄存器⾥原来⽤户态的指令位置, 需要先保存起来。 接着, 为了执⾏内核态代码, CPU 寄存器需要更新为内核态指令的新位置。 最后才是跳转到内核态运⾏内核任务。

⽽系统调⽤结束后, CPU寄存器需要恢复原来保存的⽤户态, 然后再切换到⽤户空间, 继续运⾏进程。 所以, ⼀次系统调⽤的过程, 其实是发⽣了两次 CPU 上下⽂切换。

不过, 需要注意的是, 系统调⽤过程中, 并不会涉及到虚拟内存等进程⽤户态的资源, 也不会切换进程。 这跟我们通常所说的进程上下⽂切换是不⼀样的:

进程上下⽂切换, 是指从⼀个进程切换到另⼀个进程运⾏。

⽽系统调⽤过程中⼀直是同⼀个进程在运⾏。

所以, 系统调⽤过程通常称为特权模式切换, ⽽不是上下⽂切换。 但实际上, 系统调⽤过程中, CPU 的上下⽂切换还是⽆法避免的。

那么, 进程上下⽂切换跟系统调⽤⼜有什么区别呢?

⾸先, 你需要知道, 进程是由内核来管理和调度的, 进程的切换只能发⽣在内核态。 所以, 进程的上下⽂不仅包括了虚拟内存、 栈、 全局变量等⽤户空间的资源, 还包括了内核堆栈、 寄存器等内核空间的状态。

因此, 进程的上下⽂切换就⽐系统调⽤时多了⼀步: 在保存当前进程的内核状态和CPU寄存器之前, 需要先把该进程的虚拟内存、 栈等保存下来; ⽽加载了下⼀进程的内核态后, 还需要刷新进程的虚拟内存和⽤户栈。

如下图所示, 保存上下⽂和恢复上下⽂的过程并不是“免费”的, 需要内核在 CPU 上运⾏才能完成。
在这里插入图片描述

根据 Tsuna 的测试报告, 每次上下⽂切换都需要⼏⼗纳秒到数微秒的 CPU 时间。 这个时间还是相当可观的, 特别是在进程上下⽂切换次数较多的情况下, 很容易导致 CPU 将⼤量时间耗费在寄存器、 内核栈以及虚拟内存等资源的保存和恢复上, 进⽽⼤⼤缩短了真正运⾏进程的时间。 这也正是上⼀节中我们所讲的, 导致平均负载升⾼的⼀个重要因素。

另外, 我们知道, Linux 通过 TLB(Translation Lookaside Buffer) 来管理虚拟内存到物理内存的映射关系。 当虚拟内存更新后, TLB 也需要刷新, 内存的访问也会随之变慢。 特别是在多处理器系统上, 缓存是被多个处理器共享的, 刷新缓存不仅会影响当前处理器的进程, 还会影响共享缓存的其他处理器的进程。

知道了进程上下⽂切换潜在的性能问题后, 我们再来看, 究竟什么时候会切换进程上下⽂。

显然, 进程切换时才需要切换上下⽂, 换句话说, 只有在进程调度的时候, 才需要切换上下⽂。 Linux 为每个 CPU 都维护了⼀个就绪队列, 将活跃进程(即正在运⾏和正在等待CPU的进程) 按照优先级和等待 CPU 的时间排序, 然后选择最需要CPU 的进程, 也就是优先级最⾼和等待CPU时间最⻓的进程来运⾏。

那么, 进程在什么时候才会被调度到 CPU 上运⾏呢?

最容易想到的⼀个时机, 就是进程执⾏完终⽌了, 它之前使⽤的CPU会释放出来, 这个时候再从就绪队列⾥, 拿⼀个新的进程过来运⾏。 其实还有很多其他场景, 也会触发进程调度, 在这⾥我给你逐个梳理下。

  • 其⼀, 为了保证所有进程可以得到公平调度, CPU时间被划分为⼀段段的时间⽚, 这些时间⽚再被轮流分配给各个进程。 这样, 当某个进程的时间⽚耗尽了, 就会被系统挂起, 切换到其它正在等待 CPU 的进程运⾏。
  • 其⼆, 进程在系统资源不⾜(⽐如内存不⾜) 时, 要等到资源满⾜后才可以运⾏, 这个时候进程也会被挂起, 并由系统调度其他进程运⾏。
  • 其三, 当进程通过睡眠函数 sleep 这样的⽅法将⾃ ⼰主动挂起时, ⾃然也会重新调度。
  • 其四, 当有优先级更⾼的进程运⾏时, 为了保证⾼优先级进程的运⾏, 当前进程会被挂起, 由⾼优先级进程来运⾏。
  • 最后⼀个, 发⽣硬件中断时, CPU上的进程会被中断挂起, 转⽽执⾏内核中的中断服务程序。

了解这⼏个场景是⾮常有必要的, 因为⼀旦出现上下⽂切换的性能问题, 它们就是幕后凶⼿。

2.2 线程上下⽂切换

说完了进程的上下⽂切换, 我们再来看看线程相关的问题。

线程与进程最⼤的区别在于, 线程是调度的基本单位, ⽽进程则是资源拥有的基本单位。 说⽩了, 所谓内核中的任务调度, 实际上的调度对象是线程; ⽽进程只是给线程提供了虚拟内存、 全局变量等资源。 所以, 对于线程和进程, 我们可以这么理解:

当进程只有⼀个线程时, 可以认为进程就等于线程。

当进程拥有多个线程时, 这些线程会共享相同的虚拟内存和全局变量等资源。 这些资源在上下⽂切换时是不需要修改的。

另外, 线程也有⾃⼰的私有数据, ⽐如栈和寄存器等, 这些在上下⽂切换时也是需要保存的。

这么⼀来, 线程的上下⽂切换其实就可以分为两种情况:

第⼀种, 前后两个线程属于不同进程。 此时, 因为资源不共享, 所以切换过程就跟进程上下⽂切换是⼀样。

第⼆种, 前后两个线程属于同⼀个进程。 此时, 因为虚拟内存是共享的, 所以在切换时, 虚拟内存这些资源就保持不动, 只需要切换线程的私有数据、 寄存器等不共享的数据。

到这⾥你应该也发现了, 虽然同为上下⽂切换, 但同进程内的线程切换, 要⽐多进程间的切换消耗更少的资源, ⽽这, 也正是多线程代替多进程的⼀个优势。

2.3 中断上下⽂切换

除了前⾯两种上下⽂切换, 还有⼀个场景也会切换 CPU 上下⽂, 那就是中断。

为了快速响应硬件的事件, 中断处理会打断进程的正常调度和执⾏, 转⽽调⽤中断处理程序, 响应设备事件。 ⽽在打断其他进程时, 就需要将进程当前的状态保存下来, 这样在中断结束后, 进程仍然可以从原来的状态恢复运⾏。

跟进程上下⽂不同, 中断上下⽂切换并不涉及到进程的⽤户态。 所以, 即便中断过程打断了⼀个正处在⽤户态的进程, 也不需要保存和恢复这个进程的虚拟内存、 全局变量等⽤户态资源。 中断上下⽂, 其实只包括内核态中断服务程序执⾏所必需的状态, 包括CPU 寄存器、 内核堆栈、 硬件中断参数等。

对同⼀个 CPU 来说, 中断处理⽐进程拥有更⾼的优先级, 所以中断上下⽂切换并不会与进程上下⽂切换同时发⽣。 同样道理, 由于中断会打断正常进程的调度和执⾏, 所以⼤部分中断处理程序都短⼩精悍, 以便尽可能快的执⾏结束。

另外, 跟进程上下⽂切换⼀样, 中断上下⽂切换也需要消耗CPU, 切换次数过多也会耗费⼤量的 CPU, 甚⾄严重降低系统的整体性能。 所以, 当你发现中断次数过多时, 就需要注意去排查它是否会给你的系统带来严重的性能问题。

3、怎么查看系统的上下⽂切换情况

通过前⾯学习我们知道, 过多的上下⽂切换, 会把CPU 时间消耗在寄存器、 内核栈以及虚拟内存等数据的保存和恢复上, 缩短进程真正运⾏的时间, 成了系统性能⼤幅下降的元凶。

既然上下⽂切换对系统性能影响那么⼤, 到底要怎么查看上下⽂切换呢? 在这⾥, 我们可以使⽤vmstat 这个⼯具, 来查询系统的上下⽂切换情况。

如何确认vmstat的安装包呢?
# sudo apt install -y apt-file
# sudo apt-file update
# sudo apt-file search vmstat
...
procps: /usr/share/man/man8/vmstat.8.gz
...
以上就可以确认vmstat命令是需要安装procps安装包
# 安装vmstat命令:
sudo apt install -y procps
sudo yum install -y proc-ng
vmstat 命令是 procp-ng 软件包的⼀部分,其中包含其他⼀些实⽤的性能分析命令,如 free 和 top。vmstat(VirtualMeomoryStatistics,虚拟内存统计)是Linux中监控内存的常用工具,可对操作系统的虚拟内存、进程、CPU等的整体情况进行监视。
如果不使⽤任何参数,vmstat 命令将显⽰⾃启动以来系统各个统计信息的平均值。vmstat 命令可接受似于 sysstat 软件包实⽤程序的两个参数。其中,第⼀个参数为 delay 选项,第⼆个参数为 count 选项。
默认情况下,内存统计信息将以 KiB 为单位来报告。通过 -S 选项,可分别使⽤ -S k、-S m 和 -S M 选项将报告单位变更为 KB、MB 或 MiB。
命令参数详解:
vmstat [options] [delay [count] ]
-a:显示活跃和非活跃内存
-f:显示从系统启动至今的fork数量 。
-m:显示slabinfo
-n:只在开始时显示一次各字段名称。
-s:显示内存相关统计信息及多种系统活动数量。
delay:刷新时间间隔。如果不指定,只显示一条结果。
count:刷新次数。如果不指定刷新次数,但指定了刷新时间间隔,这时刷新次数为无穷。
-d:显示磁盘相关统计信息。
-p:显示指定磁盘分区统计信息
-S:使用指定单位显示。默认单位为K(1024 bytes)。

vmstat 是⼀个常⽤的系统性能分析⼯具, 主要⽤来分析系统的内存使⽤情况, 也常⽤来分析 CPU 上下⽂切换和中断的次数。⽐如, 下⾯就是⼀个 vmstat 的使⽤示例:

# 每隔5秒输出1组数据
$ vmstat 5
procs -----------memory---------- ---swap-- -----io---- -system-- ------cpu-----r  b  swpd  free  buff  cache  si  so   bi   bo  in  cs us sy id wa st0  0    0 7005360  91564 818900   0   0   0   0  25  33  0  0 100  0  0

我们⼀起来看这个结果, 你可以先试着⾃ ⼰解读每列的含义。 在这⾥, 我重点强调下, 需要特别关注的四列内容:

cs(context switch) 是每秒上下⽂切换的次数。
in(interrupt) 则是每秒中断的次数。
r(Running or Runnable) 是就绪队列的⻓度, 也就是正在运⾏和等待CPU的进程数。
b(Blocked) 则是处于不可中断睡眠状态的进程数。

可以看到, 这个例⼦中的上下⽂切换次数 cs 是33次, ⽽系统中断次数 in 则是25次, ⽽就绪队列⻓度r和不可中断状态进程数b都是0。

vmstat 只给出了系统总体的上下⽂切换情况, 要想查看每个进程的详细情况, 就需要使⽤我们前⾯提到过的 pidstat 了。 给它加上 -w 选项, 你就可以查看每个进程上下⽂切换的情况了。⽐如说:

# 每隔5秒输出1组数据
$ pidstat -w 5
Linux 4.15.0 (ubuntu)  09/23/18  _x86_64_  (2 CPU)08:18:26    UID    PID  cswch/s nvcswch/s  Command
08:18:31     0     1    0.20    0.00  systemd
08:18:31     0     8    5.40    0.00  rcu_sched...

这个结果中有两列内容是我们的重点关注对象。 ⼀个是 cswch , 表示每秒⾃愿上下⽂切换(voluntary context switches) 的次数, 另⼀个则是 nvcswch , 表示每秒⾮⾃愿上下⽂切换(non voluntary context switches) 的次数。

这两个概念意味着不同的性能问题:

所谓⾃愿上下⽂切换, 是指进程⽆法获取所需资源, 导致的上下⽂切换。 ⽐如说, I/O、 内存等系统资源不⾜时, 就会发⽣⾃ 愿上下⽂切换。

⾮⾃愿上下⽂切换, 则是指进程由于时间⽚已到等原因, 被系统强制调度, 进⽽发⽣的上下⽂切换。 ⽐如说, ⼤量进程都在争抢 CPU 时, 就容易发⽣⾮⾃愿上下⽂切换。

4、案例分析

知道了怎么查看这些指标, 另⼀个问题⼜来了, 上下⽂切换频率是多少次才算正常呢? 别急着要答案, 同样的, 我们先来看⼀个上下⽂切换的案例。 通过案例实战演练, 你⾃ ⼰就可以分析并找出这个标准了。

你的准备

今天的案例, 我们将使⽤ sysbench 来模拟系统多线程调度切换的情况。

sysbench 是⼀个多线程的基准测试⼯具, ⼀般⽤来评估不同系统参数下的数据库负载情况。 当然, 在这次案例中, 我们只把它当成⼀个异常进程来看, 作⽤是模拟上下⽂切换过多的问题。

下⾯的案例基于 Ubuntu 18.04, 当然, 其他的 Linux 系统同样适⽤。 我使⽤的案例环境如下所示:

  • 机器配置: 2 CPU, 8GB 内存
  • 预先安装 sysbench 和 sysstat 包, 如 apt install sysbench sysstat

正式操作开始前, 你需要打开三个终端, 登录到同⼀台 Linux 机器中, 并安装好上⾯提到的两个软件包。

另外注意, 下⾯所有命令, 都默认以 root ⽤户运⾏。 所以, 如果你是⽤普通⽤户登陆的系统, 记住先运⾏ sudo su root 命令切换到 root ⽤户。

安装完成后, 你可以先⽤ vmstat 看⼀下空闲系统的上下⽂切换次数:

# 间隔1秒后输出1组数据
$ vmstat 1 1
procs -----------memory---------- ---swap-- -----io---- -system-- ------cpu-----r  b  swpd  free  buff  cache  si  so   bi   bo  in  cs us sy id wa st0  0    0 6984064  92668 830896   0   0   2   19  19  35  1  0 99  0  0

这⾥你可以看到, 现在的上下⽂切换次数 cs 是35, ⽽中断次数 in 是19, r和b都是0。 因为这会⼉我并没有运⾏其他任务, 所以它们就是空闲系统的上下⽂切换次数。

操作和分析

接下来, 我们正式进⼊实战操作。

⾸先, 在第⼀个终端⾥运⾏ sysbench , 模拟系统多线程调度的瓶颈:

# 以10个线程运行5分钟的基准测试,模拟多线程切换的问题
$ sysbench --threads=10 --max-time=300 threads run

接着, 在第⼆个终端运⾏ vmstat , 观察上下⽂切换情况:

# 每隔1秒输出1组数据(需要Ctrl+C才结束)
$ vmstat 1
procs -----------memory---------- ---swap-- -----io---- -system-- ------cpu-----r  b   swpd   free   buff  cache   si   so    bi    bo   in   cs us sy id wa st6  0      0 6487428 118240 1292772    0    0     0     0 9019 1398830 16 84  0  0  08  0      0 6487428 118240 1292772    0    0     0     0 10191 1392312 16 84  0  0  0

你应该可以发现, cs 列的上下⽂切换次数从之前的 35 骤然上升到了 139 万。 同时, 注意观察其他⼏个指标:

r 列:就绪队列的长度已经到了 8,远远超过了系统 CPU 的个数 2,所以肯定会有大量的 CPU 竞争。
us(user)和 sy(system)列:这两列的 CPU 使用率加起来上升到了 100%,其中系统 CPU 使用率,也就是 sy 列高达 84%,说明 CPU 主要是被内核占用了。
in  列:中断次数也上升到了 1 万左右,说明中断处理也是个潜在的问题。

综合这⼏个指标, 我们可以知道, 系统的就绪队列过⻓, 也就是正在运⾏和等待CPU的进程数过多, 导致了⼤量的上下⽂切换, ⽽上下⽂切换⼜导致了系统 CPU 的占⽤率升⾼。

那么到底是什么进程导致了这些问题呢?

我们继续分析, 在第三个终端再⽤ pidstat 来看⼀下, CPU 和进程上下⽂切换的情况:

# 每隔1秒输出1组数据(需要 Ctrl+C 才结束)
# -w参数表示输出进程切换指标,而-u参数则表示输出CPU使用指标
$ pidstat -w -u 1
08:06:33      UID       PID    %usr %system  %guest   %wait    %CPU   CPU  Command
08:06:34        0     10488   30.00  100.00    0.00    0.00  100.00     0  sysbench
08:06:34        0     26326    0.00    1.00    0.00    0.00    1.00     0  kworker/u4:208:06:33      UID       PID   cswch/s nvcswch/s  Command
08:06:34        0         8     11.00      0.00  rcu_sched
08:06:34        0        16      1.00      0.00  ksoftirqd/1
08:06:34        0       471      1.00      0.00  hv_balloon
08:06:34        0      1230      1.00      0.00  iscsid
08:06:34        0      4089      1.00      0.00  kworker/1:5
08:06:34        0      4333      1.00      0.00  kworker/0:3
08:06:34        0     10499      1.00    224.00  pidstat
08:06:34        0     26326    236.00      0.00  kworker/u4:2
08:06:34     1000     26784    223.00      0.00  sshd

从pidstat的输出你可以发现, CPU 使⽤率的升⾼果然是 sysbench 导致的, 它的 CPU 使⽤率已经达到了 100%。 但上下⽂切换则是来⾃其他进程, 包括⾮⾃愿上下⽂切换频率最⾼的 pidstat , 以及⾃ 愿上下⽂切换频率最⾼的内核线程 kworker 和sshd。

不过, 细⼼的你肯定也发现了⼀个怪异的事⼉: pidstat 输出的上下⽂切换次数, 加起来也就⼏百, ⽐ vmstat 的 139 万明显⼩了太多。 这是怎么回事呢? 难道是⼯具本身出了错吗?

别着急, 在怀疑⼯具之前, 我们再来回想⼀下, 前⾯讲到的⼏种上下⽂切换场景。 其中有⼀点提到, Linux 调度的基本单位实际上是线程, ⽽我们的场景 sysbench 模拟的也是线程的调度问题, 那么, 是不是 pidstat 忽略了线程的数据呢?

通过运⾏ man pidstat , 你会发现, pidstat 默认显示进程的指标数据, 加上 -t 参数后, 才会输出线程的指标。

所以, 我们可以在第三个终端⾥, Ctrl+C 停⽌刚才的 pidstat 命令, 再加上 -t 参数, 重试⼀下看看:

# 每隔1秒输出一组数据(需要 Ctrl+C 才结束)
# -wt 参数表示输出线程的上下文切换指标
$ pidstat -wt 1
08:14:05      UID      TGID       TID   cswch/s nvcswch/s  Command
...
08:14:05        0     10551         -      6.00      0.00  sysbench
08:14:05        0         -     10551      6.00      0.00  |__sysbench
08:14:05        0         -     10552  18911.00 103740.00  |__sysbench
08:14:05        0         -     10553  18915.00 100955.00  |__sysbench
08:14:05        0         -     10554  18827.00 103954.00  |__sysbench
...

现在你就能看到了, 虽然 sysbench 进程(也就是主线程) 的上下⽂切换次数看起来并不多, 但它的⼦线程的上下⽂切换次数却有很多。 看来, 上下⽂切换罪魁祸⾸, 还是过多的 sysbench 线程。

我们已经找到了上下⽂切换次数增多的根源, 那是不是到这⼉就可以结束了呢?

当然不是。 不知道你还记不记得, 前⾯在观察系统指标时, 除了上下⽂切换频率骤然升⾼, 还有⼀个指标也有很⼤的变化。 是的, 正是中断次数。 中断次数也上升到了1万, 但到底是什么类型的中断上升了, 现在还不清楚。 我们接下来继续抽丝剥茧找源头。

既然是中断, 我们都知道, 它只发⽣在内核态, ⽽ pidstat 只是⼀个进程的性能分析⼯具, 并不提供任何关于中断的详细信息, 怎样才能知道中断发⽣的类型呢?

没错, 那就是从 /proc/interrupts 这个只读⽂件中读取。 /proc 实际上是 Linux 的⼀个虚拟⽂件系统, ⽤于内核空间与⽤户空间之间的通信。 /proc/interrupts 就是这种通信机制的⼀部分, 提供了⼀个只读的中断使⽤情况。

在第三个终端⾥, Ctrl+C 停⽌刚才的 pidstat 命令, 然后运⾏下⾯的命令, 观察中断的变化情况:

# -d 参数表示高亮显示变化的区域
$ watch -d cat /proc/interruptsCPU0       CPU1
...
RES:    2450431    5279697   Rescheduling interrupts
...

观察⼀段时间, 你可以发现, 变化速度最快的是重调度中断(RES) , 这个中断类型表示, 唤醒空闲状态的 CPU 来调度新的任务运⾏。 这是多处理器系统(SMP) 中, 调度器⽤来分散任务到不同 CPU 的机制, 通常也被称为处理器间中断(InterProcessor Interrupts, IPI) 。

所以, 这⾥的中断升⾼还是因为过多任务的调度问题, 跟前⾯上下⽂切换次数的分析结果是⼀致的。

通过这个案例, 你应该也发现了多⼯具、 多⽅⾯指标对⽐观测的好处。 如果最开始时, 我们只⽤了 pidstat 观测, 这些很严重的上下⽂切换线程, 压根⼉就发现不了了。

现在再回到最初的问题, 每秒上下⽂切换多少次才算正常呢?

这个数值其实取决于系统本身的 CPU 性能。 如果系统的上下⽂切换次数⽐较稳定, 那么从数百到⼀万以内, 都应该算是正常的。 但当上下⽂切换次数超过⼀万次, 或者切换次数出现数量级的增⻓时, 就很可能已经出现了性能问题。

这时, 你还需要根据上下⽂切换的类型, 再做具体分析。 ⽐⽅说:

  1. ⾃愿上下⽂切换变多了, 说明进程都在等待资源, 有可能发⽣了 I/O 等其他问题;
  2. ⾮⾃愿上下⽂切换变多了, 说明进程都在被强制调度, 也就是都在争抢 CPU, 说明 CPU 的确成了瓶颈;
  3. 中断次数变多了, 说明 CPU 被中断处理程序占⽤, 还需要通过查看 /proc/interrupts ⽂件来分析具体的中断类型。

5、⼩结

总结⼀下, 不管是哪种场景导致的上下⽂切换, 你都应该知道:

  1. CPU 上下⽂切换, 是保证 Linux 系统正常⼯作的核⼼功能之⼀, ⼀般情况下不需要我们特别关注。

  2. 但过多的上下⽂切换, 会把CPU时间消耗在寄存器、 内核栈以及虚拟内存等数据的保存和恢复上, 从⽽缩短进程真正运⾏的时间, 导致系统的整体性能⼤幅下降。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.hqwc.cn/news/284437.html

如若内容造成侵权/违法违规/事实不符,请联系编程知识网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

LabVIEW在燃气轮机发电机组励磁控制系统测试中的应用

LabVIEW在燃气轮机发电机组励磁控制系统测试中的应用 燃气轮机发电机组作为一种高效可靠的常备应急电源,在保障发电品质稳定性和可靠性方面发挥着关键作用。其中,励磁控制系统是保证供电质量的重要环节,对发电机组的稳定运行至关重要。为了有…

docker在线安装nginx

1、查看所有镜像 1、不带容器卷常规启动nginx,命令如下 docker run --name nginx-test -p 8089:80 -d a6bd71f48f68 2、在宿主机创建/usr/local/data/nginxdocker/目录,在此目录下创建html和logs文件夹,然后将容器内的 nginx.conf 和 html 下…

【最新版】WSL安装Google Chrome、Microsoft Edge 浏览器

文章目录 一、 安装WSL1. 全新安装2. 现有 WSL 安装 二、运行 Linux GUI 应用1. 安装适用于 Linux 的 Google Chrome步骤 1: 进入 temp 文件夹步骤 2: 使用 wget 下载 Google Chrome 安装包步骤 3: 安装 Google Chrome步骤 4: 修复依赖关系问题步骤 5: 再次配置 Google Chrome步…

计算机组成原理——数制与编码

1.在以下编码中,零的表示唯一的是(C) A.反码 B.原码 C.补码 D.原码和移码 2.假设某数的真值为-100 1010B,在计算机内部表示为1011 0110B,该数采用的编码为(D) A.移码 B.原码 C.反码 D.补码 3.…

Unix进程间通信之简介-总体概述和引子

目录标题 0. 前言1. 概述2. 进程、线程与信息共享3. IPC对象的持续性4. 名字空间5. fork、exec和exit对IPC对象的影响6. 出错处理: 包裹函数7. Unix标准8. 小结 0. 前言 进程间通信这块是学习linux-c编程的关键, 这篇为后续进程间通信技术的引子篇&#…

Android 生物识别:构建一个存储用户敏感信息的安全应用

前言 在当今数字时代,随着科技的不断发展,用户敏感信息尤为重要。从指纹到面部识别,再到虹膜扫描,生物识别技术为我们带来了便捷性和安全性。本次将构建一个简易的账户信息应用,运用生物识别技术来提高信息的安全性。…

Spring IOC 原理(二)

Spring IOC 原理 概念 Spring 通过一个配置文件描述 Bean 及 Bean 之间的依赖关系,利用 Java 语言的反射功能实例化Bean 并建立 Bean 之间的依赖关系。 Spring 的 IoC 容器在完成这些底层工作的基础上,还提供了 Bean 实例缓存、生命周期管理、 Bean 实…

1KW逆变器UPS纯正弦波方案

硬件方案--110V方案 本套逆变器方案分110V输出以及220V输出,电池最大电压是48V,包括了LCD。110V方案主控使用的dsp是MICROCHIP(美国微芯)的dsPIC33FJ16GS504芯片,ACDC控制器是TOP250YN,运算放大器包含LM358、MCP6022,电…

小信砍柴的题解

目录 原题描述: 时间:1s 空间:256M 题目描述: 输入格式: 输出格式: 样例1输入: 题目大意: 主要思路: 注意事项: 总代码: 原题描述&#…

2024免费mac苹果电脑系统电脑管家CleanMyMac X

macOS已经成为最受欢迎的桌面操作系统之一,它提供了直观、简洁的用户界面,使用户可以轻松使用和管理系统。macOS拥有丰富的应用程序生态系统;还可以与其他苹果产品和服务紧密协作,如iPhone、iPad,用户可以通过iCloud同…

大四复习:深入浅出解释拓扑排序

我在大二学习拓扑排序的时候,不是很明白,现在已经大四,抽时间复习一下拓扑排序。 什么是拓扑排序? 如何实现拓扑排序? 拓扑排序的拓展 什么是拓扑排序? 首先拓扑排序的定义如下: 拓扑排序是一…

SpringBoot中使用@Async实现异步调用

SpringBoot中使用Async实现异步调用 什么是异步调用?异步调用对应的是同步调用,同步调用指程序按照定义顺序依次执行,每一行程序都必须等待上 一行程序执行完成之后才能执行;异步调用指程序在顺序执行时,不等待异步调用的语句返…