1、I/O设备的概念和分类
什么是I/O设备
I/O就是输入/输出(Input/Output)。
I/O设备就是可以将数据输入到计算机,或者可以接收计算机输出数据的外部设备,属于计算机中的硬件部件。
UNIX系统将外部设备抽象为一种特殊的文件,用户可以使用与文件操作相同的方式对外部设备进行操作。
Write操作:向外部设备写出数据
Read:从外部设备读入数据
I/O设备的分类——按使用特性
- 人机交互类外部设备:鼠标、键盘、打印机等——用于人机交互,其数据传输速度慢。
- 存储设备:移动光盘、光盘——用于存储数据,其数据传输速度快。
- 网络通信设备:调制解调器等——用于网络通信,数据传输速度基于以上二者之间。
I/O设备的分类——按传输速率分类
- 低速设备:鼠标、键盘等——传输速率为每秒几个到几百字节。
- 中速设备:如激光打印机等——传输速率为每秒数千至上万字节。
- 高速设备:如磁盘等——传输速率为每秒数千字节至千兆字节的设备。
I/O设备的分类——按信息交换的单位分类
- 块设备:磁盘,移动硬盘等——数据传输的基本单位是“块”。传输速率较高,可寻址,即对它可随机地读/写任一块。
- 字符设备:鼠标、键盘等——数据传输的基本单位是“字符”。传输速率较低,不可寻址,在输入/输出时常采用中断驱动方式。
知识回顾:
2、I/O控制器
I/O设备的组成:
- 机械部件
- 电子部件(I/O控制器,设备控制器)
I/o设备的机械部件主要用来执行具体I/O操作。如,我们看得到摸得着的鼠标、键盘的按钮;显示器的LED屏;移动硬盘的磁臂、磁盘盘面。
I/O设备的电子部件通常是一块插入主板扩充槽的印刷电路板。
2.1、I/O设备的电子部件(I/O控制器)的功能
CPU无法直接控制I/O设备的机械部件,因此I/O设备还要有一个电子部件作为CPU和I/O设备机械部件之间的”中介“,用于实现CPU对设备的控制。
这个电子部件就是I/O控制器,又称设备控制器。CPU可控制I/O控制器,又由I/O控制器来控制设备的机械部件。
I/O控制器的功能:
- 接收和识别CPU发出的命令。如CPU发来的read/write命令,I/O控制器中会有相应的控制寄存器来存放命令和参数。
- 向CPU报告设备的状态。I/O控制器中会有相应的状态寄存器,用于记录I/O设备的当前状态。如:1表示空闲,0表示忙碌。
- 数据交换。I/O控制器中会设置相应的数据寄存器。输出时,数据寄存器用于暂存CPU发来的数据,之后再由控制器传送给设备。输入时,数据寄存器用于暂存设备发来的数据,之后CPU从数据寄存器中取走数据。
- 地址识别。类似于内存的地址,为了区分设备控制器中各个寄存器,也需要给各个寄存器设置一个特定的”地址“。I/O控制器通过CPU提供的”地址“来判断CPU要读/写的是哪个寄存器。
2.2、I/O控制器的组成
【细节】(1)一个I/O控制器可能会对应多个设备;(2)数据寄存器、控制寄存器、状态寄存器可能有多个(如:每个控制/状态寄存器对应一个具体的设备),且这些寄存器都要有相应的地址,才能方便CPU操作。有的计算机会让这些寄存器占用内存地址的一部分,称为内存映像I/O,另一些计算机则采用I/O专用地址,即寄存器独立编址。
内存映像I/O VS 寄存器独立编址:
内存映像I/O优点:简化了指令,可以采用对内存进行操作的指令来对控制器进行操作。
寄存器独立编址缺点:需要设置专门的指令实现对控制器的操作,不仅要指明寄存器的地址,还需要指明控制器的编号。
知识回顾:
3、I/O控制方式
I/O控制方式——用什么样的方式来控制I/O设备的数据读/写。
I/O控制方式分类:
- 程序直接控制方式
- 中断驱动方式
- DMA方式
- 通道控制方式
使用以上I/O控制方式需要注意的几个问题:
- 完成一次读/写操作的流程
- CPU干预的频率
- 数据传送的单位
- 数据的流向
- 主要缺点和主要优点
5.1、程序直接控制方式
1、完成一次读/写操作的流程:
其中的关键是轮询
2、CPU干预的频率
很频繁,I/O操作开始之前,完成之后需要CPU介入,并且在等待I/O完成的过程中CPU需要不断地轮询检查。
3、数据传送单位
每次读/写一个字
4、数据的流向
读操作(数据输入):I/O设备——>CPU(CPU寄存器)——>内存
写操作(数据输出):内存——>CPU——>I/O设备
每个字的读/写都需要CPU的帮助
5、主要缺点和主要优点
优点:实现简单。在读/写指令之后,加上实现循环检查的一系列指令即可(因此称为”程序直接控制方式“)
缺点:CPU和I/O设备只能串行工作(在I/O准备阶段,CPU不能做其它的事情,只能轮询检查),CPU需要一直轮询检查,长期处于”忙等“,CPU利用率低
5.2、中断驱动方式
引入中断机制。由于I/O设备速度很慢,因此在CPU发出读/写命令后,可将等待I/O的进程阻塞,先切换到别的进程运行。当I/O完成后,控制器会向CPU发出一个中断信号,CPU检测到中断信号后,会保存当前进程的运行环境信息,转去执行中断处理程序处理该中断。处理中断的过程中,CPU从I/O控制器读一个字的数据传送到CPU寄存器,再写入主存。接着,CPU恢复等待I/O的进程(或其它进程)的运行环境,然后继续执行。
【注意】(1)CPU会在每个指令周期的末尾检查中断;(2)中断处理过程中需要保存、恢复进程的运行环境,这个过程是需要一定时间开销的。可见,如果中断发生的频率太高,也会降低系统性能。
1、完成一次读/写操作的流程,如下:
2、CPU干预的频率
每次I/O操作开始之前、完成之后需要CPU接入
等待I/O完成的过程中CPU可以切换到别的进程执行
3、数据传送的单位
每次读/写一个字
4、数据的流向
读操作(数据输入):I/O设备——>CPU——>内存
写操作(数据输出):内存——>CPU——>I/O设备
5、主要缺点和主要优点
优点:与“程序直接控制方式”相比,在”中断驱动方式“中,I/O控制器会通过中断信号主动报告I/O已完成,CPU不再需要不停的轮询。CPU和I/O设备可以并行工作,CPU利用率得到明显提升
缺点:每次只能传送一个字,并且每个字在I/O设备与内存之间的传输,都需要经过CPU,而频繁的中断处理会消耗较多的CPU时间
5.3、DMA方式
DMA方式(Direct Memory Access,直接存储器存取)。
相较于”中断驱动方式“,主要用于块设备的I/O控制有这样几个改进:
- 数据的传送单位是”块“。不再是一个字、一个字的传递;
- 数据的流向是从设备直接放入内存,或者从内存直接到设备。不在需要CPU作为中介;
- 仅在传送一个或多个数据块的开始和结束时,才需要CPU干预
【注】将数据读入内存直接由DMA控制器完成,不在使用CPU将数据读入内存。CPU只有2次工作:(1)CPU向I/O模块发送指令(读/写)(2)CPU处理中断
DMA控制器,也是I/O控制器的一种,但略有不同。
DMA控制器组成,如下:
1、完成一次读/写操作的流程,如下:
2、CPU干预的频率
仅在传送一个或多个数据块的开始和结束时,才需要CPU干预
3、数据传送的单位
每次读/写一个或多个块(注意:每次读写的只能是连续的多个块,且这些块读入内存后再内存中也必须是连续的)
4、数据的流向
读操作(数据输入):I/O设备——>内存
写操作(数据输出):内存——>I/O设备
5、主要缺点和主要优点
优点:数据传输以块为单位,CPU介入频率进一步降低。数据的传输不再需要先经过CPU再写入内存,数据传输效率进一步增加。CPU和I/O设备的并行性得到提升。
缺点:CPU每发出一条I/O指令,只能读写一个或多个连续的数据块。如果想要读/写多个离散存储的数据块,或者要将数据分别写到不同的内存区域时,CPU要分别发出多条I/O指令,进行多次中断处理才能完成。
5.4、通道控制方式
通道:一种硬件,可以理解是削弱版的CPU。通道可以识别并执行一系列通道指令。
为什么说通道时削弱版的CPU呢?因为与CPU相比,通道可以执行的指令很单一,通道可以识别并执行一系列通道指令。
并且通道程序是放在主机内存中的,也就是说通道与CPU共享内存。
通道控制实现过程:
通道程序有一系列的通道指令组成
一个通道可以控制多个I/O控制器,一个I/O控制器可以对应多个I/O设备。
1、完成一次读/写操作的流程,如下图。
2、CPU干预频率
极低,通道会根据CPU执行相应的通道程序,只有完成一组数据块的读/写后才需要发出中断信号,请求CPU干预。
3、数据传送的单位
每次读/写一组数据块
4、数据的流向(在通道的控制下进行)
读操作(输入数据):I/O设备——>内存
写操作(输出数据):内存——>I/O设备
5、主要缺点和主要优点
缺点:实现复杂,需要专门的通道硬件支持
优点:CPU、通道、I/O设备可并行工作,资源利用率很高
5.5、I/O控制方式总结
完成一次读/写的过程 | CPU干预频率 | 每次I/O的数据传输单位 | 数据流向 | 优缺点 | |
---|---|---|---|---|---|
程序直接控制方式 | CPU发出I/O命令后需要不断轮询 | 极高 | 字 | 读操作:I/O设备——>CPU——>内存 写操作:内存——>CPU——>I/O设备 | |
中断驱动方式 | CPU发出I/O命令后可以做其他事,本次I/O完成后设备控制器发出中断信号 | 高 | 字 | 读操作:I/O设备——>CPU——>内存 写操作:内存——>CPU——>I/O设备 | |
DMA方式 | CPU发出I/O命令后可以做其它事,本次I/O完成后DMA控制器发出中断信号 | 中 | 块 | 设备——>内存 内存——>设备 | |
通道方式 | CPU发出I/O命令后可以做其它事。通道会执行通道程序已完成I/O,完成后通道向CPU发出中断信号 | 低 | 一组块 | 设备——>内存 内存——>设备 |
通道=削弱版CPU
通道程序=任务清单
通道程序有一系列的通道指令组成
一个通道可以控制多个I/O控制器,一个I/O控制器可以对应多个I/O设备。
4、I/O软件层次结构
I/O硬件层次已经在第2章节学习过了,本章节学习I/O软件层次结构。
下面我们按从上至下的顺序一次分析各个层析所需要实现的功能。
1、用户层软件
用户层软件实现了与用户交互的接口,对用户可直接使用该层提供的、与I/O操作相关的库函数对设备进行操作。用户层软件将用户请求翻译成格式化的I/O请求,并通过“系统调用”请求操作系统内核的服务。
2、设备独立性软件
设备独立性软件,又称设备无关性软件。与设备的硬件特性无关的功能几乎都在这一层实现
主要实现的功能:
(1)向上层提供统一的调用接口(如read/write系统调用);
(2)实现设备的保护。原理类似于文件保护。设备被看作是一种特殊的文件,不同用户对各个文件的访问权 限是不一样的,同理,对设备的访问权限也不一样;
(3)差错处理。对一些设备的错误进行处理;
(4)设备的分配与回收。很多设备属于临界资源,不可以同时分配给多个进程使用,所以需要合理的回收与分配;
(5)数据缓冲区管理。可以通过缓冲技术屏蔽设备之间数据交换单位大小和传输速度的差异;
(6)建立逻辑设备名到物理设备名的映射关系;根据设备类型选择调用相应的驱动程序。
逻辑设备名:指用户在请求使用一个设备时所提供的名字,是用户视角所看到的设备名。比如打印文件 时,打印机1/打印机2/打印机3,其实这些都是逻辑设备名。
设备独立性软件需要通过逻辑设备表(LUT,Logical Unit Table)来确定逻辑设备对应的物理设备,并找到该设备对应的设备驱动程序。
如下逻辑设备表:
操作系统可以采用两种方式管理逻辑设备表(LUT):
第一种方式,整个系统只设置一张LUT,这就意味着所有用户不能使用相同的逻辑设备名,因此这种方式只适用于单用户操作系统。第二种方式,为每一个用户设置一张LUT,各个用户使用的逻辑设备名可以重复,适用于多用户操作系统。系统会在用户登录时为其一个用户管理进程,而LUT就存放在用户管理进程的PCB中。
3、设备驱动程序
【思考】为什么不同类型的I/O设备需要不同的驱动程序处理?
各式各样的设备,外形不同,其内部的电子部件(I/O控制器)也有可能不同。
比如:(1)佳能打印机设备内部的电子部件(I/O控制器),厂家设计了两个数据寄存器,并且设备的厂家规定,0代表空闲,1代表忙碌。
(2)惠普打印机设备内部的电子部件(I/O控制器),厂家设计了1个数据寄存器,并且设备的厂家规定,1代表空闲,0代表忙碌。
所以不同设备的内存硬件特性也不同,这些特性只有厂家才知道,因此厂家提供与设备相对应的驱动程序,CPU执行驱动程序的指令序列,来完成设置设备寄存器,检查设备状态等工作。
【注】驱动程序一般会以一个独立进程的方式存在。
4、中断处理程序
当I/O任务完成时,I/O控制器会发送一个中断信号,系统会根据中断信号类型找到相应的中断处理程序并执行。中断处理程序的处理流程如下:
知识总结:
除此之外还需要了解**逻辑设备表(LUT)**的功能
理解并记住I/O软件各个层次之间的顺序,要能够推理判断某个处理应该是在哪个层次完成的(最常考的是,设备独立性软件、设备驱动程序这两层)。只需要理解一个特点即可:直接涉及到硬件具体细节、且与中断无关的操作肯定是在设备驱动程序层完成的;没有涉及硬件的、对各种设备都需要进行的管理工作都是在设备独立性软件层完成的。
5、输入/输出应用程序接口 & 设备驱动接口
输入输出管理:
-
输入/输出应用程序接口:
-
字符设备接口
-
块设备接口
-
网络设备接口
-
概念:什么是阻塞I/O和非阻塞I/O?
-
-
设备驱动程序接口
5.1、输入/输出应用程序接口
由于底层I/O设备多种多样,比如:
- 字符设备。如,键盘、打印机,不可“寻址”,每次读1个字符
- 块设备。如,磁盘,可“寻址”,每次读/写1个块
- 网络设备。如,网络控制器(网卡),考虑数据给谁?
那针对不同的I/O设备,就需要不同的系统调用。如下:
(1)字符设备接口:用get/put
系统调用,向字符串设备读/写一个字符。
(2)块设备接口:用read/write
系统调用,向块设备的读写指针位置读/写多个字符;seek系统调用,修改读 写指针位置。
(3)网络设备接口,又称网络套接字,socket接口:socket
系统调用,创建一个网络套接字,需要指明网络协 议(TCP,UDP?)。bind,将套接字绑定到某个本地端口。connect,将套接字连接到远程地址。read/write
,从套接字读/写数据。
5.2、阻塞I/O和非阻塞I/O
阻塞I/O:应用程序发出I/O系统调用,进程需要转为阻塞态等待。
Eg:字符设备接口——从键盘上读一个字符
get
非阻塞I/O:应用程序发出I/O系统调用,系统调用可迅速返回,进程无需阻塞等待。
Eg:块设备接口——往磁盘写数据
write
5.3、设备驱动程序接口
若公司开发的设备驱动接口不统一,则操作系统很难调用设备驱动程序。
因此操作系统会统一一个标准,要求设备的厂商在制作驱动程序的时候,按照规定好的“统一标准”来开发驱动程序。
不同的操作系统,对设备驱动程序接口的标准各不相同。
设备厂商必须根据操作系统的接口要求,开发相应的设备驱动程序,设备才能被使用。
比如一个厂商,如果想让它的设备在我的操作系统上正常被使用,那么该厂商提供的
read
系统调用,必须是:read(p1,p2,p3)
。这样才能胜场使用相应的设备。
6、I/O核心子系统
知识总览:
这些层次要实现的功能:
I/O调度:用某种算法确定一个好的顺序来处理各个I/O请求。
如:磁盘调度(先来先服务算法、最短寻道优先算法、SCAN算法、C-SCAN算法、LOOK算法、C-LOOK算法)。当多个磁盘I/O请求到来时,用某种调度算法确定满足I/O请求的顺序。
同理,打印机等设备也可以用先来先服务算法、优先级算法、短作业优先等算法来确定I/O调度顺序。
设备保护:
操作系统需要实现文件保护功能,不同的用户对各个文件有不同的访问权限(如:只读、读和写等)
在UNIX系统中,设备被看做是一种特殊的文件,每个设备也会有对应的FCB。当用户请求访问某个设备时,系统会根据FCB中记录的信息来判断该用户是否有相应的访问权限,以此实现“设备保护”的功能。
6.1、假脱机技术(SPOOLing技术)
知识总览:
6.1.1、什么是脱机技术
回想计算机操作系统的第一章“计算机的发展历程”
手工操作阶段:主机直接从I/O设备获得数据,由于设备速度慢,主机速度很快。人机速度矛盾明显,主机要浪费很多时间来等待设备。
批处理阶段引入了脱机输入/脱机输出(用磁带完成):
为什么称为“脱机”——脱离主机的控制进行的输入/输出操作。
引入脱机技术后,缓解了CPU与慢速I/O设备的速度矛盾。另一方面,即使CPU在忙碌,也可以提前将数据输入到磁带;即使慢速的输出设备正在忙碌,也可以提前将数据输出到磁带。
6.1.2、假脱机技术——输入井和输出井
假脱机技术,又称SPOOLing技术是用软件的方式模拟脱机技术。SPOOLing系统的组成如下:
(1)用输入井和输出井模拟磁带
(2)用输入进程模拟脱机输入时的外围控制机,用输出进程模拟脱机输出时的外围控制机
要实现SPOOLing技术,必须要有多道程序技术的支持,因为系统会建立输入进程和输出进程。
(3)输入缓冲区和输出缓冲区是在内存中的缓冲区
- 在输入进程的控制下,输入缓冲区用于暂存从输入设备输入的数据,之后再转存到输入井中。
- 在输入进程的控制下,输出缓冲区用于暂存从输出井送来的数据,之后再传送到输出设备上。
6.1.3、SPOOLing应用——共享打印机原理分析
独占式设备——只允许各个进程串行使用的设备。一段时间内只能满足一个进程的请求。
共享式设备——允许多个进程“同时”使用的设备(宏观上同时使用,微观上可能是交替使用)。可以同时满足多个进程的使用请求。
打印机是种“独占式设备”,但是可以用SPOOLing技术改造成“共享设备”。
独占式设备的例子:若进程1正在使用打印机,则进程2请求使用打印机时必然阻塞等待。
使用SPOOLing技术,将打印机变为共享的原理:
当多个用户进程提出输出打印的请求时,系统会答应它们的请求,但是并不是真正把打印机分配给它们,而是由假脱机管理进程为每个进程做两件事:
1)在磁盘输出井中为进程申请一个空闲缓冲区(也就是说,这个缓冲区是在磁盘上的),并将要打印的数据送入其中。
2)为用户进程申请一张空白的打印请求表,并将用户的的打印请求填入表中(其实就是用来说明用户的打印数据存放位置等信息的),再将该表挂到假脱机文件队列上。
当打印机空闲时,输出进程会从文件队列的对头取出一张打印请求表,并根据表中的要求将要打印的数据从输出井传送到输出缓冲区,在输出到打印机进行打印。用这种方式可依次处理完全部的打印任务。
所以在采用了SPOOLing技术后,虽然系统只有一台打印机,但每个进程提出请求时,系统都会为在输出井中为其分配一个存储区(相当于分配了一个逻辑设备),使每个用户进程都觉得自己在独占一台打印机,从而实现对打印机的共享。
知识总结:
6.2、设备的分配与回收
6.2.1、设备分配时应考虑的因素
1、按照设备的固有属性可分为三种:
- 独占设备——一个时段只能分配给一个进程(如,打印机)
- 共享设备——可同时分配给多个进程使用(如磁盘),各进程往往是宏观上同时共享使用设备,而微观上交替使用。
- 虚拟设备——采用SPOOLing技术将独占式设备改造成虚拟的共享设备,可同时分配给多个进程使用(如采用SPOOLing技术实现的共享打印机)。
2、按照设备分配算法:
- 先来先服务算法
- 优先级高者优先算法
- 短任务优先算法
- …
3、从进程运行的安全性上考虑,设备分配有两种方式:
1)安全分配方式:为进程分配一个设备后就将进程阻塞,本次I/O完成后才将进程唤醒。(eg:考虑进程 请求打印机打印输出的例子) 采用安全分配方式,一个时间段内每个进程只能使用一个设备。
优点:破坏了“请求和保持”条件,不会死锁。
缺点:对于一个进程来说,CPU和I/O设备只能串行工作。
2)不安全分配方式:进程发出I/O请求后,系统为其分配I/O设备,进程可继续执行,之后还可以发出新的 I/O请求。只有某个I/O请求得不到满足时才将进程阻塞。(eg:考虑进程请求打印技打印输出的例子)
采用不安全风分配方式,一个进程可以同时使用多个设备。
优点:进程的计算任务和I/O任务可以并行处理,使进程迅速推进。
缺点:有可能发生死锁(死锁避免、死锁的检测和解除)。
6.2.2、静态分配和动态分配
静态分配:进程运行前为其分配全部所需资源,运行结束后归坏资源。(破坏了”请求和保持“条件,不会发生死锁)。
动态分配:进程运行过程中动态申请设备资源。
6.2.3、设备分配管理中的数据结构
先来分析以下设备、控制器、通道之间的关系:
一个系统中会有多个通道,一个通道可控制多个设备控制器,每个设备控制器可控制多个设备。
设备控制表(DCT):系统为每个设备配置一张DCT,用于记录设备情况。如下:
控制器控制表(COCT):每个设备控制器都会对应一张COCT。操作系统根据COCT的信息对控制器进行操作和管理。
通道控制表(CHCT):每个通道都会对应一张CHCT。操作系统根据CHCT的信息对通道进行操作和管理。
系统设备表(SDT):记录了系统中全部设备的情况,每个设备对应一个表目,表目中记录了相关设备的信息。
6.2.4、设备分配步骤
1)根据进程请求的物理设备名查找SDT(注:物理设备是进程请求分配设备时提供的参数)。
2)根据SDT找到DCT,若设备忙碌则将进程PCB挂到设备等待队列中,不忙碌则将设备分配给进程。
3)根据DCT找到COCT,若控制器忙碌则将进程PCB挂到控制器等待队列中,不忙碌则将控制器分配给进程。
4)根据COCT找到CHCT,若通道忙碌则将进程PCB挂到通道等待队列中,不忙碌则将通道分配给进程。
【注】只有设备、控制器、通道三者都分配成功时,这次设备分配才算成功,之后便可启动I/O设备进行数据传送。
以上设备分配步骤有些许缺点:
- 用户编程时必须使用”物理设备名“,底层细节对用户不透明,不方便编程。
- 若换了一个物理设备,则程序无法运行。
- 若进程请求的物理设备正在忙碌,则即使系统中还有同类型的设备,进程也必须阻塞等待。
改进方法:建立逻辑设备名与物理设备名的映射机制,用户编程时只需要提供逻辑设备名。
6.2.5、设备分配步骤的改进
1)根据进程请求的逻辑设备名查找SDT(注:用户编程时提供的逻辑设备名其实就是”设备类型“,如打印机…)。
2)根据SDT找到用户进程指定类型的、并且空闲的设备将其分配给进程。操作系统在逻辑设备表(LUT)中新增一个表项。
3)根据DCT找到COCT,若控制器忙碌则将进程PCB挂到控制器等待队列中,不忙碌则将控制器分配给进程。
4)根据COCT找到CHCT,若通道忙碌则将进程PCB挂到通道等待队列中,不忙碌则将通道分配给进程。
逻辑设备表(LUT)建立了逻辑设备名与物理设备名之间的映射关系。
某用户进程第一次使用设备时使用逻辑设备名向操作系统发出请求,操作系统根据用户进程指定的设备类型(逻辑设备名)查找系统设备表(SDT),找到一个空闲设备分配给进程,并在LUT中增加相应的表项。
如果用户进程再次通过相同的逻辑设备名请求使用设备,则操作系统通过LUT表(不在查SDT表)即可知道用户进程实际要使用的是哪个物理设备了,并且也能知道该设备的驱动程序入口地址。
【补充】逻辑设备表(LUT)的设置问题
- 整个系统只有一张LUT:各用户所用的逻辑设备名不允许重复,适用于单用户操作系统。
- 每个用户一张LUT:不同用户的逻辑设备名可重复,适用于多用户操作系统。
知识总结:
6.3、缓冲区管理
知识总览:
- 什么是缓冲区?有什么作用?
- 单缓冲
- 双缓冲
- 循环缓冲
- 缓冲池
6.3.1、什么是缓冲区?
缓冲区是一个存储区域,可以由专门的硬件寄存器组成,也可以利用内存作为缓冲区。
使用硬件作为缓冲区的成本较高,容量也较小,一般仅用在对速度要求非常高的场合(如存储器管理中所用的联想寄存器(快表TLB),由于对页表的访问频率极高,因此使用速度很快的联想寄存器来存放页表项的副本)
一般情况下,更多的是利用内存作为缓冲区,设备独立性软件的缓冲区管理就是要组织管理好这些以内存作为的缓冲区。
6.3.2.、缓冲区的作用
缓冲区的作用:
- 缓和CPU和I/O设备之间速度不匹配的矛盾;
- 减少对CPU的中断频率,放宽对CPU中断相应时间的限制;
- 解决数据粒度不匹配的问题;
- 提高CPU和I/O设备之间的并行性。
6.3.3、单缓冲
假设某用户进程请求某种设备读入若干块的数据。若采用单缓冲的策略,操作系统会在主存中为其分配一个缓冲区(若题目没有特别说明,默认一个缓冲区的大小就是一个块)。
【注意】当缓冲区数据非空时,不能往缓冲区冲入数据,只能从缓冲区把数据传出;当缓冲区为空时,可以往缓冲区冲入数据,但必须把缓冲区充满以后,才能从缓冲区把数据传出。
【常考题型】计算机每处理一块数据需要多久?
【技巧】假定一个初始状态,分析下次到达相同状态需要多久时间,这就是处理一块数据所需时间。
在“单缓冲”题型中,可以假设初始状态为:用户进程工作区满,缓冲区空。
所以我们要分析下一次达到:用户进程工作区满,缓冲区空这种状态需要花多少时间,那这个时间就是处理一个数据块所需时间。
下面的分析,需要分两种情况:
1)假设T>C
2)假设T<C
【结论】采用单缓冲策略,处理一块数据平均耗时MAX(C,T)+M。
6.3.4、双缓冲
假设某用户进程请求某种设备读入若干块的数据。若采用双缓冲的策略,操作系统会在主存中为其分配两个缓冲区(若题目没有特别说明,默认一个缓冲区的大小就是一个块)。
双缓冲题目中,假设初始状态为:工作区空,其中一个缓冲区满,另一个缓冲区空。
同样分为两种情况:
1)假设T>C+M
2)假设T<C+M
【结论】采用双缓冲策略,处理一个数据块的平均耗时Max(T,C+M)。
如果T>C+M
那平均耗时就是T
,如果T<C+M
那平均耗时就是C+M
。
6.3.5、使用单/双缓冲在通信时的区别
1、使用单缓冲
两台机器之间通信时,可以配置缓冲区用于数据的发送和接收
显然,若两个相互通信的机器只设置但缓冲区,在任一时刻只能实现数据的单向传输。
2、使用双缓冲
两台机器之间通信时,可以配置缓冲区用于数据的发送和接收
若两个相互通信的机器设置双缓冲区,则同一时刻可以实现双向的数据传输。
6.3.6、循环缓冲区
将多个大小相等的缓冲区链接成一个循环队列。
注:以下图示中,橙色表示已充满数据的缓冲区,绿色表示空缓冲区。
6.3.7、缓冲池
缓冲池是由系统中共用的缓冲区组成。当我们需要使用一个缓冲区或者归还一个缓冲区就可以直接对缓冲池里的缓冲区进行操作。
这些缓冲区按使用状况可以分为:空缓冲队列、装满输入数据的缓冲队列(输入队列)、装满输出数据的缓冲队列(输出队列)。
另外,根据一个缓冲区在实际运算中扮演的功能不同,又设置了四种工作缓冲区:
- 用于收容输入数据的工作缓冲区(hin)
- 用于提取输入数据的工作缓冲区(sin)
- 用于收容输出数据的工作缓冲区(hout)
- 用于提取输出数据的工作缓冲区(sout)
工作时分为四种情况:
1)输入进程请求输入数据
系统会从空缓冲区队列的对头当中取出一个空的缓冲区,把它作为用于收容输入数据的缓冲区,那当这块缓冲区被充满后,会被挂到输入队列的队尾上。
2)计算进程想要取得一块输入数据
操作系统会从输入队列的队头取下一个缓冲区,把此缓冲区作为提取输入的工作缓冲区,接下来这块缓冲区中的数据会被传送到计算进程的工作区中,所以这块缓冲区的数据就被取空了,之后此缓冲区就会被挂到空缓冲队列的队尾中。
3)计算进程想要将准备好的数据冲入缓冲区
系统会从空缓冲队列的对头取下一个空闲的缓冲区,把这个缓冲区作为收容输出的工作缓冲区,因此这个缓冲区会被慢慢的充满,由于此缓冲区的数据接下来要输出到I/O设备上的,所以此缓冲区会被挂到输出队列的队尾上。
4)输出进程请求输出数据
系统会从输出队列的对头取下一块缓冲区,它此缓冲区作为提取输出工作缓冲区,接下来这块缓冲区的输出数据被慢慢取走,当缓冲区被取空之后,会把这个缓冲区挂到空闲缓冲队列的队尾。
6.3.8、知识总结
7、磁盘的结构
磁盘的结构:
- 磁盘、磁道、扇区的概念
- 如何在磁盘中读/写数据
- 盘面、柱面的概念
- 磁盘的物理地址
- 磁盘的分类
7.1、磁盘、磁道、扇区
磁盘的表面由一些磁性物质组成,可以用这些磁性物质来记录二进制数据。
磁道:磁盘的盘面被划分成一个个磁道。这样的一个“圈”就是一个磁道
扇区:一个磁道又被划分成一个个扇区,每个扇区就是一个磁盘块。各个扇区存放的数据量相同(1KB)
最内侧磁道上的扇区面积最小,因此数据密度最大。
7.2、如何在磁盘中读/写数据
需要把“磁头”移动到想要读/写的扇区所在的磁道。
磁盘会转起来,让目标扇区从磁头下面划过,才能完成对扇区的读/写操作。
7.3、盘面、柱面
可用(柱面号,盘面号,扇区号)来定位任意一个“磁盘块”。在“文件的物理结构”小节中,常提到文件数据存放在外存中的几号块,这个块号就可以转换(柱面号,盘面号,扇区号)的地址形式。
可根据该地址读取一个“块”
1)根据“柱面号”移动磁臂,让磁头指向指定柱面;
2)激活指定盘面对应的磁头;
3)磁盘旋转的过程中,指定的扇区会从磁头下面划过,这样就完成了对指定扇区的读/写。
7.4、磁盘的分类
1)活动头磁盘:磁头可以移动的称为“活动头磁盘”。磁臂可以来回伸缩来带动磁头定位磁道
2)固定头磁盘:磁头不可移动的称为固定头磁盘。这种磁盘中每个磁道有一个磁头
1)可换盘磁盘:盘片可以更换
2)固定盘磁盘:盘片不可更换
知识总结:
8、磁盘调度算法
知识总览:
磁盘调度算法:
- 一次磁盘读/写操作需要的时间
- 寻找时间
- 延迟时间
- 传输时间
- 磁盘调度算法
- 先来先服务(FCFS)
- 最短寻找时间优先(SSTF)
- 扫描算法(SCAN)
- 循环扫描算法(C-SCAN)
8.1、一次磁盘读/写操作需要的时间
一、寻找时间(寻道时间)Ts:在读/写数据前,将磁头移动到指定磁道所花的时间。如下:
1)磁头的移动需要磁头臂,所以启动磁头臂是需要时间的。假设耗时位s;
2)移动磁头也是需要时间。假设磁头匀速移动,每跨越一个磁道耗时位m,总共需要跨越n条磁道。则: 寻道时间Ts=s+m*n
二、延迟时间TR:通过旋转磁盘,使磁头定位到目标扇区所需要的时间。设磁盘转速为
r
(单位:转/秒,或转/分),则平均所需的延迟时间TR=(1/2)*(1/r)=1/2r【注】1/r就是转一圈需要的时间。找到目标扇区平均需要转半圈,因此再乘以1/2。
【注】硬盘的典型转速为5400转/分,或7200转/分。
三、传输时间Tt:从磁盘读出或向磁盘写入数据所经历的时间。假设磁盘转速为r,此次读/写的字节数为b,每个磁道上的字节数为N。则:传输时间Tt:(1/r)*(b/N)=b/(rN)。
【分析】每个磁道要可存N字节的数据,因此b字节的数据需要b/N个磁道才能存储。而读/写一个磁道所需的时间刚还又是转一圈所需要的时间1/r。
所以总的平均存取时间Ta=Ts+1/2r+b/(rN)。
【注意】延迟时间和传输时间都与磁盘转速相关,且为线性相关。而转速是硬件的固有属性,因此操作系统也无法优化延迟时间和传输时间。
但是操作系统的磁盘调度算法会直接影响寻道时间。
所以下面要学习各种各样的磁盘调度算法,来确定寻道时间。
8.2、先来先服务算法(FCFS)
核心思想:根据进程请求访问磁盘的先后顺序进行调度。
Eg:假设磁头的初始位置是100号磁道,有多个进程先后陆续地请求访问55、58、39、18、90、160、150、38、184号磁道。
按照FCFS的规则,按照请求到达的顺序,磁头需要依次移动55、58、39、18、90、160、150、38、184号磁道。
过程如下:
磁头总共移动了45+3+19+21+72+70+10+112+146=498个磁道。
平均寻找长度:响应一个请求平均需要移动498/9=55.3个磁道。
优点:公平;如果请求访问的磁道比较集中的话,算法性能还算过的去。
缺点:如果有大量的进程竞争使用磁盘,请求访问的磁道很分散,则FCFS在性能上很差,寻道时间长。
8.3、最短寻找时间优先(SSTF)
核心思想:SSTF算法会优先处理的是与当前磁头最近的磁道。可以保证每次的寻道时间最短,但是并不是保证总的寻道时间最短。(其实就是贪心算法的思想,只是选择眼前最优,但是总体未必最优)。
Eg:假设磁头的初始位置是100号磁道,有多个进程先后陆续地请求访问55、58、39、18、90、160、150、38、184号磁道。
过程如下:
磁头总共移动了(100-18)+(184-18)=248个磁道。
平均寻找长度:响应一个请求平均需要移动248/9=27.5个磁道。
优点:性能较好,平均寻道时间短
缺点:**可能产生“饥饿”**现象
Eg:本例中,如果在处理18号磁道的访问请求时又来了一个38号磁道的访问请求,处理38号磁道的访问请求时又来了一个18号磁道的访问请求。如果由源源不断的18号、38号磁道的访问请求到来的话,150、160、184号磁道的访问请求就永远得不到满足,从而产生“饥饿”现象。
产生饥饿的原因:磁头在一个小区域内来回地移动。
8.4、扫描算法(SCAN)
SSTF算法会产生饥饿地原因在于:磁头有可能在一个小区域内来回地移动。为了防止这个问题,引入扫描算法(SCAN)
SCAN算法核心思想:只有磁头移动到最外侧磁道地时候才能往内移动,移动到最内侧磁道地时候才能往外移动。由于磁头移动的方式很像电梯,因此也叫电梯算法。
Eg:假设某磁盘的磁道0~200号,磁头的初始位置是100号磁道,且此时磁头正在往磁道号增大的方向移动,有多个进程先后陆续地请求访问55、58、39、18、90、160、150、38、184号磁道。
过程如下:
磁头总共移动了(200-100)+(200-18)=282个磁道。
平均寻找长度:响应一个请求平均需要移动282/9=31.3个磁道。
优点:性能较好,平均寻道时间较短,不会产生饥饿。
缺点:
- 只有到达最边上的磁道时才能改变磁头移动方向,事实上,处理了184号磁道的访问请求之后就不需要在往右移动磁头了。
- SCAN算法对于各个位置磁道的响应频率不平均(如:假设此时磁头正在往右移动,且刚处理过的90号磁道,那么下次处理90号磁道的请求就需要等磁头移动很长一段距离;而响应了184号磁道的请求之后,很快又再次响应184号磁道的请求了)。
那如何解决SCAN算法的两个缺点呢?如下分别有两个算法解决。
8.4.1、LOOK调度算法
LOOK调度算法用来解决SCAN算法的第一个缺点(只有到达最边上的磁道时才能改变磁头移动方向,事实上,处理了184号磁道的访问请求之后就不需要在往右移动磁头了。)
核心思想:如果在磁头移动方向上已经没有别的请求,就可以立即改变磁头的移动方向。(边移动边观察,因此叫LOOK算法)。
Eg:假设某磁盘的磁道0~200号,磁头的初始位置是100号磁道,且此时磁头正在往磁道号增大的方向移动,有多个进程先后陆续地请求访问55、58、39、18、90、160、150、38、184号磁道。
过程如下:
磁头总共移动了(184-100)+(184-18)=250个磁道。
平均寻找长度:响应一个请求平均需要移动250/9=27.5个磁道。
优点:比起SCAN算法来,不需要每次移动到最外测或最内侧才改变磁头方向,使寻道时间进一步缩短。
8.4.2、循环扫描算法(C-SCAN)
C-SCAN算法用来解决SCAN的第二个缺点(SCAN算法对于各个位置磁道的响应频率不平均)
核心思想:规定只有磁头朝某个特定方向移动时才处理磁道访问请求,而返回时直接快速移动至起始端而不处理任何请求。
Eg:假设某磁盘的磁道0~200号,磁头的初始位置是100号磁道,且此时磁头正在往磁道号增大的方向移动,有多个进程先后陆续地请求访问55、58、39、18、90、160、150、38、184号磁道。
过程如下:
磁头总共移动了(200-100)+(200-0)=390个磁道。
平均寻找长度:响应一个请求平均需要移动390/9=43.3个磁道。
优点:比起SCAN算法来,对于各个位置磁道的相应频率很平均。
缺点:只有达到最边上的磁道时才能改变磁头移动方向,事实上,处理了184号磁道的访问请求之后就不需要在往右移动磁头了;并且,磁头返回时其实只需要返回18号磁道上即可,不需要返回到最边缘的磁道。另外,比起SCAN算法,平均寻道时间更长。
那针对C-SCAN的缺点,又提出了C-LOOK调度算法
8.4.3、C-LOOK调度算法
C-LOOK调度算法是为了解决C-SCANF算法的缺点的。
C-LOOK算法的核心思想:如果磁头移动的方向上已经没有磁道访问请求了,就可以立即停止让磁头返回,并且磁头只需要返回到有磁道访问请求的位置即可。
Eg:假设某磁盘的磁道0~200号,磁头的初始位置是100号磁道,且此时磁头正在往磁道号增大的方向移动,有多个进程先后陆续地请求访问55、58、39、18、90、160、150、38、184号磁道。
过程如下:
磁头总共移动了(184-100)+(184-18)+(90-18)=322个磁道。
平均寻找长度:响应一个请求平均需要移动322/9=35.8个磁道。
优点:比起C-SCAN算法来,不需要每次都移动到最外测或最内侧才改变磁头方向,使寻道时间进一步缩短。
8.5、知识总结
9、减少磁盘延迟时间的方法
前景回顾:
一次磁盘读/写操作需要的时间:
- 寻道时间(寻找时间):启动磁臂、移动磁头所花的时间
- 延迟时间:将目标扇区转到磁头下面所花的时间
- 传输时间:读/写数据花费的时间
但现在有如下问题:
假设要连续读取橙色区域的2、3、4扇区(如下图):磁头读取一块的内容(也就是一个扇区的内容)后,需要一小段时间处理,而盘片又在不停地旋转。
因此,如果2、3号扇区相邻着排列,则读完2号扇区后无法连续不断地读入3号扇区。
必须等待盘片继续旋转,3号扇区再次划过磁头,才能完成扇区读入。
【结论】磁头读入一个扇区数据后需要一小段时间处理,如果逻辑上相邻地扇区在物理上也相邻,则读入几个连续地逻辑扇区,可能需要很长的”延迟时间“。
所系需要一些方法解决此问题。
9.1、减少延迟时间的方法:交替编号
采用交替编号的策略,既让逻辑上相邻的扇区在物理上有一定的间隔,可以使读取连续的逻辑扇区所需要的延迟时间更小。
9.2、磁盘地址结构的设计
【思考】为什么?磁盘的物理地址是(柱面号,盘面号,扇区号),而不是(盘面号,柱面号,扇区号)?
假设某磁盘有8个柱面/磁道(假设最内侧柱面/磁道号为0),4个盘面,8个扇区。则可用3个二进制表示柱面,2个二进制位表示盘面,3个二进制位表示扇区。
若物理地址是(盘面号,柱面号,扇区号),且需要连续读取物理地址(00,000,000)(00,001,111)的扇区:(00,000,000)(00,000,111)转两圈可读完
之后在读取物理地址相邻的区域(下一个磁道),即(00,001,000)~(00,001,111),需要启动磁头臂,将磁头移动到下一个磁道。而移动磁头臂是物理动作,消耗性能。
若物理地址是(柱面号,盘面号,扇区号),且需要连续读取物理地址(000,00,000)(000,01,111)的扇区:(000,00,000)(000,00,111)转两圈可读完
之后在读取物理地址相邻的区域(下一个磁道),即(000,01,000)~(000,01,111),由于柱面号/磁道号相同,只是盘面号不同,因此不需要移动磁头臂。只需要激活相邻盘面的磁头即可
那上面问题的答案如下:
【思考】为什么?磁盘的物理地址是(柱面号,盘面号,扇区号),而不是(盘面号,柱面号,扇区号)?
读取地址连续的磁盘块时,采用(柱面号,盘面号,扇区号)的地址结构可以减少磁头移动消耗的时间。
9.3、减少延迟时间的方法:错位命名
问题引入:若相邻的盘面相对位置相同处扇区编号相同
如果从0号盘面的(000,00,111)到1号盘面的(000,01,000)。在读完磁盘块(000,00,111)之后,需要短暂的时间处理,而盘面又在不停的地转动,因此当(000,01,000)第一次划过1号盘面的磁头下方时,并不能读取数据,只能在等该扇区再次划过磁头。
所以这就带来一些时间浪费。
针对以上问题,引入错位命名算法。如下:
由于采用错位命名法,因此读取玩磁盘块(000,00,111)之后,还有一段时间处理,当(000,01,000)第一次划过1号盘面的磁头下方时,就可以直接读取数据,从而减少了延迟时间。
知识总结:
10、磁盘的管理
磁盘的管理:
- 磁盘初始化
- 引导快
- 坏块的管理
10.1、磁盘初始化
磁盘刚被制造出来只被划分为一个个磁道。所以需要磁盘初始化:
Step1:进行低级格式化(物理格式化),将磁盘的各个磁道划分为扇区。一个扇区通常可分为头、数据区域(如512B大小)、尾三个部分组成。管理扇区所需要的各种数据结构一般存放在头、尾两个部分,包括扇区校验码(如奇偶校验、CRC循环冗余校验码等,校验码用于校验扇区中的数据是否发生错误)。
Step2:将磁盘分区,每个分区由若干个柱面组成(即分为我们熟悉的C盘,D盘,E盘)。
Step3:进行逻辑格式化,创建文件系统。包括创建文件系统的根目录、初始化存储空间所用的数据结构(如 位示图、空闲分区表)。
10.2、引导块
计算机开机时需要进行一系列初始化的工作,这些初始化工作是通过执行**初始化程序(自举程序)**完成的
而初始化程序可以放在ROM(只读存储器)中。ROM中的数据在出厂时就写入了,并且以后不能再修改。
【注】ROM一般是出厂时就集成再主板上的。
【思考】初始化程序(自举程序)放在ROM中存在什么问题?
万一需要更新自举程序,将会很不方便,因为ROM中的数据无法更改。如何解决呢?
如下解决:
ROM中只存放很小的自举装入程序。
而完整的自举程序放在磁盘的启动快(即引导快/启动分区)上,启动块位于磁盘的固定位置。
开机时计算机先运行自举装入程序,通过执行该程序就可找到引导块,并将完整的自举程序读入内存,完成初始化。
那这样对于更新自举程序就很方便,只需要将引导块中的数据修改更新即可。
拥有启动分区的磁盘称为启动磁盘或系统磁盘(C:盘)。
10.3、坏块的管理
坏了,无法正常使用的扇区就是坏块。这属于硬件故障,操作系统是无法修复的。应该将坏块标记出来,以免错误地使用到它。
对于简单的磁盘,可以在逻辑格式化时(建立文件系统时)对整个磁盘进行坏块检查,标明那些扇区是坏扇区,比如:再FAT表上标明。(在这种方式中,坏块对操作系统不透明(操作系统是可见的))。
对于复杂的磁盘,磁盘控制器(磁盘设备内部的一个硬件部件)会维护一个坏块链表。
在磁盘出厂前进行低级格式化(物理格式化)时就将坏块进行初始化。
会保留一些”备用扇区“,用于替换坏块。这种方案称为扇区备用。且这种处理方式中,坏块对操作系统透明(操作系统不可知)。
知识总结:
11、固态硬盘SSD(新考点)
11.1、知识点总结:
固态硬盘SSD
- 原理:基于闪存技术
Flash Memory
,属于电可擦除ROM,即EEPROM - 组成:
- 闪存翻译层:负责翻译逻辑块号,找到对应页(Page)
- 存储介质:有多个内存芯片(Flash Chip),每个闪存芯片包含多个块(Block),每个块包含多个页(Page)
- 【重点】读写性能特性:
- 以页(Page)为单位读/写,SSD中的页相当于机械硬盘中的扇区
- 以块(Block)为单位擦除,擦干净的块,其中的每页都可以写一次,读无限次。
- 支持随机访问,系统给定一个逻辑地址,内存翻译层可通过电路迅速定位到对应的物理地址。
- 读块、写慢。要写的页如果有数据,则不能写入,需要将块内其它页全部复制到一个新的(擦除过的)块中,再写入新的页。
- 与机械硬盘相比的特点:
- SSD读写速度快,随机访问性能高,用电路控制访问位置;机械硬盘通过移动磁臂旋转磁盘控制访问位置,有寻道时间和旋转延迟。
- SSD安静无噪音,耐摔抗震、能耗低、造假更贵。
- 【重点】SSD的一个块被擦除次数过多(重复写同一个块)可能会坏掉,而机械硬盘的扇区不会因为写的次数太多而坏掉。
- 【重点】磨损均衡技术
- 思想:将擦除平均分布在各个块上,以提升使用寿命。
- 动态磨损均衡:写入数据时,优先选择累计擦除次数少的新闪存块。
- 静态磨损均衡:SSD监测并自动进行数据分配、迁移,让老旧的闪存块承担以读为主的存储任务,让较新的闪存块承担更多的写任务。
11.2、固态硬盘的结构
固态硬盘中由多个闪存芯片,每个闪存芯片中会有多个块,而每个块中又有多个页。
固态硬盘的读/写是以页为基本单位的。逻辑块在固态硬盘中的对应的是页。
在机械硬盘中,逻辑块对应的是一个物理块/扇区,磁盘的读/写单位是以块为单位的。
机械硬盘中的逻辑块对应固态硬盘中的页。
固态硬盘中的块对应机械硬盘中的一个磁道。(一个磁道包含多个扇区)。
11.3、理想情况下,固态硬盘的寿命
Eg:某固态硬盘采用和磨损均衡技术,大小为240B=1TB,闪存块的擦写寿命只有210=1K次。某男子平均每天会对该固态硬盘写2^37B=128GB数据。在最理想的情况下,这个固态硬盘可以用多久?
答:SSD采用磨损均衡技术,最理想情况下,SSD中每个块被擦除的次数都是完全均衡的。
1TB/128GB=8
因此,平均每8天,每个闪存块需要删除一次。
每个闪存块可以被擦除1K次,因此,经过8K天,约23年后,该固态硬盘被男子玩坏。