【八股】2023秋招八股复习笔记5(计算机网络-CN)

文章目录

      • 八股目录
      • 目录
      • 1、应用层 & HTTP
          • 一些http题
          • HTTPS 加密原理(问过)
          • HTTP/1.1 新特性
          • HTTP/2.0 与 RPC(问过)
          • GET 和 POST 比较
      • 2、传输层 & TCP
          • TCP三次握手 & 四次挥手(问过)
          • 为什么每次TCP 连接时,始化的序列号都要求不一样呢?
          • 初始序列号 ISN 是如何随机产生的?
          • 第1-3次握手丢失?
          • 针对 TCP 应该如何 Socket 编程?
          • 实现一个TCP应用,socket等待&绑定等过程(问过)
      • 3、Socket = http+tcp
          • I/O 模型
          • I/O 复用
      • 4、应用/传输层其他协议
          • 传输时延的计算(by 王道)
          • 表示层与会话层的功能(by 王道)
          • 应用层(by cyc)
          • 传输层(by cyc)
      • 5、OSI(物理链路网络)
          • 网络层IP(by 小林)
          • 网络层(by cyc)
          • 数据链路层(by 王道)
          • 数据链路层(By cyc)
          • 物理层(by cyc)

八股目录

HTTP

  • 1、协议参数
    HTTP 是什么?
    HTTP 常见的状态码有哪些?
    HTTP 常见字段有哪些?
    GET 和 POST 有什么区别?
    GET 和 POST 方法都是安全和幂等的吗?
    HTTP 缓存有哪些实现方式?
    什么是强制缓存?
    什么是协商缓存?

  • 2、HTTP版本特性
    HTTP/1.1 的优点有哪些?
    HTTP/1.1 的缺点有哪些?
    HTTP/1.1 的性能如何?
    HTTP/1.1 相比 HTTP/1.0 提高了什么性能?
    HTTP/2 做了什么优化?
    HTTP/3 做了哪些优化?
    HTTP/1.1 如何优化?
    HTTP/2 牛逼在哪?
    HTTP/3 强势来袭

  • 3、其他协议
    HTTP 与 HTTPS 有哪些区别?
    HTTPS 解决了 HTTP 的哪些问题?
    HTTPS 是如何建立连接的?其间交互了什么?
    HTTPS 的应用数据是如何保证完整性的?
    HTTPS 一定安全可靠吗?
    HTTPS RSA 握手解析
    HTTPS ECDHE 握手解析
    HTTPS 如何优化?
    既然有 HTTP 协议,为什么还要有 RPC?
    既然有 HTTP 协议,为什么还要有 WebSocket?

TCP

  • 1、连接管理:
    tcp/udp,3握手4挥手,Socket
    3次握手(2次,4次,序列号,1-3丢失)
    4次挥手(2MSL,1-4丢失,time_wait时间,功能,过多过少,优化,CLOSE_WAIT原因,keepalive)
    Socket(流程,listen,accept,close)
    TCP 三次握手与四次挥手面试题
    TCP 实战抓包分析
    TCP 半连接队列和全连接队列
    如何理解是 TCP 面向字节流协议?(对比UDP)
    为什么 TCP 每次建立连接时,初始化序列号都要不一样呢?
    HTTPS 中 TLS 和 TCP 能同时握手吗?
    TCP Keepalive 和 HTTP Keep-Alive 是一个东西吗?
    TCP 有什么缺陷?
    服务端没有 listen,客户端发起连接建立,会发生什么?
    没有 accpet,可以建立 TCP 连接吗?

  • 2、可靠传输
    SYN 报文什么时候情况下会被丢弃?
    四次挥手中收到乱序的 FIN 包会如何处理?
    在 TIME_WAIT 状态的 TCP 连接,收到 SYN 后会发生什么?
    tcp_tw_reuse 为什么默认是关闭的?
    如何基于 UDP 协议实现可靠传输?
    TCP 和 UDP 可以使用同一个端口吗?
    TCP 连接,一端断电和进程崩溃有什么区别?
    拔掉网线后, 原本的 TCP 连接还存在吗?
    用了 TCP 协议,数据一定不会丢吗?
    TCP 四次挥手,可以变成三次吗?
    TCP 序列号和确认号是如何变化的?

  • 3、滑动窗口,流量控制,拥塞控制
    TCP 重传、滑动窗口、流量控制、拥塞控制
    如何优化 TCP?(连接建立,数据传输)

目录

众所周知,OSI考研大概是有5层。
然后八股只考应用层的HTTP和传输层的TCP。
即资源子网和与传输层。
或者说端到端的部分。

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

1、应用层 & HTTP

一些http题

get/post(
get是获取指定资源,post是上传资源并对上传的资源请求做出响应

http和https(
在 TCP 三次握手之后,还需进行 SSL/TLS 的握手过程。HTTPS 默认端口号是 443,要申请证书。

http 301 302 404 501 502 503(
3xx重定向&永久临时,4xx客户端错&资源不存在,
5xx服务器错&未开业&代理错&网络忙

浏览器输入url幂等性(
GET 方法是安全、幂等、可被缓存的,post是不安全不幂等的

session cookie 区别 什么时候都要使用(
cookie不是很安全,别人可以分析存放在本地的cookie并进行cookie欺骗,考虑到安全应当使用session。
session会在一定时间内保存在服务器上。 当访问增多,会比较占用你服务器的性能,考虑到减轻服务器性能方面,应当使用cookie。

泛洪攻击(
一种拒绝服务(DDoS) 攻击,旨在耗尽可用服务器资源,致使服务器无法传输合法流量。
通过重复发送初始连接请求(SYN) 数据包,攻击者将可击垮目标服务器计算机上的所有可用端口,导致目标设备在响应合法流量时表现迟钝乃至全无响应。

浏览器输入Url发生了什么?
Http请求包是怎么接收的?
socket编程有了解过吗?
服务器端要实现一个socket 你觉得应该怎么实现?

怎么加快输入页面到浏览器显示?
服务器做缓存(重点)
dns解析过程中可以将url解析结果中的host文件去找,
然后HTTP的协议版本不同对 页面的请求速度也有影响(HTTP2.0是帧的请求格式,然后可以实现在一个TCP连接上进行多个HTTP请求)

服务器端用缓存怎么用?
用什么数据结构 LRU

我要实现一个功能跟函数,给你一块内存 如何去设置它的内存管理跟分配

HTTPS 加密原理(问过)
  • HTTP 有以下安全性问题:
    使用明文进行通信,内容可能会被窃听
    不验证通信方的身份,通信方的身份有可能遭遇伪装;
    无法证明报文的完整性,报文有可能遭篡改。
    HTTPS 并不是新协议,而是让 HTTP 先和 SSL(Secure Sockets Layer)通信,再由 SSL 和 TCP 通信,也就是说 HTTPS 使用了隧道进行通信。

通过使用 SSL,HTTPS 具有了加密(防窃听)、认证(防伪装)和完整性保护(防篡改)。

  1. 对称密钥加密
    对称密钥加密(Symmetric-Key Encryption),加密和解密使用同一密钥。
    优点:运算速度快;
    缺点:无法安全地将密钥传输给通信方。

  2. 非对称密钥加密
    非对称密钥加密,又称公开密钥加密(Public-Key Encryption),加密和解密使用不同的密钥。
    公开密钥所有人都可以获得,通信发送方获得接收方的公开密钥之后,就可以使用公开密钥进行加密,接收方收到通信内容后使用私有密钥解密。
    非对称密钥除了用来加密,还可以用来进行签名。因为私有密钥无法被其他人获取,因此通信发送方使用其私有密钥进行签名,通信接收方使用发送方的公开密钥对签名进行解密,就能判断这个签名是否正确。
    优点:可以更安全地将公开密钥传输给通信发送方;
    缺点:运算速度慢。

  3. HTTPS 采用的加密方式
    上面提到对称密钥加密方式的传输效率更高,但是无法安全地将密钥 Secret Key 传输给通信方。而非对称密钥加密方式可以保证传输的安全性,因此我们可以利用非对称密钥加密方式将 Secret Key 传输给通信方。
    HTTPS 采用混合的加密机制,正是利用了上面提到的方案:
    使用非对称密钥加密方式,传输对称密钥加密方式所需要的 Secret Key,从而保证安全性;
    获取到 Secret Key 后,再使用对称密钥加密方式进行通信,从而保证效率。

认证

  • 通过使用 证书 来对通信方进行认证。
  • 数字证书认证机构(CA,Certificate Authority)是客户端与服务器双方都可信赖的第三方机构
  • 服务器的运营人员向 CA 提出公开密钥的申请,CA 在判明提出申请者的身份之后,会对已申请的公开密钥做数字签名,然后分配这个已签名的公开密钥,并将该公开密钥放入公开密钥证书后绑定在一起
  • 进行 HTTPS 通信时,服务器会把证书发送给客户端。客户端取得其中的公开密钥之后,先使用数字签名进行验证,如果验证通过,就可以开始通信了。

完整性保护

  • SSL 提供报文摘要功能来进行完整性保护。
  • HTTP 也提供了 MD5 报文摘要功能,但不是安全的。例如报文内容被篡改之后,同时重新计算 MD5 的值,通信接收方是无法意识到发生了篡改。
  • HTTPS 的报文摘要功能之所以安全,是因为它结合了加密和认证这两个操作。试想一下,加密之后的报文,遭到篡改之后,也很难重新计算报文摘要,因为无法轻易获取明文。

HTTPS 的缺点

  • 因为需要进行加密解密等过程,因此速度会更慢;
  • 需要支付证书授权的高额费用。
HTTP/1.1 新特性

详细内容请见上文

默认是长连接
支持流水线
支持同时打开多个 TCP 连接
支持虚拟主机
新增状态码 100
支持分块传输编码
新增缓存处理指令 max-age

HTTP/2.0 与 RPC(问过)

HTTP/1.x 缺陷
HTTP/1.x 实现简单是以牺牲性能为代价的:
客户端需要使用多个连接才能实现并发和缩短延迟;
不会压缩请求和响应首部,从而导致不必要的网络流量;
不支持有效的资源优先级,致使底层 TCP 连接的利用率低下。

GET 和 POST 比较

GET 用于获取资源,而 POST 用于传输实体主体。

GET 和 POST 的请求都能使用额外的参数,
但是 GET 的参数是以查询字符串出现在 URL 中,
而 POST 的参数存储在实体主体中。
不能因为 POST 参数存储在实体主体中就认为它的安全性更高,因为照样可以通过一些抓包工具(Fiddler)查看。

安全性

  • 安全的 HTTP 方法不会改变服务器状态,也就是说它只是可读的。
  • GET 方法是安全的,而 POST 却不是,因为 POST 的目的是传送实体主体内容,这个内容可能是用户上传的表单数据,上传成功之后,服务器可能把这个数据存储到数据库中,因此状态也就发生了改变。
  • 安全的方法除了 GET 之外还有:HEAD、OPTIONS。
  • 不安全的方法除了 POST 之外还有 PUT、DELETE。

幂等性

  • 幂等的 HTTP 方法,同样的请求被执行一次与连续执行多次的效果是一样的,服务器的状态也是一样的。
  • 换句话说就是,幂等方法不应该具有副作用(统计用途除外)。
  • 所有的安全方法也都是幂等的。
  • 在正确实现的条件下,GET,HEAD,PUT 和 DELETE 等方法都是幂等的,而 POST 方法不是。
  • GET /pageX HTTP/1.1 是幂等的,连续调用多次,客户端接收到的结果都是一样的:

可缓存

  • 如果要对响应进行缓存,需要满足以下条件:
  • 请求报文的 HTTP 方法本身是可缓存的,包括 GET 和 HEAD,但是 PUT 和 DELETE 不可缓存,POST 在多数情况下不可缓存的。
  • 响应报文的状态码是可缓存的,包括:200, 203, 204, 206, 300, 301, 404, 405, 410, 414, and 501。
  • 响应报文的 Cache-Control 首部字段没有指定不进行缓存。

2、传输层 & TCP

TCP三次握手 & 四次挥手(问过)

TCP三次握手( 为什么不是四次,最后一次可以附数据)
TCP四次挥手(最后waittime了解吗)

  1. TCP三次握手(Three-Way Handshake):

    • 第一次握手(SYN):客户端发送一个带有SYN(同步序列号)标志位的TCP报文段给服务器,请求建立连接。
    • 第二次握手(SYN+ACK):服务器收到客户端的请求后,回复一个带有SYN/ACK标志位的TCP报文段,表示同意建立连接。
    • 第三次握手(ACK):客户端收到服务器的回复后,再发送一个带有ACK标志位的TCP报文段给服务器,确认连接建立。
  2. TCP四次挥手(Four-Way Handshake):

    • 第一次挥手(FIN):当客户端决定关闭连接时,发送一个带有FIN(结束)标志位的TCP报文段给服务器,表示客户端不再发送数据。
    • 第二次挥手(ACK):服务器接收到客户端的FIN后,发送一个带有ACK标志位的TCP报文段给客户端,表示已收到客户端的关闭请求。
    • 第三次挥手(FIN):服务器确定准备关闭连接时,发送一个带有FIN标志位的TCP报文段给客户端,表示服务器不再发送数据。
    • 第四次挥手(ACK):**客户端接收到服务器的FIN后,发送一个带有ACK标志位的TCP报文段给服务器,**确认收到服务器的关闭请求。

为什么要四次挥手而不是三次挥手呢?

  • 这是因为在关闭连接时,客户端和服务器都可能还有未发送完的数据,需要确保对方接收完毕后才能安全地关闭连接。
  • 四次挥手过程中,最后一次挥手(第四次挥手)的ACK报文段是用来确认服务器的关闭请求已经被客户端接收到,而不是用来传输数据的,以确保双方都知道对方已经关闭了连接。
  • 简单来说,四次挥手是为了保证双方都能安全地关闭连接并确认对方的关闭请求已被接收。

为什么要等待2MSL?参考

  • MSL是报文最大生存时间,他是任何报文在网络上存活的最长时间,超过这个时间报文将被丢弃。

  • 客户端发完ACK等待2MSL,防止丢包。
    这种情况下,那服务器会一直收不到客户端的回应,所以这种情况是和只进行三次挥手的情况类似的,服务器没有收到回应,服务器就无法知道到底客户端有没有收到服务器断开的请求。

  • 如果客户端收到了,那还好,皆大欢喜客户端和服务器端都断开连接;如果客户端没有收到,客户端还一直傻傻地在那里等着服务器继续发送消息。
    服务器无法判断客户端是否收到,这种情况本身就是一种不可靠的情况,堂堂号称可靠的TCP的连接出现这种情况岂不是要被笑掉大牙?

  • 也因此出现了客户端要等待2MSL的情况。为了保证客户端最后一次挥手的报文能够到达服务器,如果第四次挥手的报文段丢失了,!

  • 服务器会超时重传这个第三次挥手的报文段!!!!!!

  • 所以客户端不是直接进入CLOSED,而是要保持TIME_WAIT(等待2MSL就是TIME_WAIT)就起到作用了!!!,

  • 当再次收到服务器的超时重传的断开连接的第三次挥手的请求的时候,客户端会继续给服务器发送一个第四次挥手的报文,!

  • 能够保证对方(服务器)收到客户端的回应报文,最后客户端和服务器正确的关闭连接。!

  • 等待2MSL是为了保证包都过期了,防止下次建立连接的时候再出现,然后混淆

为什么不是两次或四次?

  • 「两次握手」:无法防止历史连接的建立,会造成双方资源的浪费,也无法可靠的同步双方序列号
    「四次握手」:三次握手就已经理论上最少可靠连接建立,中间的两次握手可以合并,所以不需要使用更多的通信次数。 最后第三次握手可以携带数据。
为什么每次TCP 连接时,始化的序列号都要求不一样呢?

主要原因有两个方面:

  • 为了防止历史报文被下一个相同四元组的连接接收(主要方面);
  • 为了安全性,防止黑客伪造的相同序列号的 TCP 报文被对方接收;

接下来,详细说说第一点。

  • 假设每次建立连接,客户端和服务端的初始化序列号都是从 0 开始:
    客户端和服务端建立一个 TCP 连接,在客户端发送数据包被网络阻塞了,然后超时重传了这个数据包,而此时服务端设备断电重启了,之前与客户端建立的连接就消失了,于是在收到客户端的数据包的时候就会发送 RST 报文。
    紧接着,客户端又与服务端建立了与上一个连接相同四元组的连接;
    在新连接建立完成后,上一个连接中被网络阻塞的数据包正好抵达了服务端,刚好该数据包的序列号正好是在服务端的接收窗口内,所以该数据包会被服务端正常接收,就会造成数据错乱。
  • 可以看到,如果每次建立连接,客户端和服务端的初始化序列号都是一样的话,很容易出现历史报文被下一个相同四元组的连接接收的问题。
  • 所以,每次初始化序列号不一样很大程度上能够避免历史报文被下一个相同四元组的连接接收,注意是很大程度上,并不是完全避免了因为序列号会有回绕的问题,所以需要用时间戳的机制来判断历史报文,)
初始序列号 ISN 是如何随机产生的?

起始 ISN 是基于时钟的,每 4 微秒 + 1,转一圈要 4.55 个小时。

RFC793 提到初始化序列号 ISN 随机生成算法:ISN = M + F(localhost, localport, remotehost, remoteport)。

M 是一个计时器,这个计时器每隔 4 微秒加 1。
F 是一个 Hash 算法,根据源 IP、目的 IP、源端口、目的端口生成一个随机数值。要保证 Hash 算法不能被外部轻易推算得出,用 MD5 算法是一个比较好的选择。
可以看到,随机数是会基于时钟计时器递增的,基本不可能会随机成一样的初始化序列号。

第1-3次握手丢失?

第一次

  • 当客户端超时重传 3 次 SYN 报文后,由于 tcp_syn_retries 为 3,已达到最大重传次数,于是再等待一段时间(时间为上一次超时时间的 2 倍),如果还是没能收到服务端的第二次握手(SYN-ACK 报文),那么客户端就会断开连接。

第二次

  • 因为第二次握手报文里是包含对客户端的第一次握手的 ACK 确认报文,所以,如果客户端迟迟没有收到第二次握手,那么客户端就觉得可能自己的 SYN 报文(第一次握手)丢失了,于是客户端就会触发超时重传机制,重传 SYN 报文。
  • 然后,因为第二次握手中包含服务端的 SYN 报文,所以当客户端收到后,需要给服务端发送 ACK 确认报文(第三次握手),服务端才会认为该 SYN 报文被客户端收到了。
  • 那么,如果第二次握手丢失了,服务端就收不到第三次握手,于是服务端这边会触发超时重传机制,重传 SYN-ACK 报文。
  • 因此,当第二次握手丢失了,客户端和服务端都会重传:
    客户端会重传 SYN 报文,也就是第一次握手,最大重传次数由 tcp_syn_retries内核参数决定;
    服务端会重传 SYN-ACK 报文,也就是第二次握手,最大重传次数由 tcp_synack_retries 内核参数决定。
  • 具体过程:
    • 当客户端超时重传 1 次 SYN 报文后,由于 tcp_syn_retries 为 1,已达到最大重传次数,于是再等待一段时间(时间为上一次超时时间的 2 倍),如果还是没能收到服务端的第二次握手(SYN-ACK 报文),那么客户端就会断开连接。
    • 当服务端超时重传 2 次 SYN-ACK 报文后,由于 tcp_synack_retries 为 2,已达到最大重传次数,于是再等待一段时间(时间为上一次超时时间的 2 倍),如果还是没能收到客户端的第三次握手(ACK 报文),那么服务端就会断开连接。

第三次

  • 因为这个第三次握手的 ACK 是对第二次握手的 SYN 的确认报文,所以当第三次握手丢失了,如果服务端那一方迟迟收不到这个确认报文,就会触发超时重传机制,重传 SYN-ACK 报文,直到收到第三次握手,或者达到最大重传次数。
  • 注意,ACK 报文是不会有重传的,当 ACK 丢失了,就由对方重传对应的报文。
  • 当服务端超时重传 2 次 SYN-ACK 报文后,由于 tcp_synack_retries 为 2,已达到最大重传次数,于是再等待一段时间(时间为上一次超时时间的 2 倍),如果还是没能收到客户端的第三次握手(ACK 报文),那么服务端就会断开连接。
针对 TCP 应该如何 Socket 编程?

服务端和客户端初始化 socket,得到文件描述符;
服务端调用 bind,将 socket 绑定在指定的 IP 地址和端口;
服务端调用 listen,进行监听;
服务端调用 accept,等待客户端连接;
客户端调用 connect,向服务端的地址和端口发起连接请求;
服务端 accept 返回用于传输的 socket 的文件描述符;
客户端调用 write 写入数据;服务端调用 read 读取数据;
客户端断开连接时,会调用 close,那么服务端 read 读取数据的时候,就会读取到了 EOF,待处理完数据后,服务端调用 close,表示连接关闭。
这里需要注意的是,服务端调用 accept 时,连接成功了会返回一个已完成连接的 socket,后续用来传输数据。

所以,监听的 socket 和真正用来传送数据的 socket,是「两个」 socket,一个叫作监听 socket,一个叫作已完成连接 socket。

成功连接建立之后,双方开始通过 read 和 write 函数来读写数据,就像往一个文件流里面写东西一样。

没有 accept,能建立 TCP 连接吗?

  • 答案:可以的。
  • accpet 系统调用并不参与 TCP 三次握手过程,它只是负责从 TCP 全连接队列取出一个已经建立连接的 socket,用户层通过 accpet 系统调用拿到了已经建立连接的 socket,就可以对该 socket 进行读写操作了。

没有 listen,能建立 TCP 连接吗?

  • 答案:可以的。
  • 客户端是可以自己连自己的形成连接(TCP自连接),也可以两个客户端同时向对方发出请求建立连接(TCP同时打开),这两个情况都有个共同点,就是没有服务端参与,也就是没有 listen,就能 TCP 建立连接。
实现一个TCP应用,socket等待&绑定等过程(问过)

TCP(传输控制协议)是一种面向连接的、可靠的传输层协议,用于在网络上可靠地传输数据。下面是TCP应用的基本过程和相关原理的简要说明:

  1. 创建套接字(Socket):TCP应用程序首先需要创建一个套接字,套接字是网络通信的端点。套接字可以通过调用操作系统提供的socket函数来创建,该函数返回一个唯一标识套接字的文件描述符。
  2. 绑定套接字:在使用套接字之前,需要将其绑定到本地地址和端口上。这样,其他应用程序就可以通过指定该地址和端口来与该套接字进行通信。绑定操作可以使用bind函数来完成。
  3. 监听连接请求:如果应用程序作为服务器,需要监听传入的连接请求。通过调用listen函数,将套接字设置为监听模式,并指定能够排队等待处理的连接请求的最大数量
  4. 接受连接请求:一旦有客户端发起连接请求,服务器就需要接受该请求。通过调用accept函数,服务器会阻塞等待,直到有客户端连接成功。accept函数返回一个新的套接字,该套接字用于与客户端进行通信
  5. 进行数据传输:一旦建立了连接,服务器和客户端之间就可以进行数据的传输。应用程序可以使用发送(send)和接收(receive)函数来发送和接收数据。TCP协议会确保数据的可靠传输,包括数据分割、重组、流量控制和拥塞控制等机制。
  6. 关闭连接:当数据传输完成或需要关闭连接时,可以调用close函数来关闭套接字。关闭连接时,TCP协议会执行四次挥手过程,确保双方都完成了数据的传输并同意关闭连接。

3、Socket = http+tcp

I/O 模型

一个输入操作通常包括两个阶段:

  • 等待数据准备好
  • 从内核向进程复制数据

对于一个套接字上的输入操作,

  • 第一步通常涉及等待数据从网络中到达。当所等待数据到达时,它被复制到内核中的某个缓冲区
  • 第二步就是把数据从内核缓冲区复制到应用进程缓冲区

Unix 有五种 I/O 模型:
阻塞式 I/O
非阻塞式 I/O
I/O 复用(select 和 poll)
信号驱动式 I/O(SIGIO)
异步 I/O(AIO)

阻塞式 I/O

  • 应用进程被阻塞,直到数据从内核缓冲区复制到应用进程缓冲区中才返回。
    应该注意到,在阻塞的过程中,其它应用进程还可以执行,因此阻塞不意味着整个操作系统都被阻塞。因为其它应用进程还可以执行,所以不消耗 CPU 时间,这种模型的 CPU 利用率会比较高。
    下图中,recvfrom() 用于接收 Socket 传来的数据,并复制到应用进程的缓冲区 buf 中。这里把 recvfrom() 当成系统调用。

非阻塞式 I/O

  • 应用进程执行系统调用之后,内核返回一个错误码。应用进程可以继续执行,但是需要不断的执行系统调用来获知 I/O 是否完成,这种方式称为轮询(polling)
    由于 CPU 要处理更多的系统调用,因此这种模型的 CPU 利用率比较低

I/O 复用

  • 使用 select 或者 poll 等待数据,并且可以等待多个套接字中的任何一个变为可读。这一过程会被阻塞,当某一个套接字可读时返回,之后再使用 recvfrom 把数据从内核复制到进程中。
  • 它可以让单个进程具有处理多个 I/O 事件的能力。又被称为 Event Driven I/O,即事件驱动 I/O。
  • 如果一个 Web 服务器没有 I/O 复用,那么每一个 Socket 连接都需要创建一个线程去处理。如果同时有几万个连接,那么就需要创建相同数量的线程。相比于多进程和多线程技术,I/O 复用不需要进程线程创建和切换的开销,系统开销更小。

信号驱动 I/O

  • 应用进程使用 sigaction 系统调用,内核立即返回,应用进程可以继续执行,也就是说等待数据阶段应用进程是非阻塞的。内核在数据到达时向应用进程发送 SIGIO 信号,应用进程收到之后在信号处理程序中调用 recvfrom 将数据从内核复制到应用进程中。
  • 相比于非阻塞式 I/O 的轮询方式,信号驱动 I/O 的 CPU 利用率更高。

异步 I/O

  • 应用进程执行 aio_read 系统调用会立即返回,应用进程可以继续执行,不会被阻塞,内核会在所有操作完成之后向应用进程发送信号。
  • 异步 I/O 与信号驱动 I/O 的区别在于,异步 I/O 的信号是通知应用进程 I/O 完成,而信号驱动 I/O 的信号是通知应用进程可以开始 I/O

五大 I/O 模型比较

  • 同步 I/O:将数据从内核缓冲区复制到应用进程缓冲区的阶段(第二阶段),应用进程会阻塞。
  • 异步 I/O:第二阶段应用进程不会阻塞。
  • 同步 I/O 包括阻塞式 I/O、非阻塞式 I/O、I/O 复用和信号驱动 I/O ,它们的主要区别在第一个阶段。
  • 非阻塞式 I/O 、信号驱动 I/O 和异步 I/O 在第一阶段不会阻塞。
I/O 复用

select/poll/epoll 都是 I/O 多路复用的具体实现,select 出现的最早,之后是 poll,再是 epoll。

select

  • select 允许应用程序监视一组文件描述符,等待一个或者多个描述符成为就绪状态,从而完成 I/O 操作。
  • fd_set 使用数组实现,数组大小使用 FD_SETSIZE 定义,所以只能监听少于 FD_SETSIZE 数量的描述符。有三种类型的描述符类型:readset、writeset、exceptset,分别对应读、写、异常条件的描述符集合。
  • timeout 为超时参数,调用 select 会一直阻塞直到有描述符的事件到达或者等待的时间超过 timeout。
  • 成功调用返回结果大于 0,出错返回结果为 -1,超时返回结果为 0。

poll

  • poll 的功能与 select 类似,也是等待一组描述符中的一个成为就绪状态。
  • poll 中的描述符是 pollfd 类型的数组,pollfd 的定义如下:

比较

  1. 功能
    select 和 poll 的功能基本相同,不过在一些实现细节上有所不同。
    select 会修改描述符,而 poll 不会
    select 的描述符类型使用数组实现,FD_SETSIZE 大小默认为 1024,因此默认只能监听少于 1024 个描述符。
    如果要监听更多描述符的话,需要修改 FD_SETSIZE 之后重新编译;而 poll 没有描述符数量的限制;
    poll 提供了更多的事件类型,并且对描述符的重复利用上比 select 高
    如果一个线程对某个描述符调用了 select 或者 poll,另一个线程关闭了该描述符,会导致调用结果不确定
  2. 速度
    select 和 poll 速度都比较慢,每次调用都需要将全部描述符从应用进程缓冲区复制到内核缓冲区
  3. 可移植性
    几乎所有的系统都支持 select,但是只有比较新的系统支持 poll。

epoll_ctl()

  • 用于向内核注册新的描述符或者是改变某个文件描述符的状态。已注册的描述符在内核中会被维护在一棵红黑树上,通过回调函数内核会将 I/O 准备好的描述符加入到一个链表中管理,进程调用 epoll_wait() 便可以得到事件完成的描述符。
  • 从上面的描述可以看出,epoll 只需要将描述符从进程缓冲区向内核缓冲区拷贝一次,并且进程不需要通过轮询来获得事件完成的描述符。
  • epoll 仅适用于 Linux OS。
    epoll 比 select 和 poll 更加灵活而且没有描述符数量限制。
  • epoll 对多线程编程更有友好,一个线程调用了 epoll_wait() 另一个线程关闭了同一个描述符也不会产生像 select 和 poll 的不确定情况。

epoll工作模式
的描述符事件有两种触发模式:LT(level trigger)和 ET(edge trigger)。

  1. LT 模式
    当 epoll_wait() 检测到描述符事件到达时,将此事件通知进程,进程可以不立即处理该事件,下次调用 epoll_wait() 会再次通知进程。是默认的一种模式,并且同时支持 Blocking 和 No-Blocking。
  2. ET 模式
    和 LT 模式不同的是,通知之后进程必须立即处理事件,下次再调用 epoll_wait() 时不会再得到事件到达的通知。

很大程度上减少了 epoll 事件被重复触发的次数,因此效率要比 LT 模式高。只支持 No-Blocking,以避免由于一个文件句柄的阻塞读/阻塞写操作把处理多个文件描述符的任务饿死。

应用场景
很容易产生一种错觉认为只要用 epoll 就可以了,select 和 poll 都已经过时了,其实它们都有各自的使用场景

  1. select 应用场景
    select 的 timeout 参数精度为微秒,而 poll 和 epoll 为毫秒,因此 select 更加适用于实时性要求比较高的场景,比如核反应堆的控制
    select 可移植性更好, 几乎被所有主流平台所支持。

  2. poll 应用场景
    poll 没有最大描述符数量的限制,如果平台支持并且对实时性要求不高,应该使用 poll 而不是 select。

  3. epoll 应用场景
    只需要运行在 Linux 平台上,有大量的描述符需要同时轮询,并且这些连接最好是长连接。
    需要同时监控小于 1000 个描述符,就没有必要使用 epoll,因为这个应用场景下并不能体现 epoll 的优势。
    需要监控的描述符状态变化多,而且都是非常短暂的,也没有必要使用 epoll。
    因为 epoll 中的所有描述符都存储在内核中,造成每次需要对描述符的状态改变都需要通过 epoll_ctl() 进行系统调用,频繁系统调用降低效率
    并且 epoll 的描述符存储在内核,不容易调试。

4、应用/传输层其他协议

传输时延的计算(by 王道)

在这里插入图片描述

表示层与会话层的功能(by 王道)

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

应用层(by cyc)
  • 域名系统
    DNS 是一个分布式数据库,提供了主机名和 IP 地址之间相互转换的服务。这里的分布式数据库是指,每个站点只保留它自己的那部分数据。
    域名具有层次结构,从上到下依次为:根域名、顶级域名、二级域名。
    DNS 可以使用 UDP 或者 TCP 进行传输,使用的端口号都为 53。大多数情况下 DNS 使用 UDP 进行传输,这就要求域名解析器和域名服务器都必须自己处理超时和重传从而保证可靠性。在两种情况下会使用 TCP 进行传输:
    如果返回的响应超过的 512 字节(UDP 最大只支持 512 字节的数据)。
    区域传送(区域传送是主域名服务器向辅助域名服务器传送变化的那部分数据)。

  • 文件传送协议
    FTP 使用 TCP 进行连接,它需要两个连接来传送一个文件:
    控制连接:服务器打开端口号 21 等待客户端的连接,客户端主动建立连接后,使用这个连接将客户端的命令传送给服务器,并传回服务器的应答。
    数据连接:用来传送一个文件数据。
    根据数据连接是否是服务器端主动建立,FTP 有主动和被动两种模式:
    主动模式:服务器端主动建立数据连接,其中服务器端的端口号为 20,客户端的端口号随机,但是必须大于 1024,因为 0~1023 是熟知端口号。
    被动模式:客户端主动建立数据连接,其中客户端的端口号由客户端自己指定,服务器端的端口号随机
    主动模式要求客户端开放端口号给服务器端,需要去配置客户端的防火墙。被动模式只需要服务器端开放端口号即可,无需客户端配置防火墙。但是被动模式会导致服务器端的安全性减弱,因为开放了过多的端口号。

  • 动态主机配置协议
    DHCP (Dynamic Host Configuration Protocol) 提供了即插即用的连网方式,用户不再需要手动配置 IP 地址等信息。
    DHCP 配置的内容不仅是 IP 地址,还包括子网掩码、网关 IP 地址。
    DHCP 工作过程如下:
    客户端发送 Discover 报文,该报文的目的地址为 255.255.255.255:67,源地址为 0.0.0.0:68,被放入 UDP 中,该报文被广播到同一个子网的所有主机上。如果客户端和 DHCP 服务器不在同一个子网,就需要使用中继代理。
    DHCP 服务器收到 Discover 报文之后,发送 Offer 报文给客户端,该报文包含了客户端所需要的信息。因为客户端可能收到多个 DHCP 服务器提供的信息,因此客户端需要进行选择。
    如果客户端选择了某个 DHCP 服务器提供的信息,那么就发送 Request 报文给该 DHCP 服务器。
    DHCP 服务器发送 Ack 报文,表示客户端此时可以使用提供给它的信息。

  • 远程登录协议
    TELNET 用于登录到远程主机上,并且远程主机上的输出也会返回。
    TELNET 可以适应许多计算机和操作系统的差异,例如不同操作系统系统的换行符定义。

  • 电子邮件协议
    一个电子邮件系统由三部分组成:用户代理、邮件服务器以及邮件协议。
    邮件协议包含发送协议和读取协议,发送协议常用 SMTP,读取协议常用 POP3 和 IMAP。

  1. SMTP
    SMTP 只能发送 ASCII 码,而互联网邮件扩充 MIME 可以发送二进制文件。MIME 并没有改动或者取代 SMTP,而是增加邮件主体的结构,定义了非 ASCII 码的编码规则。
  2. POP3
    POP3 的特点是只要用户从服务器上读取了邮件,就把该邮件删除。但最新版本的 POP3 可以不删除邮件。
  3. IMAP
    IMAP 协议中客户端和服务器上的邮件保持同步,如果不手动删除邮件,那么服务器上的邮件也不会被删除。IMAP 这种做法可以让用户随时随地去访问服务器上的邮件。
  • Web 页面请求过程
  1. DHCP 配置主机信息
    假设主机最开始没有 IP 地址以及其它信息,那么就需要先使用 DHCP 来获取。
    主机生成一个 DHCP 请求报文,并将这个报文放入具有目的端口 67 和源端口 68 的 UDP 报文段中。
    该报文段则被放入在一个具有广播 IP 目的地址(255.255.255.255) 和源 IP 地址(0.0.0.0)的 IP 数据报中。
    该数据报则被放置在 MAC 帧中,该帧具有目的地址 FF:FF:FF:FF:FF:FF,将广播到与交换机连接的所有设备。
    连接在交换机的 DHCP 服务器收到广播帧之后,不断地向上分解得到 IP 数据报、UDP 报文段、DHCP 请求报文,之后生成 DHCP ACK 报文,该报文包含以下信息:IP 地址、DNS 服务器的 IP 地址、默认网关路由器的 IP 地址和子网掩码。该报文被放入 UDP 报文段中,UDP 报文段有被放入 IP 数据报中,最后放入 MAC 帧中。
    该帧的目的地址是请求主机的 MAC 地址,因为交换机具有自学习能力,之前主机发送了广播帧之后就记录了 MAC 地址到其转发接口的交换表项,因此现在交换机就可以直接知道应该向哪个接口发送该帧。
    主机收到该帧后,不断分解得到 DHCP 报文。之后就配置它的 IP 地址、子网掩码和 DNS 服务器的 IP 地址,并在其 IP 转发表中安装默认网关。

  2. ARP 解析 MAC 地址
    主机通过浏览器生成一个 TCP 套接字,套接字向 HTTP 服务器发送 HTTP 请求。为了生成该套接字,主机需要知道网站的域名对应的 IP 地址。
    主机生成一个 DNS 查询报文,该报文具有 53 号端口,因为 DNS 服务器的端口号是 53。
    该 DNS 查询报文被放入目的地址为 DNS 服务器 IP 地址的 IP 数据报中。
    该 IP 数据报被放入一个以太网帧中,该帧将发送到网关路由器。
    DHCP 过程只知道网关路由器的 IP 地址,为了获取网关路由器的 MAC 地址,需要使用 ARP 协议。
    主机生成一个包含目的地址为网关路由器 IP 地址的 ARP 查询报文,将该 ARP 查询报文放入一个具有广播目的地址(FF:FF:FF:FF:FF:FF)的以太网帧中,并向交换机发送该以太网帧,交换机将该帧转发给所有的连接设备,包括网关路由器。
    网关路由器接收到该帧后,不断向上分解得到 ARP 报文,发现其中的 IP 地址与其接口的 IP 地址匹配,因此就发送一个 ARP 回答报文,包含了它的 MAC 地址,发回给主机。

  3. DNS 解析域名
    知道了网关路由器的 MAC 地址之后,就可以继续 DNS 的解析过程了。
    网关路由器接收到包含 DNS 查询报文的以太网帧后,抽取出 IP 数据报,并根据转发表决定该 IP 数据报应该转发的路由器。
    因为路由器具有内部网关协议(RIP、OSPF)和外部网关协议(BGP)这两种路由选择协议,因此路由表中已经配置了网关路由器到达 DNS 服务器的路由表项。
    到达 DNS 服务器之后,DNS 服务器抽取出 DNS 查询报文,并在 DNS 数据库中查找待解析的域名。
    找到 DNS 记录之后,发送 DNS 回答报文,将该回答报文放入 UDP 报文段中,然后放入 IP 数据报中,通过路由器反向转发回网关路由器,并经过以太网交换机到达主机。

  4. HTTP 请求页面
    有了 HTTP 服务器的 IP 地址之后,主机就能够生成 TCP 套接字,该套接字将用于向 Web 服务器发送 HTTP GET 报文。
    在生成 TCP 套接字之前,必须先与 HTTP 服务器进行三次握手来建立连接。生成一个具有目的端口 80 的 TCP SYN 报文段,并向 HTTP 服务器发送该报文段。
    HTTP 服务器收到该报文段之后,生成 TCP SYN ACK 报文段,发回给主机。
    连接建立之后,浏览器生成 HTTP GET 报文,并交付给 HTTP 服务器。
    HTTP 服务器从 TCP 套接字读取 HTTP GET 报文,生成一个 HTTP 响应报文,将 Web 页面内容放入报文主体中,发回给主机。
    浏览器收到 HTTP 响应报文后,抽取出 Web 页面内容,之后进行渲染,显示 Web 页面。

传输层(by cyc)

网络层只把分组发送到目的主机,但是真正通信的并不是主机而是主机中的进程。传输层提供了进程间的逻辑通信,传输层向高层用户屏蔽了下面网络层的核心细节,使应用程序看起来像是在两个传输层实体之间有一条端到端的逻辑通信信道。

用户数据报协议 UDP(User Datagram Protocol)是无连接的,尽最大可能交付,没有拥塞控制,面向报文(对于应用程序传下来的报文不合并也不拆分,只是添加 UDP 首部),支持一对一、一对多、多对一和多对多的交互通信。

传输控制协议 TCP(Transmission Control Protocol)是面向连接的,提供可靠交付,有流量控制,拥塞控制,提供全双工通信,面向字节流(把应用层传下来的报文看成字节流,把字节流组织成大小不等的数据块),每一条 TCP 连接只能是点对点的(一对一)。

TCP 的三次握手
假设 A 为客户端,B 为服务器端。
首先 B 处于 LISTEN(监听)状态,等待客户的连接请求。
A 向 B 发送连接请求报文,SYN=1,ACK=0,选择一个初始的序号 x。
B 收到连接请求报文,如果同意建立连接,则向 A 发送连接确认报文,SYN=1,ACK=1,确认号为 x+1,同时也选择一个初始的序号 y。
A 收到 B 的连接确认报文后,还要向 B 发出确认,确认号为 y+1,序号为 x+1。
B 收到 A 的确认后,连接建立。

三次握手的原因
第三次握手是为了防止失效的连接请求到达服务器,让服务器错误打开连接。
客户端发送的连接请求如果在网络中滞留,那么就会隔很长一段时间才能收到服务器端发回的连接确认。客户端等待一个超时重传时间之后,就会重新请求连接。但是这个滞留的连接请求最后还是会到达服务器,如果不进行三次握手,那么服务器就会打开两个连接。
如果有第三次握手,客户端会忽略服务器之后发送的对滞留连接请求的连接确认,不进行第三次握手,因此就不会再次打开连接。

TCP 的四次挥手
以下描述不讨论序号和确认号,因为序号和确认号的规则比较简单。并且不讨论 ACK,因为 ACK 在连接建立之后都为 1。
A 发送连接释放报文,FIN=1。
B 收到之后发出确认,此时 TCP 属于半关闭状态,B 能向 A 发送数据但是 A 不能向 B 发送数据。
当 B 不再需要连接时,发送连接释放报文,FIN=1。
A 收到后发出确认,进入 TIME-WAIT 状态,等待 2 MSL(最大报文存活时间)后释放连接。
B 收到 A 的确认后释放连接。

四次挥手的原因
客户端发送了 FIN 连接释放报文之后,服务器收到了这个报文,就进入了 CLOSE-WAIT 状态。这个状态是为了让服务器端发送还未传送完毕的数据,传送完毕之后,服务器会发送 FIN 连接释放报文。

TIME_WAIT
客户端接收到服务器端的 FIN 报文后进入此状态,此时并不是直接进入 CLOSED 状态,还需要等待一个时间计时器设置的时间 2MSL。这么做有两个理由:
确保最后一个确认报文能够到达。 如果 B 没收到 A 发送来的确认报文,那么就会重新发送连接释放请求报文,A 等待一段时间就是为了处理这种情况的发生。
等待一段时间是为了让本连接持续时间内所产生的所有报文都从网络中消失,使得下一个新的连接不会出现旧的连接请求报文

TCP 可靠传输

  • TCP 使用超时重传来实现可靠传输:如果一个已经发送的报文段在超时时间内没有收到确认,那么就重传这个报文段。
  • 一个报文段从发送再到接收到确认所经过的时间称为往返时间 RTT,加权平均往返时间 RTTs

TCP 滑动窗口

  • 窗口是缓存的一部分,用来暂时存放字节流。发送方和接收方各有一个窗口,接收方通过 TCP 报文段中的窗口字段告诉发送方自己的窗口大小,发送方根据这个值和其它信息设置自己的窗口大小。
  • 发送窗口内的字节都允许被发送,接收窗口内的字节都允许被接收。如果发送窗口左部的字节已经发送并且收到了确认,那么就将发送窗口向右滑动一定距离,直到左部第一个字节不是已发送并且已确认的状态;接收窗口的滑动类似,接收窗口左部字节已经发送确认并交付主机,就向右滑动接收窗口。
  • 接收窗口只会对窗口内最后一个按序到达的字节进行确认,例如接收窗口已经收到的字节为 {31, 34, 35},其中 {31} 按序到达,而 {34, 35} 就不是,因此只对字节 31 进行确认。发送方得到一个字节的确认之后,就知道这个字节之前的所有字节都已经被接收。

TCP 流量控制

  • 流量控制是为了控制发送方发送速率,保证接收方来得及接收
  • 接收方发送的确认报文中的窗口字段可以用来控制发送方窗口大小,从而影响发送方的发送速率。将窗口字段设置为 0,则发送方不能发送数据。

TCP 拥塞控制

  • 如果网络出现拥塞,分组将会丢失,此时发送方会继续重传,从而导致网络拥塞程度更高。因此当出现拥塞时,应当控制发送方的速率。这一点和流量控制很像,但是出发点不同。
  • 流量控制是为了让接收方能来得及接收,而拥塞控制是为了降低整个网络的拥塞程度。
  • TCP 主要通过四个算法来进行拥塞控制:慢开始、拥塞避免、快重传、快恢复。
    发送方需要维护一个叫做拥塞窗口(cwnd)的状态变量,注意拥塞窗口与发送方窗口的区别:拥塞窗口只是一个状态变量,实际决定发送方能发送多少数据的是发送方窗口。
    为了便于讨论,做如下假设:
    接收方有足够大的接收缓存,因此不会发生流量控制;
    虽然 TCP 的窗口基于字节,但是这里设窗口的大小单位为报文段。
  1. 慢开始与拥塞避免
    发送的最初执行慢开始,令 cwnd = 1,发送方只能发送 1 个报文段;当收到确认后,将 cwnd 加倍,因此之后发送方能够发送的报文段数量为:2、4、8 …
    注意到慢开始每个轮次都将 cwnd 加倍,这样会让 cwnd 增长速度非常快,从而使得发送方发送的速度增长速度过快,网络拥塞的可能性也就更高。设置一个慢开始门限 ssthresh,当 cwnd >= ssthresh 时,进入拥塞避免,每个轮次只将 cwnd 加 1。
    如果出现了超时,则令 ssthresh = cwnd / 2,然后重新执行慢开始。

  2. 快重传与快恢复
    在接收方,要求每次接收到报文段都应该对最后一个已收到的有序报文段进行确认。例如已经接收到 M1 和 M2,此时收到 M4,应当发送对 M2 的确认。
    在发送方,如果收到三个重复确认,那么可以知道下一个报文段丢失,此时执行快重传,立即重传下一个报文段。例如收到三个 M2,则 M3 丢失,立即重传 M3。
    在这种情况下,只是丢失个别报文段,而不是网络拥塞。因此执行快恢复,令 ssthresh = cwnd / 2 ,cwnd = ssthresh,注意到此时直接进入拥塞避免。
    慢开始和快恢复的快慢指的是 cwnd 的设定值,而不是 cwnd 的增长速率。慢开始 cwnd 设定为 1,而快恢复 cwnd 设定为 ssthresh。

5、OSI(物理链路网络)

网络层IP(by 小林)
  • IP 在 TCP/IP 参考模型中处于第三层,也就是网络层。
  • 网络层的主要作用是:实现主机与主机之间的通信,也叫点对点(end to end)通信。

网络层与数据链路层有什么关系呢?

  • 有的小伙伴分不清 IP(网络层) 和 MAC (数据链路层)之间的区别和关系。
  • 其实很容易区分,在上面我们知道 IP 的作用是主机之间通信用的,而 MAC 的作用则是实现「直连」的两个设备之间通信,而 IP 则负责在「没有直连」的两个网络之间进行通信传输。
  • 其实,在网络中数据包传输中也是如此,源IP地址和目标IP地址在传输过程中是不会变化的(前提:没有使用 NAT 网络),只有源 MAC 地址和目标 MAC 一直在变化

IP 地址的分类

  • 互联网诞生之初,IP 地址显得很充裕,于是计算机科学家们设计了分类地址。
    IP 地址分类成了 5 种类型,分别是 A 类、B 类、C 类、D 类、E 类。
  • 其中对于 A、B、C 类主要分为两个部分,分别是网络号和主机号。这很好理解,好比小林是 A 小区 1 栋 101 号,你是 B 小区 1 栋 101 号。
  • A、B、C 分类地址最大主机个数是如何计算的呢?
    最大主机个数,就是要看主机号的位数,如 C 类地址的主机号占 8 位,那么 C 类地址的最大主机个数:
    主机号全为 1 指定某个网络下的所有主机,用于广播
    主机号全为 0 指定某个网络

多播地址用于什么?

  • 多播用于将包发送给特定组内的所有主机。
    还是举班级的栗子,老师说:“最后一排的同学,上来做这道数学题。”,老师指定的是最后一排的同学,也就是多播的含义了。
  • 由于广播无法穿透路由,若想给其他网段发送同样的包,就可以使用可以穿透路由的多播。
  • 多播使用的 D 类地址,其前四位是 1110 就表示是多播地址,而剩下的 28 位是多播的组编号。
    从 224.0.0.0 ~ 239.255.255.255 都是多播的可用范围,其划分为以下三类:
    224.0.0.0 ~ 224.0.0.255 为预留的组播地址,只能在局域网中,路由器是不会进行转发的。
    224.0.1.0 ~ 238.255.255.255 为用户可用的组播地址,可以用于 Internet 上。
    239.0.0.0 ~ 239.255.255.255 为本地管理组播地址,可供内部网在内部使用,仅在特定的本地范围内有效。

IP 分类的优点

  • 不管是路由器还是主机解析到一个 IP 地址时候,我们判断其 IP 地址的首位是否为 0,为 0 则为 A 类地址,那么就能很快的找出网络地址和主机地址。
    在这里插入图片描述

域名解析的工作流程
浏览器首先看一下自己的缓存里有没有,如果没有就向操作系统的缓存要,还没有就检查本机域名解析文件 hosts,如果还是没有,就会 DNS 服务器进行查询,查询的过程如下:
客户端首先会发出一个 DNS 请求,问 www.server.com 的 IP 是啥,并发给本地 DNS 服务器(也就是客户端的 TCP/IP 设置中填写的 DNS 服务器地址)。
本地域名服务器收到客户端的请求后,如果缓存里的表格能找到 www.server.com,则它直接返回 IP 地址。如果没有,本地 DNS 会去问它的根域名服务器:“老大, 能告诉我 www.server.com 的 IP 地址吗?” 根域名服务器是最高层次的,它不直接用于域名解析,但能指明一条道路。
根 DNS 收到来自本地 DNS 的请求后,发现后置是 .com,说:“www.server.com 这个域名归 .com 区域管理”,我给你 .com 顶级域名服务器地址给你,你去问问它吧。”
本地 DNS 收到顶级域名服务器的地址后,发起请求问“老二, 你能告诉我 www.server.com 的 IP 地址吗?”
顶级域名服务器说:“我给你负责 www.server.com 区域的权威 DNS 服务器的地址,你去问它应该能问到”。
本地 DNS 于是转向问权威 DNS 服务器:“老三,www.server.com对应的IP是啥呀?” server.com 的权威 DNS 服务器,它是域名解析结果的原出处。为啥叫权威呢?就是我的域名我做主。
权威 DNS 服务器查询后将对应的 IP 地址 X.X.X.X 告诉本地 DNS。
本地 DNS 再将 IP 地址返回客户端,客户端和目标建立连接。
至此,我们完成了 DNS 的解析过程。现在总结一下,整个过程我画成了一个图。

ARP

  • 在传输一个 IP 数据报的时候,确定了源 IP 地址和目标 IP 地址后,就会通过主机「路由表」确定 IP 数据包下一跳。然而,网络层的下一层是数据链路层,所以我们还要知道「下一跳」的 MAC 地址。
  • 由于主机的路由表中可以找到下一跳的 IP 地址,所以可以通过 ARP 协议,求得下一跳的 MAC 地址。
  • 那么 ARP 又是如何知道对方 MAC 地址的呢?
  • 简单地说,ARP 是借助 ARP 请求与 ARP 响应两种类型的包确定 MAC 地址的。
    主机会通过广播发送 ARP 请求,这个包中包含了想要知道的 MAC 地址的主机 IP 地址。
    当同个链路中的所有设备收到 ARP 请求时,会去拆开 ARP 请求包里的内容,如果 ARP 请求包中的目标 IP 地址与自己的 IP 地址一致,那么这个设备就将自己的 MAC 地址塞入 ARP 响应包返回给主机。
    操作系统通常会把第一次通过 ARP 获取的 MAC 地址缓存起来,以便下次直接从缓存中找到对应 IP 地址的 MAC 地址。

RARP 协议你知道是什么吗?

  • ARP 协议是已知 IP 地址求 MAC 地址,那 RARP 协议正好相反,它是已知 MAC 地址求 IP 地址。例如将打印机服务器等小型嵌入式设备接入到网络时就经常会用得到。
    通常这需要架设一台 RARP 服务器,在这个服务器上注册设备的 MAC 地址及其 IP 地址。然后再将这个设备接入到网络,接着:
    该设备会发送一条「我的 MAC 地址是XXXX,请告诉我,我的IP地址应该是什么」的请求信息。
    RARP 服务器接到这个消息后返回「MAC地址为 XXXX 的设备,IP地址为 XXXX」的信息给这个设备。
    最后,设备就根据从 RARP 服务器所收到的应答信息设置自己的 IP 地址。

DHCP

  • DHCP 在生活中我们是很常见的了,我们的电脑通常都是通过 DHCP 动态获取 IP 地址,大大省去了配 IP 信息繁琐的过程。
    接下来,我们来看看我们的电脑是如何通过 4 个步骤的过程,获取到 IP 的。
    先说明一点,DHCP 客户端进程监听的是 68 端口号,DHCP 服务端进程监听的是 67 端口号。

这 4 个步骤:

  • 客户端首先发起 DHCP 发现报文(DHCP DISCOVER) 的 IP 数据报,由于客户端没有 IP 地址,也不知道 DHCP 服务器的地址,所以使用的是 UDP 广播通信,其使用的广播目的地址是 255.255.255.255(端口 67) 并且使用 0.0.0.0(端口 68) 作为源 IP 地址。DHCP 客户端将该 IP 数据报传递给链路层,链路层然后将帧广播到所有的网络中设备。
  • DHCP 服务器收到 DHCP 发现报文时,用 DHCP 提供报文(DHCP OFFER) 向客户端做出响应。该报文仍然使用 IP 广播地址 255.255.255.255,该报文信息携带服务器提供可租约的 IP 地址、子网掩码、默认网关、DNS 服务器以及 IP 地址租用期。
  • 客户端收到一个或多个服务器的 DHCP 提供报文后,从中选择一个服务器,并向选中的服务器发送 DHCP 请求报文(DHCP REQUEST进行响应,回显配置的参数。
  • 最后,服务端用 DHCP ACK 报文对 DHCP 请求报文进行响应,应答所要求的参数。
    一旦客户端收到 DHCP ACK 后,交互便完成了,并且客户端能够在租用期内使用 DHCP 服务器分配的 IP 地址。
网络层(by cyc)

路由(算法,异构,协议,组播)+转发(IPV4,6,移动IP)

  • 因为网络层是整个互联网的核心,因此应当让网络层尽可能简单。网络层向上只提供简单灵活的、无连接的、尽最大努力交互的数据报服务。
    使用 IP 协议,可以把异构的物理网络连接起来,使得在网络层看起来好像是一个统一的网络。

  • 与 IP 协议配套使用的还有三个协议:(转发)
    地址解析协议 ARP(Address Resolution Protocol)
    网际控制报文协议 ICMP(Internet Control Message Protocol)
    网际组管理协议 IGMP(Internet Group Management Protocol)

  • IP 数据报格式(转发)
    版本 : 有 4(IPv4)和 6(IPv6)两个值;
    首部长度 : 占 4 位,因此最大值为 15。值为 1 表示的是 1 个 32 位字的长度,也就是 4 字节。因为固定部分长度为 20 字节,因此该值最小为 5。如果可选字段的长度不是 4 字节的整数倍,就用尾部的填充部分来填充。
    区分服务 : 用来获得更好的服务,一般情况下不使用。
    总长度 : 包括首部长度和数据部分长度。
    生存时间 :TTL,它的存在是为了防止无法交付的数据报在互联网中不断兜圈子。以路由器跳数为单位,当 TTL 为 0 时就丢弃数据报。
    协议 :指出携带的数据应该上交给哪个协议进行处理,例如 ICMP、TCP、UDP 等。
    首部检验和 :因为数据报每经过一个路由器,都要重新计算检验和,因此检验和不包含数据部分可以减少计算的工作量。
    标识 : 在数据报长度过长从而发生分片的情况下,相同数据报的不同分片具有相同的标识符。
    片偏移 : 和标识符一起,用于发生分片的情况。片偏移的单位为 8 字节。

  • IP 地址编址方式(转发)
    IP 地址的编址方式经历了三个历史阶段:
    分类
    子网划分
    无分类

  1. 分类
    由两部分组成,网络号和主机号,其中不同分类具有不同的网络号长度,并且是固定的。
    IP 地址 ::= {< 网络号 >, < 主机号 >}
  2. 子网划分
    通过在主机号字段中拿一部分作为子网号,把两级 IP 地址划分为三级 IP 地址。
    IP 地址 ::= {< 网络号 >, < 子网号 >, < 主机号 >}
    要使用子网,必须配置子网掩码。一个 B 类地址的默认子网掩码为 255.255.0.0,如果 B 类地址的子网占两个比特,那么子网掩码为 11111111 11111111 11000000 00000000,也就是 255.255.192.0。
    注意,外部网络看不到子网的存在。
  3. 无分类
    无分类编址 CIDR 消除了传统 A 类、B 类和 C 类地址以及划分子网的概念,使用网络前缀和主机号来对 IP 地址进行编码,网络前缀的长度可以根据需要变化。
  • 地址解析协议 ARP(转发)
    网络层实现主机之间的通信,而链路层实现具体每段链路之间的通信。因此在通信过程中,IP 数据报的源地址和目的地址始终不变,而 MAC 地址随着链路的改变而改变。
    ARP 实现由 IP 地址得到 MAC 地址。
    每个主机都有一个 ARP 高速缓存,里面有本局域网上的各主机和路由器的 IP 地址到 MAC 地址的映射表。
    如果主机 A 知道主机 B 的 IP 地址,但是 ARP 高速缓存中没有该 IP 地址到 MAC 地址的映射,此时主机 A 通过广播的方式发送 ARP 请求分组,主机 B 收到该请求后会发送 ARP 响应分组给主机 A 告知其 MAC 地址,随后主机 A 向其高速缓存中写入主机 B 的 IP 地址到 MAC 地址的映射。

  • 网际控制报文协议 ICMP(转发)
    ICMP 是为了更有效地转发 IP 数据报和提高交付成功的机会。它封装在 IP 数据报中,但是不属于高层协议。
    ICMP 报文分为差错报告报文和询问报文。

  • 虚拟专用网 VPN(转发)
    由于 IP 地址的紧缺,一个机构能申请到的 IP 地址数往往远小于本机构所拥有的主机数。并且一个机构并不需要把所有的主机接入到外部的互联网中,机构内的计算机可以使用仅在本机构有效的 IP 地址(专用地址)。
    有三个专用地址块:
    10.0.0.0 ~ 10.255.255.255
    172.16.0.0 ~ 172.31.255.255
    192.168.0.0 ~ 192.168.255.255
    VPN 使用公用的互联网作为本机构各专用网之间的通信载体。专用指机构内的主机只与本机构内的其它主机通信;虚拟指好像是,而实际上并不是,它有经过公用的互联网。
    下图中,场所 A 和 B 的通信经过互联网,如果场所 A 的主机 X 要和另一个场所 B 的主机 Y 通信,IP 数据报的源地址是 10.1.0.1,目的地址是 10.2.0.3。数据报先发送到与互联网相连的路由器 R1,R1 对内部数据进行加密,然后重新加上数据报的首部,源地址是路由器 R1 的全球地址 125.1.2.3,目的地址是路由器 R2 的全球地址 194.4.5.6。路由器 R2 收到数据报后将数据部分进行解密,恢复原来的数据报,此时目的地址为 10.2.0.3,就交付给 Y。

  • 网络地址转换 NAT(转发)
    专用网内部的主机使用本地 IP 地址又想和互联网上的主机通信时,可以使用 NAT 来将本地 IP 转换为全球 IP。
    在以前,NAT 将本地 IP 和全球 IP 一一对应,这种方式下拥有 n 个全球 IP 地址的专用网内最多只可以同时有 n 台主机接入互联网。为了更有效地利用全球 IP 地址,现在常用的 NAT 转换表把传输层的端口号也用上了,使得多个专用网内部的主机共用一个全球 IP 地址。使用端口号的 NAT 也叫做网络地址与端口转换 NAPT。

  • 路由器的结构(路由)
    路由器从功能上可以划分为:路由选择和分组转发。
    分组转发结构由三个部分组成:交换结构、一组输入端口和一组输出端口。

  • 路由器分组转发流程
    从数据报的首部提取目的主机的 IP 地址 D,得到目的网络地址 N。
    若 N 就是与此路由器直接相连的某个网络地址,则进行直接交付;
    若路由表中有目的地址为 D 的特定主机路由,则把数据报传送给表中所指明的下一跳路由器;
    若路由表中有到达网络 N 的路由,则把数据报传送给路由表中所指明的下一跳路由器;
    若路由表中有一个默认路由,则把数据报传送给路由表中所指明的默认路由器;
    报告转发分组出错。

路由选择协议

  • 路由选择协议都是自适应的,能随着网络通信量和拓扑结构的变化而自适应地进行调整。
    互联网可以划分为许多较小的自治系统 AS,一个 AS 可以使用一种和别的 AS 不同的路由选择协议。
    可以把路由选择协议划分为两大类:
    自治系统内部的路由选择:RIP 和 OSPF
    自治系统间的路由选择:BGP
数据链路层(by 王道)

在这里插入图片描述
在这里插入图片描述

在这里插入图片描述

在这里插入图片描述
在这里插入图片描述

在这里插入图片描述

在这里插入图片描述
在这里插入图片描述

数据链路层(By cyc)

基本功能

  1. 封装成帧
    将网络层传下来的分组添加首部和尾部,用于标记帧的开始和结束。
  2. 透明传输
    透明表示一个实际存在的事物看起来好像不存在一样。
    帧使用首部和尾部进行定界,如果帧的数据部分含有和首部尾部相同的内容,那么帧的开始和结束位置就会被错误的判定。需要在数据部分出现首部尾部相同的内容前面插入转义字符。如果数据部分出现转义字符,那么就在转义字符前面再加个转义字符。在接收端进行处理之后可以还原出原始数据。这个过程透明传输的内容是转义字符,用户察觉不到转义字符的存在。
  3. 差错检测
    目前数据链路层广泛使用了循环冗余检验(CRC)来检查比特差错。

信道分类

  1. 广播信道
    一对多通信,一个节点发送的数据能够被广播信道上所有的节点接收到。
    所有的节点都在同一个广播信道上发送数据,因此需要有专门的控制方法进行协调,避免发生冲突(冲突也叫碰撞)。
    主要有两种控制方法进行协调,一个是使用信道复用技术,一是使用 CSMA/CD 协议。
  2. 点对点信道
    一对一通信。
    因为不会发生碰撞,因此也比较简单,使用 PPP 协议进行控制。

信道复用技术

  1. 频分复用
    频分复用的所有主机在相同的时间占用不同的频率带宽资源。
  2. 时分复用
    时分复用的所有主机在不同的时间占用相同的频率带宽资源。
    使用频分复用和时分复用进行通信,在通信的过程中主机会一直占用一部分信道资源。但是由于计算机数据的突发性质,通信过程没必要一直占用信道资源而不让出给其它用户使用,因此这两种方式对信道的利用率都不高。
  3. 统计时分复用
    是对时分复用的一种改进,不固定每个用户在时分复用帧中的位置,只要有数据就集中起来组成统计时分复用帧然后发送。
  4. 波分复用
    光的频分复用。由于光的频率很高,因此习惯上用波长而不是频率来表示所使用的光载波。
  5. 码分复用
    为每个用户分配 m bit 的码片,并且所有的码片正交,对于任意两个码片 和 有

CSMA/CD 协议

  • CSMA/CD 表示载波监听多点接入 / 碰撞检测。
  • 多点接入 :说明这是总线型网络,许多主机以多点的方式连接到总线上。
  • 载波监听 :每个主机都必须不停地监听信道。在发送前,如果监听到信道正在使用,就必须等待。
  • 碰撞检测 :在发送中,如果监听到信道已有其它主机正在发送数据,就表示发生了碰撞。虽然每个主机在发送数据之前都已经监听到信道为空闲,但是由于电磁波的传播时延的存在,还是有可能会发生碰撞。

PPP 协议

  • 互联网用户通常需要连接到某个 ISP 之后才能接入到互联网,PPP 协议是用户计算机和 ISP 进行通信时所使用的数据链路层协议。

MAC 地址

  • MAC 地址是链路层地址,长度为 6 字节(48 位),用于唯一标识网络适配器(网卡)。
  • 一台主机拥有多少个网络适配器就有多少个 MAC 地址。例如笔记本电脑普遍存在无线网络适配器和有线网络适配器,因此就有两个 MAC 地址。

网络类型

  • 局域网
    局域网是一种典型的广播信道,主要特点是网络为一个单位所拥有,且地理范围和站点数目均有限。
    主要有以太网、令牌环网、FDDI 和 ATM 等局域网技术,目前以太网占领着有线局域网市场。
    可以按照网络拓扑结构对局域网进行分类:

  • 以太网
    以太网是一种星型拓扑结构局域网。
    早期使用集线器进行连接,集线器是一种物理层设备, 作用于比特而不是帧,当一个比特到达接口时,集线器重新生成这个比特,并将其能量强度放大,从而扩大网络的传输距离,之后再将这个比特发送到其它所有接口。如果集线器同时收到两个不同接口的帧,那么就发生了碰撞。

  • 虚拟局域网VLAN
    虚拟局域网可以建立与物理位置无关的逻辑组,只有在同一个虚拟局域网中的成员才会收到链路层广播信息。
    使用 VLAN 干线连接来建立虚拟局域网,每台交换机上的一个特殊接口被设置为干线接口,以互连 VLAN 交换机。IEEE 定义了一种扩展的以太网帧格式 802.1Q,它在标准以太网帧上加进了 4 字节首部 VLAN 标签,用于表示该帧属于哪一个虚拟局域网。

网络设备

  • 交换机
    交换机具有自学习能力,学习的是交换表的内容,交换表中存储着 MAC 地址到接口的映射。
    正是由于这种自学习能力,因此交换机是一种即插即用设备,不需要网络管理员手动配置交换表内容。
物理层(by cyc)

通信方式

  • 根据信息在传输线上的传送方向,分为以下三种通信方式:
  • 单工通信:单向传输
  • 半双工通信:双向交替传输
  • 全双工通信:双向同时传输

带通调制

  • 模拟信号是连续的信号,数字信号是离散的信号。
  • 带通调制把数字信号转换为模拟信号。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.hqwc.cn/news/86616.html

如若内容造成侵权/违法违规/事实不符,请联系编程知识网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

在线查询让家长迅速获得录取通知书

发布录取通知书是一项看似简单却非常耗时费力的工作。负责录取工作的老师通常会采取以下常见的发放方式&#xff1a; 1. 面试告知&#xff1a;某些学校会在面试结束后立即告知学生是否被录取。这种方式通常适用于面试人数较少的学校或特定专业。 2. 电子邮件&#xff1a;学校通…

【Java转Go】快速上手学习笔记(五)之Gorm篇

目录 go get命令1、go get命令无响应问题2、Unresolved dependency错误 连接数据库连接.gomain.go 操作数据库创建表新增数据更新数据删除数据查询数据单表查询多表查询 用到的数据库表原生SQL 完整代码 go往期文章笔记&#xff1a; 【Java转Go】快速上手学习笔记&#xff08;…

【应用层】网络基础 -- HTTPS协议

HTTPS 协议原理加密为什么要加密常见的加密方式对称加密非对称加密 数据摘要&&数据指纹 HTTPS 的工作过程探究方案1-只使用对称加密方案2-只使用非对称加密方案3-双方都使用非对称加密方案4-非对称加密对称加密中间人攻击-针对上面的场景 CA认证理解数据签名方案5-非对…

《golang设计模式》第二部分·结构型模式-03-组合模式(Composite)

文章目录 1. 概述1.1 角色1.2 类图 2. 代码示例2.1 设计2.2 代码2.3 类图 1. 概述 将叶子节点和复合节点组合起来&#xff0c;定义一个抽象接口遍历他们 1.1 角色 Component&#xff08;抽象构件&#xff09;&#xff1a;为叶子构件和复合构件声明接口&#xff0c;定义了结构…

git及GitHub的使用

文章目录 git在本地仓库的使用github使用创建仓库https协议连接(不推荐&#xff0c;现在用起来比较麻烦)ssh连接&#xff08;推荐&#xff09;git分支操作冲突处理忽略文件 git在本地仓库的使用 1.在目标目录下右键打开git bash here 2.创建用户名和邮箱(注&#xff1a; 下载完…

GeoHash之存储篇

前言&#xff1a; 在上一篇文章GeoHash——滴滴打车如何找出方圆一千米内的乘客主要介绍了GeoHash的应用是如何的&#xff0c;本篇文章我想要带大家探索一下使用什么样的数据结构去存储这些Base32编码的经纬度能够节省内存并且提高查询的效率。 前缀树、跳表介绍&#xff1a; …

Python 包管理(pip、conda)基本使用指南

Python 包管理 概述 介绍 Python 有丰富的开源的第三方库和包&#xff0c;可以帮助完成各种任务&#xff0c;扩展 Python 的功能&#xff0c;例如 NumPy 用于科学计算&#xff0c;Pandas 用于数据处理&#xff0c;Matplotlib 用于绘图等。在开始编写 Pytlhon 程序之前&#…

ms-tpm-20-ref 在linux下编译

1、代码地址&#xff0c; GitHub - microsoft/ms-tpm-20-ref: Reference implementation of the TCG Trusted Platform Module 2.0 specification.Reference implementation of the TCG Trusted Platform Module 2.0 specification. - GitHub - microsoft/ms-tpm-20-ref: Refe…

技术的巅峰演进:深入解析算力网络的多层次技术设计

在数字化时代的浪潮中&#xff0c;网络技术正以前所未有的速度演进&#xff0c;而算力网络作为其中的一颗明星&#xff0c;以其多层次的技术设计引领着未来的网络构架。本文将带您深入探索算力网络独特的技术之旅&#xff0c;从底层协议到分布式控制&#xff0c;为您呈现这一创…

postman-使用Postman的模拟服务来模拟(mock)后端数据,完成前端模拟API调用

最近项目上比较忙&#xff0c;任务多时间紧&#xff0c;导致后端开发任务繁多&#xff0c;无法及时开发完毕&#xff0c;但是前端同学已经把对应功能开发完成&#xff0c;需要进行前后端联调来验证API及一些交互问题&#xff1b;这不能因为后端的进度来影响前端的工作完成情况&…

财务数据分析怎么做?看看奥威BI数据可视化工具的解法

从以往的BI智能数据可视化分析项目来看&#xff0c;要想快刀砍乱麻地做好财务数据分析&#xff0c;为企业运营决策提供更加直观深入的数据支持&#xff0c;那就需要为财务数据分析做好数据导入、建模、报表制作、展示等多方面的准备。奥威BI数据可视化工具为此特意打造了一套标…

窗口看门狗

从下往上看: 1. 时钟设置 RCC_APB1PeriphClockCmd(RCC_APB1Periph_WWDG,ENABLE);//使能独立看门狗时钟 WWDG_SetPrescaler(WWDG_Prescaler_8);//看门狗预分频器WWDG counter clock (PCLK1/4096)/8 2.设置窗口值 实际就是设置WWDG_CR的低七位值, 但是这个值要大于0x40(也就是…