网络与协议 · 34/72
1. Ajax、Axios、Fetch 对比 2. Ajax 原理 3. Ajax 技术与实现 4. 常见的应用层协议 5. 浏览器缓存的存储位置 6. 从输入 URL 到页面显示的过程 7. Cache-Control 常见配置值 8. CDN 工作原理 9. 为什么推荐将静态资源放到 CDN 上 10. Cookie 的弊端 11. Cookie 的 Secure 属性设置 12. CORS 请求携带身份凭证的方法 13. CORS 跨域原理 14. 复杂请求预检检查内容 15. CORS 预检请求 16. CORS简单请求的条件 17. 简单请求为何无需预检 18. DNS 域名解析与网络请求路由 19. 什么是跨域 20. 什么是 DNS 劫持? 21. DNS 预解析优化网页加载速度 22. DNS 解析过程与优化 23. URL 参数为什么需要 encodeURIComponent 转码 24. Last-Modified 和 ETag 的区别 25. Fetch 发送两次请求的原因 26. 正向代理与反向代理 27. 前后端通信方式 28. GET请求能否上传图片 29. GET 请求的传参长度限制 30. HTTP 缓存策略 31. GET 与 POST 的区别 32. HTTP状态码301与302的区别 33. HTTP 数据传输 34. HTTP 队头阻塞 35. HTTP 请求头和响应头的重要字段 36. HTTP发展历程 37. HTTP与HTTPS总结 38. HTTP 和 HTTPS 的区别 39. HTTP 报文结构与状态码 40. HTTP Keep-Alive 机制 41. HTTP管道机制的作用 42. HTTP协议优缺点 43. HTTP 重定向状态码 301/302/303/307/308 44. HTTP 请求方法 45. HTTP 协议版本演进 46. HTTP与TCP的区别 47. HTTP/2 多路复用原理 48. HTTPS 协议的缺点 49. HTTP/3 如何保证传输可靠性 50. HTTP/2 的改进 51. HTTPS 加密原理 52. 什么是负载均衡? 53. Nginx 负载均衡调度算法 54. Nginx 是什么 55. 对象存储 OSS 是什么 56. OPTIONS 请求方法及使用场景 57. 轮询与 WebSocket 对比 58. HTTPS 中 SSL 的 OSI 层位置 59. SSL连接恢复 60. 强缓存和协商缓存 61. TCP 三次握手与四次挥手 62. TCP三次握手中的数据传输 63. TCP 和 HTTP 请求的关系 64. TCP/IP 协议 65. TCP 如何判断丢包 66. TCP 与 UDP 的区别 67. WebSocket 的 Handshaking 握手过程 68. TLS 1.3 相比 TLS 1.2 的改进 69. URI、URL、URN 的区别 70. WebSocket 心跳机制 71. WebSocket 协议原理 72. XML与JSON对比

HTTP 队头阻塞

理解 HTTP/1.1 和 HTTP/2 中的队头阻塞问题及解决方案

问题

什么是 HTTP 队头阻塞 (Head-of-Line Blocking)?

解答

队头阻塞是指前面的请求/数据包阻塞了后面的请求/数据包。在 HTTP 协议中,存在两个层面的队头阻塞。

HTTP/1.1 的队头阻塞

HTTP/1.1 默认使用持久连接,但请求必须按顺序发送和接收:

客户端                    服务器
   |                        |
   |------- 请求 A -------->|
   |                        |  (A 处理中...)
   |------- 请求 B -------->|  (B 必须等待)
   |                        |  (A 处理中...)
   |<------ 响应 A ---------|
   |<------ 响应 B ---------|

如果请求 A 处理很慢,请求 B 即使已经准备好也必须等待。

解决方案:

  1. 并发连接 - 浏览器对同一域名开启 6-8 个 TCP 连接
  2. 域名分片 - 将资源分散到多个子域名
  3. HTTP/2 多路复用 - 在单个连接上并行传输多个请求

HTTP/2 的队头阻塞

HTTP/2 通过多路复用解决了应用层的队头阻塞,但 TCP 层仍存在问题:

HTTP/2 帧传输(基于 TCP)

Stream 1: [帧1] [帧2] [帧3]
Stream 2: [帧1] [帧2]
Stream 3: [帧1] [帧2] [帧3]

TCP 传输序列: [1-1][2-1][3-1][1-2][2-2][3-2][1-3][3-3]

                    如果这个包丢失
                    后面所有包都要等待重传
// 模拟 TCP 队头阻塞的影响
const packets = ['1-1', '2-1', '3-1', '1-2', '2-2', '3-2'];
const lostPacket = '3-1';

// TCP 必须按序交付,丢包会阻塞所有后续数据
function tcpDeliver(packets, lostIndex) {
  const delivered = [];
  const blocked = [];
  
  for (let i = 0; i < packets.length; i++) {
    if (i < lostIndex) {
      delivered.push(packets[i]);
    } else {
      // 丢包后,所有包都被阻塞,等待重传
      blocked.push(packets[i]);
    }
  }
  
  return { delivered, blocked };
}

console.log(tcpDeliver(packets, 2));
// { delivered: ['1-1', '2-1'], blocked: ['3-1', '1-2', '2-2', '3-2'] }

HTTP/3 的解决方案

HTTP/3 使用 QUIC 协议(基于 UDP),每个流独立处理丢包:

QUIC 传输

Stream 1: [帧1] [帧2] [帧3]  → 独立重传
Stream 2: [帧1] [帧2]        → 不受影响
Stream 3: [帧1] ✗ [帧3]      → Stream 3 等待重传,其他流继续
// QUIC 的独立流处理
const streams = {
  stream1: ['帧1', '帧2', '帧3'],
  stream2: ['帧1', '帧2'],
  stream3: ['帧1', '帧2', '帧3']
};

// Stream 3 的帧2 丢失
function quicDeliver(streams, lostStream, lostFrame) {
  const result = {};
  
  for (const [stream, frames] of Object.entries(streams)) {
    if (stream === lostStream) {
      // 只有丢包的流被阻塞
      result[stream] = {
        delivered: frames.slice(0, lostFrame),
        status: '等待重传'
      };
    } else {
      // 其他流正常传输
      result[stream] = {
        delivered: frames,
        status: '完成'
      };
    }
  }
  
  return result;
}

console.log(quicDeliver(streams, 'stream3', 1));
// stream1: { delivered: ['帧1', '帧2', '帧3'], status: '完成' }
// stream2: { delivered: ['帧1', '帧2'], status: '完成' }
// stream3: { delivered: ['帧1'], status: '等待重传' }

对比总结

协议应用层队头阻塞传输层队头阻塞
HTTP/1.1✗ 存在✗ 存在
HTTP/2✓ 解决✗ 存在
HTTP/3✓ 解决✓ 解决

关键点

  • HTTP/1.1 队头阻塞:请求必须按序处理,前面的请求阻塞后面的
  • HTTP/2 多路复用解决了应用层队头阻塞,但 TCP 丢包仍会阻塞所有流
  • HTTP/3 使用 QUIC 协议,每个流独立处理丢包,彻底解决队头阻塞
  • 浏览器通过并发连接(6-8个)缓解 HTTP/1.1 的队头阻塞
  • 高丢包网络环境下,HTTP/2 性能可能不如 HTTP/1.1 的多连接方案