1 高性能服务器网络模型详解-德赢Vwin官网 网
0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

高性能服务器网络模型详解

SDNLAB 来源:SDNLAB 作者:SDNLAB 2023-07-03 15:36 次阅读

作者简介:谢友鹏,目前在蚂蚁金服-支付宝-网络技术部任职技术专家,先后在华为和支付宝从事网络和云相关开发。涉及领域vpn、sdwan、全球网络加速、区块链网络加速、cdn静态缓存等。长期研究nginx、apache traffic server、frp等代理项目和基于k8s的云原生项目。不定期更新个人微信公众号--网络技术修炼。关注领域:网络、云、linux高性能服务端。

1999年Dan Kegel在发表的论文中提出了The C10K problem,这篇论文对传统服务器架构处理大规模并发连接时的挑战进行了详细描述,并提出了一些解决方案和优化技术。这里的C指的是Concurrent(并发)的缩写,C10K问题是指怎么在单台服务器上并发一万个请求。如果你分析过性能问题一定会注意到,性能极限通常受到一个或多个资源的限制,比如内存、文件句柄个数、网络带宽、CPU等。这里讨论的前提是机器的物理资源和系统配置能够满足一万个请求。在这个前提下,网络并发主要关注两个方面:一是应用程序和操作系统内核之间如何进行IO事件通知,二是应用程序进程或线程的分配方式。

I/O模型

阻塞vs非阻塞、同步vs异步

你可能经常看到某某项目用的同步非阻塞模型、某某项目用的异步非阻塞模型,所以在正式讨论I/O模型前,还是先对齐一下关于阻塞、非阻塞以及同步、异步的概念吧。

阻塞、非阻塞指的是系统调用时“等待数据准备好”这个动作。比如read时候,如果内核判定数据还没准备好:

内核让应用进程一直等待,直到数据准备好才通知应用进程就是阻塞;

内核立即通知应用程序说数据没准备好,你先干别的吧,就是非阻塞。

同步、异步指的是“内核空间与用户空间复制数据”这个动作。比如read时候,如果内核判定数据还没准备,过一段时间数据来了:

内核通知应用进程你来读取数据吧,应用程序再次系统调用将数据读走就是同步;

内核将数据拷贝到用户空间后再通知应用进程,数据已经拷贝好了直接用吧,就是异步。

I/O模型详解

Stevens在《UNIX 网络编程 卷1》一书的6.2章节介绍了五种 I/O 模型。以下模型以UDP接收报文为例来说明这五种I/O 的工作方式。

阻塞式I/O

wKgaomSiewuAUyc2AACRullMN3g800.jpg

该模型使用最简,用户进程调用读取数据系统后就一直等待,直到内核数据准备好,并将数据从内核空间拷贝到用户空间后,调用结束。这种模型效率显然的低下,因为这种模型会导致两种可能结果:

为每个请求分配一个进程或线程,那么高并发意味着内核要调度的进程或线程数量很庞大,调度、上下文切换等开销会使系统性能降低。

固定数量的进程或线程处理请求,那么这些进程或线程全被被占用后,新请求就只能等了。

该模型低效的根本原因在于阻塞,内核数据没有准备好的时候,用户态进程明明可以干其他活的,现在只能白白等待。

非阻塞式 I/O

wKgaomSiewuAdp-KAAB8fE5pVjY725.jpg

这种模型通过非阻塞的方式与内核打交道,如果内核中数据还未准备好,就立刻返回给用户进程,用户进程就可以先干别的事情,过一段再进行读数据的系统调用,直到内核数据准备好,并将数据拷贝到用户空间。相比于阻塞的模型,这种非阻塞+主动轮询的模型避免了用户进程白白等待内核准备数据的时间,所以效率有所提升,但是因为每次轮询都是系统调用,所以上下文切换变多了,因此性能也不高。

I/O 复用

wKgaomSiewuAEnzSAABw59S0WqY351.jpg

既然不停主动查询内核数据是否准备好这件事会引起系统性能下降,那能不能通过注册+通知的方式呢?这就是大名鼎鼎的I/O复用模型。该模型允许用户态通过一个进程将所有相关的读写事件(使用select、poll或epoll)注册到内核,然后内核会主动通知用户态进程,一旦任意一个或多个请求的读写数据准备好。这种方式在单个进程或线程中同时处理多个I/O通道的就绪状态被称为I/O多路复用。使用I/O多路复用既不会阻塞处理请求的进程,也不会因为轮询内核数据是否准备好而导致过多的系统调用,因此具有高效的特点。然而,需要注意的是,一旦内核通知应用进程数据准备就绪,仍然需要通过系统调用触发数据的读取过程。

Linux内核对这种模型的支持非常完善,因此许多高性能服务器在Linux环境中广泛采用这种模式。

信号驱动式 I/O

wKgZomSiewuAR3RuAABwnaO4-yo763.jpg

I/O复用模型中是用一个进程(select、poll或epoll)阻塞或轮询所有请求的数据是否准备好,从而让所有请求进程的处理都不会阻塞。信号驱动式则没有这个复用的I/O进程,每个请求进程自己去内核注册,然后等数据准备好内核通知应用进程去处理。这种模型应用套接字处理的实践场景为基于UDP的NTP服务,几乎没有在TCP上的应用,因为对于TCP来说信号产生过于频繁,而且并没有告诉应用程序发生了什么事件,比如下面条件均会导致TCP套接字产生SIGIO信号:

监听套接字某个连接请求已经完成;

某个断链请求已经发起;

某个断链请求已经完成;

某个半连接已经关闭;

数据到达套接字;

数据已经从套接字发出;

发生某个异步错误。

异步 I/O

wKgZomSiewuAEWhRAABPZxGGdsQ551.jpg

前面几种方式,无论是阻塞还是非阻塞,从内核空间到用户空间复制数据的动作都是在内核通知用户进程后,用户进程再通过系统调用触发完成的,因此都属于同步操作。而异步I/O模型则不同,它允许用户态进程通过系统调用读取数据后,即使内核数据未准备好,也会立即返回给用户进程,告知数据未准备好,让用户进程可以执行其他操作。当数据准备好后,内核会将数据从内核空间拷贝到用户态,并直接回调用户进程,将数据送到用户进程手中。这种模型不仅具备非阻塞特性,还能进一步减少系统调用的次数,因此在理论上相对于其他模型更加高效。需要注意的是,这种模型需要操作系统内核的支持。

在《UNIX网络编程卷1》一书中,截至书稿时,支持POSIX异步I/O的系统相对较少。由于早期Linux内核对网络异步I/O的支持不够成熟,在Linux环境下,大多数高性能网络服务器选择采用I/O复用的方式,如epoll。然而,从Linux内核5.0版本开始,引入了io_uring异步操作,随着该技术的成熟,越来越多的高性能网络服务器(例如nginx)开始支持使用这种异步I/O方式。

如何简单理解5种I/O?

下面通过一个例子对比一下5种模型,顾客是应用进程,餐饮人员为内核,餐桌为应用进程的数据buffer:

阻塞式I/O:交完钱也要在窗口排队,等师傅做好,将饭端给你,你再端到自己餐桌。

非阻塞式I/O:交完钱你就可以离开窗口玩一会了,窗口有个屏幕,你过一会跑过来看一下自己的饭好了没,直到饭做好,自己端到自己的餐桌。

I/O复用:好几个同学都把饭卡交给你,你一个人跑到窗口排队刷卡,谁的饭好了,你就打电话给谁,让他自己将饭端到餐桌。

信号驱动式I/O:你去窗口手机刷卡后就可离开了,饭做好会通过手机通知你,然后自己过去将饭端到餐桌。

异步I/O:去窗口点餐后,告诉服务员你在哪个餐桌就可以离开了,饭做好,服务员会将饭帮你端到餐桌。

进程/线程分配

进程和线程的创建、调度都需要系统开销。在高并发系统中,为每个请求分配一个进程或线程会对性能产生不利影响。为了克服这个问题,高性能的网络模型通常采用进程池或线程池来管理进程或线程。进程/线程池的设计目的是降低创建和销毁进程/线程的频率,并限制系统中总进程/线程的数量,以减少内核调度的开销。

常用高性能模式

reactor 模式

《The Design and Implementation of the Reactor》一文详细介绍了reactor模式的工作方式,简单来说,reactor模式=I/O复用 + 进程池/线程池。

proactor模式

《Proactor: An Object Behavioral Pattern for Demultiplexing and Dispatching Handlers for Asynchronous Events》一文详细介绍了proactor模式的工作方式,简单来说,proactor模式=异步I/O+ 进程池/线程池。

惊群效应

对于TCP请求来说,最理想的情况是每个事件每次从池中唤醒一个进程或线程去执行,这样既不需要等待又不会引起竞争。用一个进程或线程专门负责处理accept事件,然后将接下来的事件继续分发给其他worker处理是可行的。有一些模型(比如nginx)存在多个进程或线程监听同一个端口的情况,如果不加处理会出现一个accept事件唤醒所有worker进程的情况,即惊群效应。为了应对惊群效应,早期nginx引入了accept_mutex的机制,竞争到锁的worker才会执行accept操作,从而避免所有worker都被唤醒。Linux3.9 版本后提供了reuseport更好的解决了多个进程或线程监听同一个端口引起的惊群问题,简单说就是内核帮你轮询,而不用在应用层面竞争了。

更快、更强大的网络模型

欲望是永无止境的,有人提出The C10K problem问题,就有人提出The C10M problem,前文中的讨论基本都是围绕用户态进程和内核的交互优化,既然和内核交互容易导致性能瓶颈,那为何不旁路掉内核协议栈呢?所以有了更快的网络方案,比如DPDK、XDP、甚至硬件加速等。

审核编辑:汤梓红

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表德赢Vwin官网 网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • Linux
    +关注

    关注

    87

    文章

    11291

    浏览量

    209309
  • 服务器
    +关注

    关注

    12

    文章

    9123

    浏览量

    85319
  • UDP
    UDP
    +关注

    关注

    0

    文章

    325

    浏览量

    33931
  • 网络模型
    +关注

    关注

    0

    文章

    44

    浏览量

    8425

原文标题:高性能服务器网络模型详解

文章出处:【微信号:SDNLAB,微信公众号:SDNLAB】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    海单路高性能服务器主板

    服务器
    jf_10805031
    发布于 :2024年04月26日 14:23:58

    服务器技术基础

    中国高性能计算机标准1.1 什么是服务器服务器Server从功能上说,它负责侦听网络上其它客户机(Client)提交的服务请求,
    发表于 09-12 22:55

    解锁高性能计算与区块链应用,阿里云Kubernetes服务召唤神龙

    网络驱动没有做额外的overlay的开销,经过之前的测试,配合神龙(X-Dragon)弹性裸金属服务器高性能网络和容器服务
    发表于 06-13 15:52

    高性能服务器开发2018年的原创汇总

    高性能服务器开发 2018 年原创汇总
    发表于 06-10 12:33

    高性能高并发服务器架构分享

    由于自己正在做一个高性能大用户量的论坛程序,对高性能高并发服务器架构比较感兴趣,于是在网上收集了不少这方面的资料和大家分享。希望能和大家交流 msn: ——————————————————————————————————————
    发表于 09-16 06:45

    服务器的特性与划分

    服务器,也称伺服服务器网络环境中的高性能计算机,它侦听网络上的其他计算机(客户机)提交的
    发表于 12-13 15:42 2.3w次阅读

    通用高性能密码服务系统模型

    通用高性能密码服务系统模型_寇文龙
    发表于 01-07 21:39 0次下载

    基于OPNET实现跨层网络服务器模型的构型

    设计,并通过权威的网络仿真工具(OPNET)实现了跨层网络服务器模型的构建。实验结果表明,本文设计的跨层网络模型能够很好地实现
    发表于 11-05 11:08 5次下载
    基于OPNET实现跨层<b class='flag-5'>网络服务器</b><b class='flag-5'>模型</b>的构型

    服务器的功能_服务器是干嘛的

    服务器是一种高性能计算机,作为网络的节点,存储、处理网络上80%的数据、信息,因此也被称为网络的灵魂。
    的头像 发表于 07-24 10:10 1.1w次阅读

    详解Nginx高性能的HTTP和反向代理服务器

    Nginx 是一个高性能的 HTTP 和反向代理服务器,特点是占用内存少,并发能力强,事实上 Nginx 的并发能力确实在同类型的网页服务器中表现较好。
    的头像 发表于 03-16 11:23 2442次阅读

    高性能服务器优化大型HFSS模型

    在仿真优化HFSS复杂模型时,经常会发现,如果优化调整某个结构尺寸,高频VSWR指标与低频VSWR指标存在翘翘板现象,按下葫芦起了瓢! 岛主见过有人用高性能服务器优化大型HFSS模型
    发表于 08-28 11:26 2次下载

    人工智能服务器高性能计算需求

    人工智能(AI)服务器是一种专门为了运行人工智能应用和提供大数据处理能力而设计的高性能计算机。它既可以支持本地应用程序和网页,也可以为云和本地服务器提供复杂的AI模型
    的头像 发表于 12-08 09:44 522次阅读

    GPU高性能服务器配置

    GPU高性能服务器作为提升计算速度和效率的关键设备,在各大应用场景中发挥着越来越重要的作用。在此,petacloud.ai小编为你介绍GPU高性能服务器的配置要点。
    的头像 发表于 10-21 10:42 186次阅读

    高性能服务器有什么用处?

    高性能服务器是一种基于云计算技术的虚拟化服务器,具有高性能、灵活性、可靠性和安全性等特点。它广泛应用于网络托管
    的头像 发表于 11-04 10:22 175次阅读

    GPU服务器AI网络架构设计

    众所周知,在大型模型训练中,通常采用每台服务器配备多个GPU的集群架构。在上一篇文章《高性能GPU服务器AI网络架构(上篇)》中,我们对GP
    的头像 发表于 11-05 16:20 307次阅读
    GPU<b class='flag-5'>服务器</b>AI<b class='flag-5'>网络</b>架构设计