Nginx是如何实现轻量级和高并发
Linux系统通过软限制和硬限制,制约了打开文件的最大个数,而且每个端口侦听的连接数受限于/etc/sytctl.conf中的ip_local_port_range的范围,那么nginx是如何做到轻量级和高并发的。
Nginx的进程模型
各个work进程间通过accept_mutex互斥锁进行连接的获取,以防止惊群现象的发生(即所有进程都收到通知,却只有一个进程执行)。负载的实现通过accept_mutex_disable=所有连接数/8-空闲连接数,该值越大越不容易去获取accept_mutex锁,也即空闲连接数小于所有连接数的1/8时,不再去主动获取连接。
Nginx处理连接过程
首先,nginx在启动时,会解析配置文件,得到需要监听的端口与ip地址,然后在nginx的master进程里面,先初始化好这个监控的socket(创建socket,设置addrreuse等选项,绑定到指定的ip地址端口,再listen),然后再fork出多个子进程出来,然后子进程会竞争accept新的连接。此时,客户端就可以向nginx发起连接了。当客户端与服务端通过三次握手建立好一个连接后,nginx的某一个子进程会accept成功,得到这个建立好的连接的socket,然后创建nginx对连接的封装,即ngx_connection_t结构体。设置socket的属性( 比如非阻塞),然后再通过添加读写事件,调用connect/read/write来调用连接接着,与客户端进行数据的交换。最后,nginx或客户端来主动关掉连接,到此,一个连接就结束了。
Nginx的连接与文件描述符的关系
在nginx中,每个进程会有一个连接数的最大上限,这个上限与系统对fd的限制不一样。在操作系统中,通过ulimit -n,可以得到一个进程所能够打开的fd的最大数,即nofile,因为每个socket连接会占用掉一个fd,所以这也会限制进程的最大连接数,当然也会直接影响到程序所能支持的最大并发数,当fd用完后,再创建socket时,就会失败。nginx通过设置worker_connectons来设置每个进程支持的最大连接数。如果该值大于nofile,那么实际的最大连接数是nofile,nginx会有警告。nginx在实现时,是通过一个连接池来管理的,每个worker进程都有一个独立的连接池,连接池的大小是worker_connections。这里的连接池里面保存的其实不是真实的连接,它只是一个worker_connections大小的一个ngx_connection_t结构的数组。并且,nginx会通过一个链表free_connections来保存所有的空闲ngx_connection_t,每次获取一个连接时,就从空闲连接链表中获取一个,用完后,再放回空闲连接链表里面。
结论
当大量连接进来后,nginx首先把它们放进来,放入得到accept_mutex的work进程的连接池中,此时并没有真正打开文件描述符,因此可以尽可能多的接受连接请求,真正处理的时候nginx采用异步非阻塞的事件机制,通过单进程循环处理准备好的事件,最终利用有限的系统能打开的最大文件描述来承担大量的连接请求。