1. 基本概述
1.1 什么是Netty

Netty是异步的,基于事件驱动的网络应用框架,用以快速开发高性能,高可靠的网络IO程序,本质是对java的io的优化重写
事件驱动: 有相应的事件发生才会去处理,不会一直阻塞等待,通常我们设置一个事件处理模型的程序有两种思路
- 轮询方式:线程不断轮询访问相关事件发生源有没有事件发生,有发生事件就调用事件处理逻辑
- 事件驱动方式:发生事件,主线程把事件放入事件队列,在另外线程不断循环消费事件列表中的事件,调用事件对应的处理逻辑处理事件,事件驱动方式也称为消息通知方式,其实是发布-订阅模式的思路
异步
netty主要针对在TCP协议下,面对clients端的高并发应用,或者在peer to peer场景下的大量数据传输应用,本质是一个NIO框架,适用于服务端通信的各种场景
1.2 哪里会使用到Netty
分布式系统中,各个节点之间需要远程服务调用,高性能的PRC框架必不可少,Netty作为异步高性能通信框架,往往作为基础通信组件被这些RPC框架使用
为什么使用Netty而不直接使用Nio?
NIO的类库和API繁杂,使用麻烦:需要熟练掌握Selector、ServerSocketChannel、SocketChannel、ByteBuffer等- 需要具备其他的额外技能:要熟悉 Java 多线程编程,因为 NIO 编程涉及到
Reactor模式,你必须对多线程和网络编程非常熟悉,才能编写出高质量的 NIO 程序 - 开发工作量和难度都非常大:例如客户端面临断连重连、网络闪断、半包读写、失败缓存、网络拥塞和异常流的处理等等
- JDK
NIO的 Bug:例如臭名昭著的Epoll Bug,它会导致Selector空轮询,最终导致 CPU 100%。直到 JDK 1.7 版本该问题仍旧存在,没有被根本解决
Netty的优点
Netty 对 JDK 自带的 NIO 的 API 进行了封装,解决了上述问题
- 设计优雅:适用于各种传输类型的统一 API 阻塞和非阻塞
Socket;基于灵活且可扩展的事件模型,可以清晰地分离关注点;高度可定制的线程模型 - 单线程,一个或多个线程池 - 使用方便:详细记录的 Javadoc,用户指南和示例;没有其他依赖项,JDK 5(Netty 3.x)或 6(Netty 4.x)就足够了。
- 高性能、吞吐量更高:延迟更低;减少资源消耗;最小化不必要的内存复制。
- 安全:完整的
SSL/TLS和StartTLS支持。 - 社区活跃、不断更新:社区活跃,版本迭代周期短,发现的
Bug可以被及时修复,同时,更多的新功能会被加入
2. IO模型
netty学习系列二:NIO Reactor模型 & Netty线程模型
一文理解Netty模型架构
Reactor模式
理解高性能网络模型
五种IO模型透彻分析
目前存在的线程模型有:
① 传统阻塞 I/O 服务模型
② `Reactor` 模式
- 单 `Reactor` 单线程;
- 单 `Reactor` 多线程;
- 主从 `Reactor` 多线程
Netty 线程模式(Netty 主要基于主从 Reactor 多线程模型做了一定的改进,其中主从 Reactor 多线程模型有多个 Reactor)
2.1 传统阻塞IO模型

模型特点:
- 采用阻塞IO模式获取输入的数据
- 每个连接都需要独立的线程完成数据的输入,业务处理,数据返回
问题分析:
- 当并发数很大,就会创建大量的线程,占用很大系统资源
- 连接创建后,如果当前线程暂时没有数据可读,该线程会阻塞在read 操作,造成线程资源浪费
2.2 Reactor模型
针对传统阻塞 I/O 服务模型的 2 个缺点,有以下两种解决方案:
- 基于 I/O 复用模型:多个连接共用一个阻塞对象,应用程序只需要在一个阻塞对象等待,无需阻塞等待所有连接。当某个连接有新的数据可以处理时,操作系统通知应用程序,线程从阻塞状态返回,开始进行业务处理
- 基于线程池复用线程资源:不必再为每个连接创建线程,将连接完成后的业务处理任务分配给线程进行处理,一个线程可以处理多个连接的业务。

I/O复用结合线程池,这就是Reactor模式基本设计思想
Reactor模式,通过一个或多个输入同时传递给服务处理器的模式(基于事件驱动)- 服务器端程序处理传入的多个请求,并将它们同步分派到相应的处理线程, 因此
Reactor模式也叫Dispatcher模式 Reactor模式使用IO复用监听事件, 收到事件后,分发给某个线程(进程), 这点就是网络服务器高并发处理关键
Reactor模式中有2个关键组成:
Reactor:Reactor在一个单独的线程中运行,负责监听和分发事件,分发给适当的处理程序来对 IO 事件做出反应。 它就像公司的电话接线员,它接听来自客户的电话并将线路转移到适当的联系人Handlers:处理程序执行 I/O 事件要完成的实际事件,类似于客户想要与之交谈的公司中的实际官员,Reactor通过调度适当的处理程序来响应 I/O 事件,处理程序执行非阻塞操作
根据 Reactor 的数量和处理资源池线程的数量不同,有 3 种典型的实现
- 单
Reactor单线程 - 单
Reactor多线程 - 主从
Reactor多线程
① 单Reactor单线程

其中,select是I/O复用模型介绍的标准网络编程API,可以实现应用程序通过一个阻塞对象监听多路连接请求
这是最基本的单Reactor单线程模型,其中Reactor线程,复制多路分离套接字,有新的连接到来触发connect事件之后,交由Acceptor进行处理,有IO读写事件之后交给handler处理
Acceptor主要任务是构建handler,在获取到和client相关的SocketChannel之后,绑定到相应的handler上,对应的SocketChannel有读写事件之后,基于Reactor分发,handler就可以处理了(所有事件都绑定到Selector上,由Reactor分发)
方案说明
Reactor对象通过select监控客户端请求事件,收到事件后通过dispatch进行分发- 如果是建立连接请求事件,则由
Acceptor通过accept处理连接请求,然后创建一个Handler对象处理连接完成后的后续业务处理 - 如果不是建立连接事件,则
Reactor会分发调用连接对应的Handler来响应 Handler会完成read->业务处理->send的完整业务流程
优点
模型简单,没有多线程、进程通信、竞争的问题,全部都在一个线程中完成
缺点
- 性能问题:只有一个线程,无法完全发挥多核CPU的性能
- Handler在处理某个连接上的业务时,整个进程无法处理其他连接事件,很容易导致性能瓶颈
- 可靠性问题:线程意外跑飞,或者进入死循环,会导致整个系统通信模块不可用,不能接收和处理外部消息,造成节点故障
使用场景
客户端的数量有限,业务处理非常快速,比如Redis,业务处理的时间复杂度O(1)
② 单Reactor多线程

方案说明
Reactor对象通过select监控客户端请求事件,收到事件后通过dispatch进行分发- 如果是建立连接请求事件,则由
Acceptor通过accept处理连接请求,然后创建一个Handler对象处理连接完成后的续各种事件 - 如果不是建立连接事件,则
Reactor会分发调用连接对应的Handler来响应 Handler只负责响应事件,不做具体业务处理,通过read读取数据后,会分发给后面的Worker线程池进行业务处理Worker线程池会分配独立的线程完成真正的业务处理,如何将响应结果发给Handler进行处理Handler收到响应结果后通过send将响应结果返回给client
优点
可以充分利用多核CPU的处理能力
缺点
- 多线程数据共享和访问比较复杂(多线程)
Reactor承担所有事件的监听和响应,在单线程中运行,高并发场景下容易成为性能瓶颈
③ 主从Reactor多线程
针对单Reactor多线程模型中,Reactor在单线程中运行,高并发场景下容易成为性能瓶颈,可以让Reactor在多线程中运行
这种模型比起来单Reactor多线程模型来说将Reactor分成两部分
mainReactor负责监听ServerSocket,用来处理新连接的建立,将建立的socketChannel指定注册给subReactorsubReactor维护自己的selector,基于mainReactor注册的socketChannel多路分离IO读写事件,读写网络数据,对业务处理功能,将其扔给worker线程来完成mainReactor主要用来处理网络IO连接建立操作,通常一个线程就能处理,而subReactor主要做和建立起来的socket做数据交互和事件业务处理操作,他的个数一般是和cpu个数相等(不是向上图的只有一个),每个subReactor一个线程来处理
方案说明
Reactor主线程MainReactor对象通过select监控建立连接事件,收到事件后通过Acceptor接收,处理建立连接事件Accepto处理建立连接事件后,MainReactor将连接分配Reactor子线程给SubReactor进行处理SubReactor将连接加入连接队列进行监听,并创建一个Handler用于处理各种连接事件- 当有新的事件发生时,
SubReactor会调用连接对应的Handler进行响应 Handler通过read读取数据后,会分发给后面的Worker线程池进行业务处理Worker线程池会分配独立的线程完成真正的业务处理,如何将响应结果发给Handler进行处理Handler收到响应结果后通过send将响应结果返回给clientReactor主线程可以对应多个Reactor子线程, 即MainRecator可以关联多个SubReactor
优点
- 父线程与子线程的数据交互简单职责明确,父线程只需要接收新连接,子线程完成后续的业务处理
- 父线程与子线程的数据交互简单,
Reactor主线程只需要把新连接传给子线程,子线程无需返回数据
这种模型在许多项目中广泛使用,包括Nginx主从Reactor多进程模型,Memcached主从多线程,Netty主从多线程模型的支持
2.3 Reactor模型优点小结
- 响应快,不必为单个同步时间所阻塞,虽然
Reactor本身依然是同步的,但是有多个subReactor - 编程相对简单,可以最大程度的避免复杂的多线程及同步问题,并且避免了多线程/进程的切换开销;
- 可扩展性,可以方便的通过增加
Reactor实例个数来充分利用CPU资源 - 可复用性,
Reactor模型本身与具体事件处理逻辑无关,具有很高的复用性
3. Netty入门
3.1 Netty模型
Netty 主要基于主从 Reactors 多线程模型做了一定的改进,其中主从 Reactor 多线程模型有多个 Reactor

Netty抽象出两组线程池
①BossGroup专门负责接收客户端的连接
②WorkerGroup专门负责网络的读写BossGroup和WorkerGroup类型都是NioEventLoopGroupserver端包含1个Boss NioEventLoopGroup和1个Worker NioEventLoopGroup,NioEventLoopGroup相当于1个事件循环组,这个组里包含多个事件循环NioEventLoop,每个NioEventLoop包含1个selector和1个事件循环线程NioEventLoopGroup相当于一个事件循环组, 这个组中含有多个事件循环 ,每一个事件循环是NioEventLoopNioEventLoop表示一个不断循环的执行处理任务的线程, 每个NioEventLoop都有一个selector, 用于监听绑定在其上的socket的网络通讯NioEventLoopGroup可以有多个线程, 即可以含有多个NioEventLoop- 每个
Boss NioEventLoop循环执行的步骤有3步
① 轮询accept事件
② 处理accept事件 , 与client建立连接 , 生成NioScocketChannel, 并将其注册到某个worker NIOEventLoop上的selector
③ 处理任务队列的任务 , 即runAllTasks - 每个
Worker NIOEventLoop循环执行的步骤
① 轮询read,write事件
② 处理i/o事件, 即read,write事件,在对应NioScocketChannel处理
③ 处理任务队列的任务 , 即runAllTasks - 每个
Worker NIOEventLoop处理业务时,会使用pipeline(管道),pipeline中包含了channel, 即通过pipeline可以获取到对应通道, 管道中维护了很多的 处理器
3.2 Netty案例
服务端
public class NettyServer {
public static void main(String[] args) throws Exception {
//创建BossGroup 和 WorkerGroup
//说明
//1. 创建两个线程组 bossGroup 和 workerGroup
//2. bossGroup 只是处理连接请求 , 真正的和客户端业务处理,会交给 workerGroup完成
//3. 两个都是无限循环
//4. bossGroup 和 workerGroup 含有的子线程(NioEventLoop)的个数
// 默认实际 cpu核数 * 2
EventLoopGroup bossGroup = new NioEventLoopGroup(1);
EventLoopGroup workerGroup = new NioEventLoopGroup(); //8
try {
//创建服务器端的启动对象,配置参数
ServerBootstrap bootstrap = new ServerBootstrap();
//使用链式编程来进行设置
bootstrap.group(bossGroup, workerGroup) //设置两个线程组
.channel(NioServerSocketChannel.class) //使用NioSocketChannel 作为服务器的通道实现
.option(ChannelOption.SO_BACKLOG, 128) // 设置线程队列得到连接个数
.childOption(ChannelOption.SO_KEEPALIVE, true) //设置保持活动连接状态
// .handler(null) // 该 handler对应 bossGroup , childHandler 对应 workerGroup
.childHandler(new ChannelInitializer<SocketChannel>() {//创建一个通道初始化对象(匿名对象)
//给pipeline 设置处理器
@Override
protected void initChannel(SocketChannel ch) throws Exception {
System.out.println("客户socketchannel hashcode=" + ch.hashCode()); //可以使用一个集合管理 SocketChannel, 再推送消息时,可以将业务加入到各个channel 对应的 NIOEventLoop 的 taskQueue 或者 scheduleTaskQueue
ch.pipeline().addLast(new NettyServerHandler());
}
}); // 给我们的workerGroup 的 EventLoop 对应的管道设置处理器
System.out.println(".....服务器 is ready...");
//绑定一个端口并且同步, 生成了一个 ChannelFuture 对象
//启动服务器(并绑定端口)
ChannelFuture cf = bootstrap.bind(6668).sync();
//给cf 注册监听器,监控我们关心的事件
cf.addListener(new ChannelFutureListener() {
@Override
public void operationComplete(ChannelFuture future) throws Exception {
if (cf.isSuccess()) {
System.out.println("监听端口 6668 成功");
} else {
System.out.println("监听端口 6668 失败");
}
}
});
//对关闭通道进行监听
cf.channel().closeFuture().sync();
}finally {
bossGroup.shutdownGracefully();
workerGroup.shutdownGracefully();
}
}
}
handler
/*
说明
1. 我们自定义一个Handler 需要继续netty 规定好的某个HandlerAdapter(规范)
2. 这时我们自定义一个Handler , 才能称为一个handler
*/
public class NettyServerHandler extends ChannelInboundHandlerAdapter {
//读取数据实际(这里我们可以读取客户端发送的消息)
/*
1. ChannelHandlerContext ctx:上下文对象, 含有 管道pipeline , 通道channel, 地址
2. Object msg: 就是客户端发送的数据 默认Object
*/
@Override
public void channelRead(ChannelHandlerContext ctx, Object msg) throws Exception {
//将 msg 转成一个 ByteBuf
//ByteBuf 是 Netty 提供的,不是 NIO 的 ByteBuffer.
ByteBuf buf = (ByteBuf) msg;
System.out.println("客户端发送消息是:" + buf.toString(CharsetUtil.UTF_8));
System.out.println("客户端地址:" + channel.remoteAddress());
}
//数据读取完毕
@Override
public void channelReadComplete(ChannelHandlerContext ctx) throws Exception {
//writeAndFlush 是 write + flush
//将数据写入到缓存,并刷新
//一般讲,我们对这个发送的数据进行编码
ctx.writeAndFlush(Unpooled.copiedBuffer("hello, 客户端~(>^ω^<)喵1", CharsetUtil.UTF_8));
}
//处理异常, 一般是需要关闭通道
@Override
public void exceptionCaught(ChannelHandlerContext ctx, Throwable cause) throws Exception {
ctx.close();
}
}
客户端
public class NettyClient {
public static void main(String[] args) throws Exception {
//客户端需要一个事件循环组
EventLoopGroup group = new NioEventLoopGroup();
try {
//创建客户端启动对象
//注意客户端使用的不是 ServerBootstrap 而是 Bootstrap
Bootstrap bootstrap = new Bootstrap();
//设置相关参数
bootstrap.group(group) //设置线程组
.channel(NioSocketChannel.class) // 设置客户端通道的实现类(反射)
.handler(new ChannelInitializer<SocketChannel>() {
@Override
protected void initChannel(SocketChannel ch) throws Exception {
ch.pipeline().addLast(new NettyClientHandler()); //加入自己的处理器
}
});
System.out.println("客户端 ok..");
//启动客户端去连接服务器端
//关于 ChannelFuture 要分析,涉及到netty的异步模型
ChannelFuture channelFuture = bootstrap.connect("127.0.0.1", 6668).sync();
//给关闭通道进行监听
channelFuture.channel().closeFuture().sync();
}finally {
group.shutdownGracefully();
}
}
}
public class NettyClientHandler extends ChannelInboundHandlerAdapter {
//当通道就绪就会触发该方法
@Override
public void channelActive(ChannelHandlerContext ctx) throws Exception {
System.out.println("client " + ctx);
ctx.writeAndFlush(Unpooled.copiedBuffer("hello, server: (>^ω^<)喵", CharsetUtil.UTF_8));
}
//当通道有读取事件时,会触发
@Override
public void channelRead(ChannelHandlerContext ctx, Object msg) throws Exception {
ByteBuf buf = (ByteBuf) msg;
System.out.println("服务器回复的消息:" + buf.toString(CharsetUtil.UTF_8));
System.out.println("服务器的地址: "+ ctx.channel().remoteAddress());
}
@Override
public void exceptionCaught(ChannelHandlerContext ctx, Throwable cause) throws Exception {
cause.printStackTrace();
ctx.close();
}
}
3.3 核心模块
① Bootstrap,ServerBootstrap
Bootstrap 意思是引导,一个 Netty 应用通常由一个 Bootstrap 开始,主要作用是配置整个 Netty 程序,串联各个组件,Netty 中 Bootstrap 类是客户端程序的启动引导类,ServerBootstrap 是服务端启动引导类
常见的方法有
public ServerBootstrap group(EventLoopGroup parentGroup, EventLoopGroup childGroup)//该方法用于服务器端,用来设置两个 EventLoop
public B group(EventLoopGroup group) //该方法用于客户端,用来设置一个 EventLoop
public B channel(Class<? extends C> channelClass)//该方法用来设置一个服务器端的通道实现
public <T> B option(ChannelOption<T> option, T value)//用来给 ServerChannel 添加配置
public <T> ServerBootstrap childOption(ChannelOption<T> childOption, T value)//用来给接收到的通道添加配置
public ServerBootstrap childHandler(ChannelHandler childHandler)//该方法用来设置业务处理类(自定义的 handler)
public ChannelFuture bind(int inetPort) //该方法用于服务器端,用来设置占用的端口号
public ChannelFuture connect(String inetHost, int inetPort) //该方法用于客户端,用来连接服务器
② ChannelFuture
Netty 中所有的 IO 操作都是异步的,不能立刻得知消息是否被正确处理。但是可以过一会等它执行完成或者直接注册一个监听,具体的实现就是通过 Future 和 ChannelFutures,他们可以注册一个监听,当操作执行成功或失败时监听会自动触发注册的监听事件
常见的方法有
Channel channel()//返回当前正在进行 IO 操作的通道
ChannelFuture sync()//等待异步操作执行完毕
③ Channel
Netty 网络通信的组件,能够用于执行网络 I/O 操作
- 通过
Channel可获得当前网络连接的通道的状态 - 通过
Channel可获得 网络连接的配置参数 (例如接收缓冲区大小) Channel提供异步的网络 I/O 操作(如建立连接,读写,绑定端口),异步调用意味着任何 I/O 调用都将立即返回,并且不保证在调用结束时所请求的 I/O 操作已完成- 调用立即返回一个
ChannelFuture实例,通过注册监听器到ChannelFuture上,可以 I/O 操作成功、失败或取消时回调通知调用方 - 支持关联 I/O 操作与对应的处理程序
- 不同协议、不同的阻塞类型的连接都有不同的
Channel类型与之对应
NioSocketChannel//异步的客户端 TCP Socket 连接。
NioServerSocketChannel//异步的服务器端 TCP Socket 连接。
NioDatagramChannel//异步的 UDP 连接。
NioSctpChannel//异步的客户端 Sctp 连接。
NioSctpServerChannel//异步的 Sctp 服务器端连接,这些通道涵盖了 UDP 和 TCP 网络 IO 以及文件 IO。
④ Selector
Netty 基于 Selector 对象实现 I/O 多路复用,通过 Selector 一个线程可以监听多个连接的 Channel 事件。
当向一个 Selector 中注册 Channel 后,Selector 内部的机制就可以自动不断地查询(Select) 这些注册的 Channel 是否有已就绪的 I/O 事件(例如可读,可写,网络连接完成等),这样程序就可以很简单地使用一个线程高效地管理多个 Channel
⑤ ChannelHandler 及其实现类
ChannelHandler 是一个接口,处理 I/O 事件或拦截 I/O 操作,并将其转发到其 ChannelPipeline(业务处理链)中的下一个处理程序。
ChannelHandler 本身并没有提供很多方法,因为这个接口有许多的方法需要实现,方便使用期间,可以继承它的子类
ChannelInboundHandler 用于处理入站 I/O 事件。
ChannelOutboundHandler 用于处理出站 I/O 操作。
//适配器
ChannelInboundHandlerAdapter 用于处理入站 I/O 事件。
ChannelOutboundHandlerAdapter 用于处理出站 I/O 操作。
ChannelDuplexHandler 用于处理入站和出站事件。
我们经常需要自定义一个 Handler 类去继承 ChannelInboundHandlerAdapter,然后通过重写相应方法实现业务逻辑
public class ChannelInboundHandlerAdapter extends ChannelHandlerAdapter implements ChannelInboundHandler {
@Override
public void channelRegistered(ChannelHandlerContext ctx) throws Exception {
ctx.fireChannelRegistered();
}
@Override
public void channelUnregistered(ChannelHandlerContext ctx) throws Exception {
ctx.fireChannelUnregistered();
}
//通道就绪事件
@Override
public void channelActive(ChannelHandlerContext ctx) throws Exception {
ctx.fireChannelActive();
}
@Override
public void channelInactive(ChannelHandlerContext ctx) throws Exception {
ctx.fireChannelInactive();
}
//数据读取事件
@Override
public void channelRead(ChannelHandlerContext ctx, Object msg) throws Exception {
ctx.fireChannelRead(msg);
}
//数据读取完毕事件
@Override
public void channelReadComplete(ChannelHandlerContext ctx) throws Exception {
ctx.fireChannelReadComplete();
}
@Override
public void userEventTriggered(ChannelHandlerContext ctx, Object evt) throws Exception {
ctx.fireUserEventTriggered(evt);
}
@Override
public void channelWritabilityChanged(ChannelHandlerContext ctx) throws Exception {
ctx.fireChannelWritabilityChanged();
}
//通道发生异常事件
@Override
public void exceptionCaught(ChannelHandlerContext ctx, Throwable cause)
throws Exception {
ctx.fireExceptionCaught(cause);
}
}
⑥ Pipeline和ChannelPipeline
ChannelPipeline 是一个 Handler 的集合,它负责处理和拦截 inbound 或者 outbound 的事件和操作,相当于一个贯穿 Netty 的链。(也可以这样理解:ChannelPipeline 是 保存 ChannelHandler 的 List,用于处理或拦截 Channel 的入站事件和出站操作)
ChannelPipeline 实现了一种高级形式的拦截过滤器模式,使用户可以完全控制事件的处理方式,以及 Channel 中各个的 ChannelHandler 如何相互交互
在 Netty 中每个 Channel 都有且仅有一个 ChannelPipeline 与之对应,它们的组成关系如下
- 一个
Channel包含了一个ChannelPipeline,而ChannelPipeline中又维护了一个由ChannelHandlerContext组成的双向链表,并且每个ChannelHandlerContext中又关联着一个ChannelHandler - 入站事件和出站事件在一个双向链表中,入站事件会从链表
head往后传递到最后一个入站的handler,出站事件会从链表tail往前传递到最前一个出站的handler,两种类型的handler互不干扰
ChannelPipeline addFirst(ChannelHandler... handlers)//把一个业务处理类(handler)添加到链中的第一个位置
ChannelPipeline addLast(ChannelHandler... handlers)//把一个业务处理类(handler)添加到链中的最后一个位置
⑦ ChannelHandlerContext
保存 Channel 相关的所有上下文信息,同时关联一个 ChannelHandler 对象,即ChannelHandlerContext 中 包 含 一 个 具 体 的 事 件 处 理 器 ChannelHandler , 同 时ChannelHandlerContext 中也绑定了对应的 pipeline 和 Channel 的信息,方便对 ChannelHandler进行调用
ChannelFuture close()//关闭通道
ChannelOutboundInvoker flush()//刷新
ChannelFuture writeAndFlush(Object msg) //将数据写到 ChannelPipeline中当前ChannelHandler 的下一个 ChannelHandler 开始处理(出站)
⑧ NioEventLoop
NioEventLoop中维护了一个线程和任务队列,支持异步提交执行任务,线程启动时会调用NioEventLoop的run方法,执行I/O任务和非I/O任务:
- I/O任务即
selectionKey中ready的事件,如accept、connect、read、write等,由processSelectedKeys方法触发。 - 非IO任务添加到
taskQueue中的任务,如register0、bind0等任务,由runAllTasks方法触发。
⑨ EventLoopGroup 和其实现类 NioEventLoopGroup
EventLoopGroup 是一组 EventLoop 的抽象,Netty 为了更好的利用多核 CPU 资源,一般会有多个 EventLoop 同时工作,每个 EventLoop 维护着一个 Selector 实例。
EventLoopGroup 提供 next 接口,可以从组里面按照一定规则获取其中一个 EventLoop来处理任务。在 Netty 服务器端编程中,我们一般都需要提供两个 EventLoopGroup,例如:BossEventLoopGroup 和 WorkerEventLoopGroup
通常一个服务端口即一个 ServerSocketChannel对应一个Selector 和一个EventLoop线程。BossEventLoop 负责接收客户端的连接并将 SocketChannel 交给 WorkerEventLoopGroup 来进行 IO 处理
BossEventLoopGroup通常是一个单线程的EventLoop,EventLoop维护着一个注册了ServerSocketChannel的Selector实例BossEventLoop不断轮询Selector将连接事件分离出来- 通常是
OP_ACCEPT事件,然后将接收到的SocketChannel交给WorkerEventLoopGroup
WorkerEventLoopGroup会由 next 选择其中一个EventLoop来将这个SocketChannel注册到其维护的Selector并对其后续的 IO 事件进行处理