盘点 35 个 Apache 顶级项目,我拜服了…
Apache 软件基金会
Apache 软件基金会,全称:Apache Software Foundation,简称:ASF,成立于 1999 年 7 月,是目前世界上最大的最受欢迎的开源软件基金会,也是一个专门为支持开源项目而生的非盈利性组织。
来看看 Apache 软件基金会现在的成绩:
- 管理了超过两亿行的代码;
- 提交了 1,119,785,328 行代码;
- 3,231,428 次代码提交;
- 765 个 ASF 个人会员;
- 7,600 个 代码提交者;
- 所有志愿者的社区;
- 350+ 项目和提议;
- 300 +顶级项目;
- 52 个孵化器项目;
以上信息来源 Apache 官网,你看本文的时候可能会有更新。
https://www.apache.org/
据 Apache 统计,目前整个 Apache 软件基金会有价值超过 200+ 亿美元的开源软件和项目,免费提供给开发者使用,并使全世界数十亿的用户受益。
看到这里,我只能说 Apache 牛逼,下面我要整理的,可能都是我们日常开发过程中都会遇到的顶级开源项目,看看你用过几个,没用过的也可以学习了解下,日后总有用武之地。
顶级开源项目基础组件项目1、Apache(httpd)
项目主页:
http://httpd.apache.org/
Apache 中文名:阿帕奇,全称:Apache HTTP Server,后来改名叫 “httpd“,是 Apache 软件基金会的一个开源 HTTP 服务器,能够运行于 UNIX 和 Windows 上的安全、高效和可扩展服务器。
Apache 估计也是最早的开源项目了,1995 年就推出来了,自从 1996 年 4 月开始就一直是互联网上最流行的 web 服务器了,2020 年 2 月,它度过了它的 25 岁生日。
Apache 适合做HTML、图片等静态资源服务,可以用来部署静态网站,类似于 Nginx,不过 Nginx 要更强大,现在用 Nginx 的比较多。
2、Tomcat
项目主页:
http://tomcat.apache.org/
这个做 Java 的没人不认识吧,记得在学校的时候学 Java 最经典的软件就是这只汤姆猫了,当时还是 Tomcat 6 的时代,现在是 8 的时代,最新已经到 10 了。
Tomcat 就是一个 Apache 开源的 Web 应用服务器,支持 Java Servlet, JavaServer Pages, Java Expression Language 和 Java WebSocket 技术,其实就是为 Java 而生。
虽然这些年 Tomcat 漏洞一直有,不能和其他收费的比,但它开源啊、免费啊,现在仍是 Java 界最主流的应用服务器。
3、Commons
项目主页:
http://commons.apache.org/
Apache Commons 是包含一系列 Java 公共组件的项目,可以理解为 Java 开发工具包、公共类库,最经典的莫非 commons-lang3 类库了:
Apache Commons 提供了一系列额外的 Java 核心 API,用的最多的 StringUtils 想必大家都知道了。
除了 commons-lang3 类库,Apache Commons 目前共提供了 43 个十分好用的类库,比如:
- commons-io:这是一个有效开发 IO 功能的实用类库,很多 Java IO 处理都不能自己封装;
- commons-codec:这个类库提供了常用的编码器和解码器,比如:Base64、十六进制、语音和 url 的编码解码等;
- commons-collections:这个类库是专门处理集合的,很多集合处理也不用自己写了;
- commons-fileupload:这个类库提供了非常容易的、健壮的、高性能的文件上传功能;
- ……
更多请参考上方的项目主页链接,其实 Apache Commons 提供了许多这些公用类库,我们真的没有必要重复造轮子,直接拿来用就好了。
4、POI
项目主页:
http://poi.apache.org/
做过 Java Web 传统后台项目的都知道 POI 类库吧,POI 提供了一系列的 Java API 对 Microsoft Office 格式档案读写处理,如:Excel、Word、PowerPoint 等文件的读写,非常强大。
5、HttpComponents
项目主页:
http://hc.apache.org/
Apache HttpComponents 提供了 HTTP 和相关协议的一系列 Java 组件和工具集,包括:HttpCore、HttpClient、HttpAsyncClient 三个组件,大家用的最多的 HTTP 客户端 HttpClient 应该都清楚了吧,就是这个开源项目的组件之一。
最新的 HttpClient 都到 httpclient5 了:
6、logging services
项目主页:
http://logging.apache.org/
Apache logging services:即 Apache 日志服务,做 Java 都知道 Log4j 吧,也是用的最多的日志框架,就是属于这个开源项目,另外还包含还有 Log4j 2、log4php、log4cxx 等其他语言的日志框架。
7、Ant
项目主页:
http://ant.apache.org/
Apache Ant 是一个比较老的 Java 项目编译和构建工具,现在已经用的比较少了,已经被 Maven/ Gradle 替代了。
8、Maven
项目主页:
http://maven.apache.org/
Apache Maven 算是 Apache Ant 的终结者,是现在最主流的软件项目管理工具之一,提供项目自动编译、单元测试、打包、发布等一系列生命周期的管理。
这里就不展开介绍了,相信大家大部分人所在公司都已经在用它,想系统学习的,我之前也写过不少教程,点击文末的了解更多链接关注Java技术栈在后台回复 Maven 即可快速阅读。
9、Subversion
项目主页:
http://subversion.apache.org/
没错,Subversion 就是指牛逼哄哄的 SVN,创建于 2000 年,是 Apache 开源的版本控制软件,代码版本控制、文件版本控制没人没用过它吧?
Web 项目10、Struts
项目主页:
http://struts.apache.org/
Struts 是一个免费开源的 MVC 框架,用于创建 Java web 应用程序。Struts 那些年可谓是风光无限啊,Struts2 + Spring + Hibernate 三大框架一起组成了 “SSH”————牛逼哄哄的 Java Web 框架三剑客。
不过 Struts 漏洞太多了,随着 Spring MVC, Spring Boot 的兴起,现在它也逐渐被淘汰了,具体可以点击这里看下这篇文章。
11、FreeMarker
项目主页:
https://freemarker.apache.org/
Apache FreeMarker 是一个基于模板和数据生成文本输出 HTML 页面、电子邮件、配置文件、源代码等的一个 Java 模板引擎库。
用的最多的就是利用 FreeMarker 模板来生成静态页面,FreeMarker 也是 Spring Boot 支持自动配置的四大模板引擎之一。
12、Velocity
项目主页:
http://velocity.apache.org/
Velocity 是一个基于 Java 语言的模板引擎,它允许任何人使用简单而强大的模板语言来引用 Java 代码中定义的对象。
但是,由于 Velocity 长期未更新,所以 Spring Boot 1.5.x 之后不再支持 Velocity,建议大家使用其他模板引擎。
上次更新还是 2010 年。
13、Tapestry
项目主页:
https://tapestry.apache.org/
Tapestry 在 Java Web 开发界也是鼎鼎有名的,我知道的之前就有一些公司都用过它。它是一个面向组件的 Web 框架,用于在 Java 中创建高度可伸缩的 Web 应用程序。
14、Shiro
项目主页:
http://shiro.apache.org/
做 Java Web 后台开发的程序员应该没人不知道强大 Shiro 了,Apache Shiro 是一个功能强大且易于使用的 Java 安全框架,可用于身份验证、授权、加密和会话管理等。
另外,通过 Apache Shiro 易于理解的API、细致化的权限控制,我们可以快速、轻松地开发和保护企业应用程序。
分布式项目15、Dubbo
项目主页:
http://dubbo.apache.org/
对于 Dubbo,做分布式、微服务的程序员朋友们应该都再清楚不过了,它最初是由阿里巴巴开源的分布式服务框架(RPC),一段时间停止维护后,后来又重启维护并捐献给了 Apache 软件基金会。
即使现在 Spring Cloud 微服务的兴起,Dubbo 现在在很多企业也还是在大量运用的,随着 Dubbo 的重启维护并且捐献给 Apache 软件基金会,它的明天会越来越好。
16、Thrift
项目主页:
http://thrift.apache.org/
Apache Thrift 也是一款优秀的、非常轻量级的 RPC 框架,也是大名鼎鼎,最初由 Facebook 进行开发,后来捐献给了 Apache 软件基金会。
Apache Thrift 支持可扩展的跨语言服务化开发,支持多种语言,如 C++, Java, Python, PHP, Ruby, Erlang, Perl, Haskell, C#, Cocoa, JavaScript, Node.js, Smalltalk, OCaml, Delphi 等,十分强大。
17、Zookeeper
项目主页:
http://zookeeper.apache.org/
Apache Zookeeper 也是一个分布式中间件神器,是 Google Chubby 的一个开源实现,可用于做配置中心、分布式锁等,最主要一点是它可以用来支持高度可靠的分布式服务协调中间件。
现在市面上的一些主流的开源项目都有 Zookeeper 的身影,如:Hadoop、Dubbo、Kafka、ElasticJob 等。
18、Curator
项目主页:
http://curator.apache.org/
Apache Curator 是 ZooKeeper 的 Java 客户端,它包括一系列高级 API 和工具,简化了使用 ZooKeeper 的操作,可以更容易、可靠地使用 ZooKeeper。
19、SkyWalking
项目主页:
http://skywalking.apache.org/
Apache SkyWalking 是一个可观测性分析平台和应用性能管理系统,提供分布式跟踪、指标监控、性能诊断、度量汇总和可视化一体化的解决方案。
Apache SkyWalking 支持 Java,net Core, PHP, NodeJS, Golang, LUA 的代理,还支持 Istio + Envoy Service Mesh,特别为微服务、云本机和基于容器(如:Docker, K8s, Mesos)架构设计的。
20、ShardingSphere
项目主页:
http://shardingsphere.apache.org/
Apache ShardingSphere 是由一组分布式数据库中间件解决方案组成的开源生态系统,包括 3 个独立的产品:JDBC, Proxy & Sidecar (计划中)。它们都提供了数据分片、分布式事务和数据库编排功能,适用于 Java 同构、异构语言和云原生等多种场景。
搜索项目21、Lucene
项目主页:
https://lucene.apache.org/
Apache Lucene 是一个顶级的开源搜索框架,包括一个核心搜索库:Lucene core,以及一个搜索服务器:Solr。
Lucene Core 是一个提供强大的索引和搜索功能的 Java 库,以及拼写检查、高亮显示和高级分析/标记功能。
Solr 是使用 Lucene Core 构建的高性能搜索服务器。Solr 具有高伸缩性,提供完全容错的分布式索引、搜索和分析功能。
消息中间件项目22、ActiveMQ
项目主页:
http://activemq.apache.org/
Apache ActiveMQ 是一款灵活、强大的多协议开源消息中间件,支持 JMS 1.1 & 2.0,也是目前最流行的基于 Java 的消息中间件之一。
它支持行业标准协议,所以用户可以跨广泛的语言和平台选择最合适的客户端,如 C、c++、Python、. net 等更多其他语言。
23、RocketMQ
项目主页:
http://rocketmq.apache.org/
Apache RocketMQ 真的是一款重量级、极具竞争力的消息队列产品,是由阿里巴巴 2012 年开源的分布式消息中间件,也是一款轻量级的数据处理平台,2016 年捐赠给了 Apache 软件基金会,2017 年正式毕业。
24、Kafka
项目主页:
http://kafka.apache.org/
Apache Kafka 也是一款重量级开源项目,最初由 Linkedin 公司进行开发,后来捐献给了 Apache 软件基金会。
Apache Kafka 它是一种分布式、高吞吐量的发布订阅消息系统(MQ),它的最大的特性就是,可以实时好处理大量数据以满足各种需求和业务场景。
大数据/数据库项目25、Hadoop
项目主页:
http://hadoop.apache.org/
做大数据的没有不知道 Apache Hadoop 的,它是一种高可靠、可伸缩、分布式大数据处理框架,也是一套大数据行业公认的标准框架。
Apache Hadoop 成立于 2002 年,曾是 Apache Lucene 的子项目之一,2008 年正式成为 Apache 的顶级项目。
26、HBase
项目主页:
http://hbase.apache.org/
Apache HBase 是一个建立在 Hadoop HDFS 的非关系数据库,以分布式、可扩展进行大数据存储,如果需要对大数据进行随机、实时的读写访问时,可以使用 Apache HBase。
27、Pig
项目主页:
http://pig.apache.org/
Apache Pig 是一个基于 Hadoop 的大数据分析平台,是 Map Reduce 的一个抽象,提供类似于 SQL 的面向数据流的 Pig Latin 高级语言。
Pig Latin 提供了各种操作符,以及丰富的数据类型,从而可以很轻松地执行 Map Reduce 任务。
28、Hive
项目主页:
http://hive.apache.org/
Apache Hive 是一个基于 Hadoop 的数据仓库工具,用来提取、转化和加载数据,它可以将 Hadoop 原始结构化数据映射为 Hive 中的一张表,并提供了类似 SQL 的 HiveQL 语言查询功能。
29、Spark
项目主页:
http://spark.apache.org/
Apache Spark 是一个用于大规模数据处理的统一分析引擎,它也被认为是第二代大数据技术,第一代是基于 Hadoop 的 Map Reduce 模型。
Apache Spark 它本身不会进行分布式数据的存储,所以它必须要集成其他的分布式文件系统才能工作,一船要与 Apache Hadoop 的 HDFS 结合使用,但这不是必须的,也可以选择其他的数据系统平台进行集成。
30、Flink
项目主页:
https://flink.apache.org/
Apache Flink 是一个分布式处理引擎框架,用于无边界和有边界数据流上的有状态计算。Flink 被设计用于在所有常见的集群环境中运行,以内存速度和任何规模执行计算。
31、Storm
项目主页:
http://storm.apache.org/
Apache Storm 是一个分布式实时计算系统,它能够轻松可靠地处理数据流,就像 Hadoop 那样进行实时批处理,并且可以与任何编程语言一起使用,而且使用起来非常方便。
32、Cassandra
项目主页:
https://cassandra.apache.org/
Apache Cassandra 是一款可伸缩、高可用、高性能去中心化的分布式数据库,当时是 Facebook 在 2007 年为了解决消息收件箱搜索问题而开始设计的,后来被转移到了 Apache 软件基金会成为顶级项目。
33、CouchDB
项目主页:
https://couchdb.apache.org/
Apache CouchDB 是一个面向文档的分布式数据库,它以 JSON 作为存储格式,JavaScript 作为查询语言,提供直观可靠的 Restful API 接口进行操作,最显著的特点就是支持多主复制。
编程语言、工具项目34、Groovy
项目主页:
http://groovy.apache.org/
Apache Groovy 是一个功能十分强大的基于 JVM 平台的动态编程语言,语法与 Java 十分相似,并且兼容 Java,但 Groovy 要更简洁、优美,更易于学习,开发效率也非常高。
35、NetBeans
项目主页:
http://netbeans.apache.org/
NetBeans 是一款老牌的开源开发工具(IDE),集成开发环境和应用框架,支持 Java, JavaScript, PHP 等更多编程语言,最初由 SUN 公司开发,后来被 Oracle 收购,再后来被 Oracle 捐献给了 Apache 软件基金会。
总结
相信今天栈长分享的 35 个顶级项目大家都接触过或者听说过,虽然有些面临淘汰,但它们个个都是重磅,曾经也都风光过,正是有了这些开源项目,我们 Java 生态圈才会越来越繁荣。
最后,这篇文章写完真心不容易啊,抽空陆陆续续写了好些天,觉得本文不错,也欢迎点赞转发哦!
大家也可以持续关注Java技术栈,栈长也将继续分享好玩的 Java 项目和工具,公第一时间推送。
你还知道哪些重磅的 Apache 顶级项目,欢迎留言分享~
超详细Netty入门,看这篇就够了
本文主要讲述Netty框架的一些特性以及重要组件,希望看完之后能对Netty框架有一个比较直观的感受,希望能帮助读者快速入门Netty,减少一些弯路。
官方的介绍:
Netty is an asynchronous event-driven network application frameworkfor rapid development of maintainable high performance protocol servers & clients.
Netty是 一个异步事件驱动的网络应用程序框架,用于快速开发可维护的高性能协议服务器和客户端。
从官网上介绍,Netty是一个网络应用程序框架,开发服务器和客户端。也就是用于网络编程的一个框架。既然是网络编程,Socket就不谈了,为什么不用NIO呢?
2.1 NIO的缺点
对于这个问题,之前我写了一篇文章《NIO入门》对NIO有比较详细的介绍,NIO的主要问题是:
- NIO的类库和API繁杂,学习成本高,你需要熟练掌握Selector、ServerSocketChannel、SocketChannel、ByteBuffer等。
- 需要熟悉Java多线程编程。这是因为NIO编程涉及到Reactor模式,你必须对多线程和网络编程非常熟悉,才能写出高质量的NIO程序。
- 臭名昭著的epoll bug。它会导致Selector空轮询,最终导致CPU 100%。直到JDK1.7版本依然没得到根本性的解决。
2.2 Netty的优点
相对地,Netty的优点有很多:
- API使用简单,学习成本低。
- 功能强大,内置了多种解码编码器,支持多种协议。
- 性能高,对比其他主流的NIO框架,Netty的性能最优。
- 社区活跃,发现BUG会及时修复,迭代版本周期短,不断加入新的功能。
- Dubbo、Elasticsearch都采用了Netty,质量得到验证。
上面这张图就是在官网首页的架构图,我们从上到下分析一下。
绿色的部分Core核心模块,包括零拷贝、API库、可扩展的事件模型。
橙色部分Protocol Support协议支持,包括Http协议、webSocket、SSL(安全套接字协议)、谷歌Protobuf协议、zlib/gzip压缩与解压缩、Large File Transfer大文件传输等等。
红色的部分Transport Services传输服务,包括Socket、Datagram、Http Tunnel等等。
以上可看出Netty的功能、协议、传输方式都比较全,比较强大。
首先搭建一个HelloWord工程,先熟悉一下API,还有为后面的学习做铺垫。以下面这张图为依据:
4.1 引入Maven依赖
使用的版本是4.1.20,相对比较稳定的一个版本。
4.2 创建服务端启动类
4.3 创建服务端处理器
4.4 创建客户端启动类
4.5 创建客户端处理器
4.6 测试
先启动服务端,再启动客户端,就可以看到结果:
MyServer打印结果:
MyClient打印结果:
5.1 taskQueue任务队列
如果Handler处理器有一些长时间的业务处理,可以交给taskQueue异步处理。怎么用呢,请看代码演示:
我们打一个debug调试,是可以看到添加进去的taskQueue有一个任务。
5.2 scheduleTaskQueue延时任务队列
延时任务队列和上面介绍的任务队列非常相似,只是多了一个可延迟一定时间再执行的设置,请看代码演示:
依然打开debug进行调试查看,我们可以有一个scheduleTaskQueue任务待执行中
5.3 Future异步机制
在搭建HelloWord工程的时候,我们看到有一行这样的代码:
很多操作都返回这个ChannelFuture对象,究竟这个ChannelFuture对象是用来做什么的呢?
ChannelFuture提供操作完成时一种异步通知的方式。一般在Socket编程中,等待响应结果都是同步阻塞的,而Netty则不会造成阻塞,因为ChannelFuture是采取类似观察者模式的形式进行获取结果。请看一段代码演示:
5.4 Bootstrap与ServerBootStrap
Bootstrap和ServerBootStrap是Netty提供的一个创建客户端和服务端启动器的工厂类,使用这个工厂类非常便利地创建启动类,根据上面的一些例子,其实也看得出来能大大地减少了开发的难度。首先看一个类图:
可以看出都是继承于AbstractBootStrap抽象类,所以大致上的配置方法都相同。
一般来说,使用Bootstrap创建启动器的步骤可分为以下几步:
5.4.1 group()
在上一篇文章《Reactor模式》中,我们就讲过服务端要使用两个线程组:
- bossGroup 用于监听客户端连接,专门负责与客户端创建连接,并把连接注册到workerGroup的Selector中。
- workerGroup用于处理每一个连接发生的读写事件。
一般创建线程组直接使用以下new就完事了:
有点好奇的是,既然是线程组,那线程数默认是多少呢?深入源码:
通过源码可以看到,默认的线程数是cpu核数的两倍。假设想自定义线程数,可以使用有参构造器:
5.4.2 channel()
这个方法用于设置通道类型,当建立连接后,会根据这个设置创建对应的Channel实例。
使用debug模式可以看到
通道类型有以下:
NioSocketChannel: 异步非阻塞的客户端 TCP Socket 连接。
NioServerSocketChannel: 异步非阻塞的服务器端 TCP Socket 连接。
常用的就是这两个通道类型,因为是异步非阻塞的。所以是首选。
OioSocketChannel: 同步阻塞的客户端 TCP Socket 连接。
OioServerSocketChannel: 同步阻塞的服务器端 TCP Socket 连接。
稍微在本地调试过,用起来和Nio有一些不同,是阻塞的,所以API调用也不一样。因为是阻塞的IO,几乎没什么人会选择使用Oio,所以也很难找到例子。我稍微琢磨了一下,经过几次报错之后,总算调通了。代码如下:
NioSctpChannel: 异步的客户端 Sctp(Stream Control Transmission Protocol,流控制传输协议)连接。
NioSctpServerChannel: 异步的 Sctp 服务器端连接。
本地没启动成功,网上看了一些网友的评论,说是只能在linux环境下才可以启动。从报错信息看:SCTP not supported on this platform,不支持这个平台。因为我电脑是window系统,所以网友说的有点道理。
5.4.3 option()与childOption()
首先说一下这两个的区别。
option()设置的是服务端用于接收进来的连接,也就是boosGroup线程。
childOption()是提供给父管道接收到的连接,也就是workerGroup线程。
搞清楚了之后,我们看一下常用的一些设置有哪些:
SocketChannel参数,也就是childOption()常用的参数:
SO_RCVBUF Socket参数,TCP数据接收缓冲区大小。TCP_NODELAY TCP参数,立即发送数据,默认值为Ture。SO_KEEPALIVE Socket参数,连接保活,默认值为False。启用该功能时,TCP会主动探测空闲连接的有效性。
ServerSocketChannel参数,也就是option()常用参数:
SO_BACKLOG Socket参数,服务端接受连接的队列长度,如果队列已满,客户端连接将被拒绝。默认值,Windows为200,其他为128。
由于篇幅限制,其他就不列举了,大家可以去网上找资料看看,了解一下。
5.4.4 设置流水线(重点)
ChannelPipeline是Netty处理请求的责任链,ChannelHandler则是具体处理请求的处理器。实际上每一个channel都有一个处理器的流水线。
在Bootstrap中childHandler()方法需要初始化通道,实例化一个ChannelInitializer,这时候需要重写initChannel()初始化通道的方法,装配流水线就是在这个地方进行。代码演示如下:
处理器Handler主要分为两种:
ChannelInboundHandlerAdapter(入站处理器)、ChannelOutboundHandler(出站处理器)
入站指的是数据从底层java NIO Channel到Netty的Channel。
出站指的是通过Netty的Channel来操作底层的java NIO Channel。
ChannelInboundHandlerAdapter处理器常用的事件有:
- 注册事件 fireChannelRegistered。
- 连接建立事件 fireChannelActive。
- 读事件和读完成事件 fireChannelRead、fireChannelReadComplete。
- 异常通知事件 fireExceptionCaught。
- 用户自定义事件 fireUserEventTriggered。
- Channel 可写状态变化事件 fireChannelWritabilityChanged。
- 连接关闭事件 fireChannelInactive。
ChannelOutboundHandler处理器常用的事件有:
- 端口绑定 bind。
- 连接服务端 connect。
- 写事件 write。
- 刷新时间 flush。
- 读事件 read。
- 主动断开连接 disconnect。
- 关闭 channel 事件 close。
还有一个类似的handler(),主要用于装配parent通道,也就是bossGroup线程。一般情况下,都用不上这个方法。
5.4.5 bind()
提供用于服务端或者客户端绑定服务器地址和端口号,默认是异步启动。如果加上sync()方法则是同步。
有五个同名的重载方法,作用都是用于绑定地址端口号。不一一介绍了。
5.4.6 优雅地关闭EventLoopGroup
会关闭所有的child Channel。关闭之后,释放掉底层的资源。
5.5 Channel
Channel是什么?不妨看一下官方文档的说明:
A nexus to a network socket or a component which is capable of I/O operations such as read, write, connect, and bind
翻译大意:一种连接到网络套接字或能进行读、写、连接和绑定等I/O操作的组件。
如果上面这段说明比较抽象,下面还有一段说明:
A channel provides a user:
the current state of the channel (e.g. is it open? is it connected?),the configuration parameters of the channel (e.g. receive buffer size),the I/O operations that the channel supports (e.g. read, write, connect, and bind), andthe ChannelPipeline which handles all I/O events and requests associated with the channel.
翻译大意:
channel为用户提供:
- 通道当前的状态(例如它是打开?还是已连接?)
- channel的配置参数(例如接收缓冲区的大小)
- channel支持的IO操作(例如读、写、连接和绑定),以及处理与channel相关联的所有IO事件和请求的ChannelPipeline。
5.5.1 获取channel的状态
以上就是获取channel的四种状态的方法。
5.5.2 获取channel的配置参数
获取单条配置信息,使用getOption(),代码演示:
获取多条配置信息,使用getOptions(),代码演示:
5.5.3 channel支持的IO操作
写操作,这里演示从服务端写消息发送到客户端:
客户端控制台:
连接操作,代码演示:
通过channel获取ChannelPipeline,并做相关的处理:
5.6 Selector
在NioEventLoop中,有一个成员变量selector,这是nio包的Selector,在之前《NIO入门》中,我已经讲过Selector了。
Netty中的Selector也和NIO的Selector是一样的,就是用于监听事件,管理注册到Selector中的channel,实现多路复用器。
5.7 PiPeline与ChannelPipeline
在前面介绍Channel时,我们知道可以在channel中装配ChannelHandler流水线处理器,那一个channel不可能只有一个channelHandler处理器,肯定是有很多的,既然是很多channelHandler在一个流水线工作,肯定是有顺序的。
于是pipeline就出现了,pipeline相当于处理器的容器。初始化channel时,把channelHandler按顺序装在pipeline中,就可以实现按序执行channelHandler了。
在一个Channel中,只有一个ChannelPipeline。该pipeline在Channel被创建的时候创建。ChannelPipeline包含了一个ChannelHander形成的列表,且所有ChannelHandler都会注册到ChannelPipeline中。
5.8 ChannelHandlerContext
在Netty中,Handler处理器是有我们定义的,上面讲过通过集成入站处理器或者出站处理器实现。这时如果我们想在Handler中获取pipeline对象,或者channel对象,怎么获取呢。
于是Netty设计了这个ChannelHandlerContext上下文对象,就可以拿到channel、pipeline等对象,就可以进行读写等操作。
通过类图,ChannelHandlerContext是一个接口,下面有三个实现类。
实际上ChannelHandlerContext在pipeline中是一个链表的形式。看一段源码就明白了:
下面我用一张图来表示,会更加清晰一点:
5.9 EventLoopGroup
我们先看一下EventLoopGroup的类图:
其中包括了常用的实现类NioEventLoopGroup。OioEventLoopGroup在前面的例子中也有使用过。
从Netty的架构图中,可以知道服务器是需要两个线程组进行配合工作的,而这个线程组的接口就是EventLoopGroup。
每个EventLoopGroup里包括一个或多个EventLoop,每个EventLoop中维护一个Selector实例。
5.9.1 轮询机制的实现原理
我们不妨看一段DefaultEventExecutorChooserFactory的源码:
这段代码可以确定执行的方式是轮询机制,接下来debug调试一下:
它这里还有一个判断,如果线程数不是2的N次方,则采用取模算法实现。
能力有限,如果有什么错误或者不当之处,请大家批评指正,一起学习交流!
本文为阿里云原创内容,未经允许不得转载。
本文作者及来源:Renderbus瑞云渲染农场https://www.renderbus.com
文章为作者独立观点不代本网立场,未经允许不得转载。