【RocketMQ入门到精通】— RocketMQ初级特性能力 | RocketMQ中的Subscribe都是什么样子的?
  TEZNKK3IfmPf 2023年11月12日 26 0

任何先进的技术均与魔法无异

追本溯源

​​经历了6个月的失踪,我将带着干货终究归来!【RocketMQ入门到精通】​​

消息消费通常需要考虑消息队列负载、消费模式、拉取机制、消息过滤、消息消费(处理消息)、消费进度反馈、消息消费限流等方面。

基础概念

消息通过生产者发送到某一个Topic,如果需要订阅该Topic并消费里面的消息的话,就要创建对应的消费者进行消费。在介绍消费者的使用方法之前,我们先介绍消费组消费位点推和拉等概念。

消费者/消费组

消息系统的重要作用之一是削峰填谷,但比如在电商大促的场景中,如果下游的消费者消费能力不足的话,大量的瞬时流量进入会后堆积在服务端。此时,消息的端到端延迟(从发送到被消费的时间)就会增加,对服务端而言,一直消费历史数据也会产生冷读。因此需要增加消费能力来解决这个问题,除了去优化消息消费的时间,最简单的方式就是扩容消费者。

但是否随意增加消费者就能提升消费能力? 首先需要了解消费组的概念。在消费者中消费组的有非常重要的作用,如果多个消费者设置了相同的Consumer Group,认为这些消费者在同一个消费组内

消费模式

Apache RocketMQ 有两种消费模式,分别是:集群消费模式和广播消费模式。

集群消费模式

集群消费模式时,RocketMQ认为任意一条消息只需要被消费组内的任意一个消费者处理即可。

集群消费模式适用于每条消息只需要被处理一次的场景,也就是说整个消费组会Topic收到全量的消息,而消费组内的消费分担消费这些消息,因此可以通过扩缩消费者数量,来提升或降低消费能力,具体示例如下图所示,是最常见的消费方式。

【RocketMQ入门到精通】— RocketMQ初级特性能力 | RocketMQ中的Subscribe都是什么样子的?

广播消费模式

广播消费模式时,RocketMQ 会将每条消息推送给消费组所有的消费者,保证消息至少被每个消费者消费一次。

广播消费模式适用于每条消息需要被消费组的每个消费者处理的场景,也就是说消费组内的每个消费者都会收到订阅Topic的全量消息,因此即使扩缩消费者数量也无法提升或降低消费能力,具体示例如下图所示。

【RocketMQ入门到精通】— RocketMQ初级特性能力 | RocketMQ中的Subscribe都是什么样子的?

负载均衡

消息队列负载:集群内(同一Consumer Group)内的消费者共同承担主题下所有消息的消费,即一条消息只能被集群中一个消费者消费。RocketMQ的队列负载原则是一个消费者可以承担同一主题下的多个消息消费队列但同一个消息消费队列同一时间只允许被分配给一个消费者。 

集群模式下,同一个消费组内的消费者会分担收到的全量消息,这里的分配策略是怎样的?如果扩容消费者是否一定能提升消费能力?

负载均衡策略

Apache RocketMQ 提供了多种集群模式下的分配策略,包括平均分配策略、机房优先分配策略、一致性hash分配策略等,可以通过如下代码进行设置相应负载均衡策略。

consumer.setAllocateMessageQueueStrategy(new AllocateMessageQueueAveragely());

默认的分配策略是平均分配,这也是最常见的策略。平均分配策略下消费组内的消费者会按照类似分页的策略均摊消费。

在平均分配的算法下,可以通过增加消费者的数量来提高消费的并行度。比如下图中,通过增加消费者来提高消费能力。

扩展添加消费者节点-1

【RocketMQ入门到精通】— RocketMQ初级特性能力 | RocketMQ中的Subscribe都是什么样子的?

扩展添加消费者节点-2

【RocketMQ入门到精通】— RocketMQ初级特性能力 | RocketMQ中的Subscribe都是什么样子的?

【RocketMQ入门到精通】— RocketMQ初级特性能力 | RocketMQ中的Subscribe都是什么样子的?

但也不是一味地增加消费者就能提升消费能力的,比如下图中Topic的总队列数小于消费者的数量时,消费者将分配不到队列,即使消费者再多也无法提升消费能力。

【RocketMQ入门到精通】— RocketMQ初级特性能力 | RocketMQ中的Subscribe都是什么样子的?

消费位点

在Apache RocketMQ中每个队列都会记录自己的最小位点、最大位点。针对于消费组,还有消费位点的概念。

  • 在集群模式下,消费位点是由客户端提给交服务端保存的;
  • 在广播模式下,消费位点是由客户端自己保存的

一般情况下消费位点正常更新,不会出现消息重复,但如果消费者发生崩溃或有新的消费者加入群组,就会触发重平衡,重平衡完成后,每个消费者可能会分配到新的队列,而不是之前处理的队列。为了能继续之前的工作,消费者需要读取每个队列最后一次的提交的消费位点,然后从消费位点处继续拉取消息。但在实际执行过程中,由于客户端提交给服务端的消费位点并不是实时的,所以重平衡就可能会导致消息少量重复。

【RocketMQ入门到精通】— RocketMQ初级特性能力 | RocketMQ中的Subscribe都是什么样子的?

消息拉取模式

RocketMQ的消费模式可以大致分为两种,一种是推Push(推送),一种是拉Pull(拉取)。其中消息Push(推送)模式并不是真正意义的推送,其本质为拉模式。 

  • Push是服务端主动推送消息给客户端,优点是及时性较好,但如果客户端没有做好流控,一旦服务端推送大量消息到客户端时,就会导致客户端消息堆积甚至崩溃。
  • Pull是客户端需要主动到服务端取数据,优点是客户端可以依据自己的消费能力进行消费,但拉取的频率也需要用户自己控制,拉取频繁容易造成服务端和客户端的压力,拉取间隔长又容易造成消费不及时。

消息消费端的限流

RocketMQ消息消费端的限流主要包含两个维度:

消息堆积数量

      如果消息消费处理队列中的消息条数超过1000条会触发消费端的流控,其具体做法是放弃本次拉取动作,并且延迟50ms后将放入该拉取任务放入到pullRequestQueue中,每1000次流控会打印一次消费端流控日志。

消息堆积大小

如果处理队列中堆积的消息总内存大小超过100M,同样触发一次流控。

并发消息拉取与消费处理流程

【RocketMQ入门到精通】— RocketMQ初级特性能力 | RocketMQ中的Subscribe都是什么样子的?

 并发消息拉取与消费的要点

  1. PullMessageService线程与RebalanceService线程的交互处理整个RocketMQ的运作流程处理机制
  2. 每个消费组公用一个线程池,用来异步处理消息。  
  3. 消费进度反馈

消费进度反馈

【RocketMQ入门到精通】— RocketMQ初级特性能力 | RocketMQ中的Subscribe都是什么样子的?

  1. consumer服务端通过pullMessageService会从broker服务器拉取消息(ConsumerQueue),默认拉取32条数据。
  2. 并且将消费进度信息存储到本地的消费队列中ConsumerQueue。
  3. 将消息信息提交到消费者线程池中,并且进行继续向Broker进行消费服务。
  4. 并且反馈消费进度和状态值到broker集群中。

分析一下RocketMQ的消费机制流程

PullMessageService
  1. PullMessageService的服务的线程进行启动机制处理
  2. 之后进行相关的从阻塞队列进行拉取任务和相关的数据信息
  1. 如果内部的阻塞队列里面没有数据,则会继续等待阻塞因为是阻塞队列
  2. 如果有元素的话,判断对应的数据是否被过滤或者丢弃掉,是则直接丢弃本次拉取的任务,再次进行拉取任务数据对象。如果不是则需要进行从broker中进行拉取操作。
  1. 将进行将该runnable的task任务提交到对应的pull线程池中,然后立刻返回。
  2. 最后又消费者对应的消费线程进行异步消费数据队列中的数据信息。
RebalanceService
  1. RebalanceService的服务的线程进行启动机制处理
  2. 每20s进行轮询执行一次队列重新负载机制的控制处理
  3. 获取每一个主题下的队列,然后在进行重新规划分配(按照负载均衡算法进行规划)
  4. 当出现动态化平衡数据的时候,需要进行PullRequest对象存入到DelayedQueue中
  5. 如果出现清理的队列数据,则直接进行删除清理对应的元素。

思考:由于是并发消费,例thread-1线程在消费msg1,thread-2在消费消息msg2,thread3消费消息msg3,此时如何thred3先消费完msg3,但thread1,thread2还未处理完msg1、msg2,那thread-1是向Broker反馈msg3的偏移量? 

【版权声明】本文内容来自摩杜云社区用户原创、第三方投稿、转载,内容版权归原作者所有。本网站的目的在于传递更多信息,不拥有版权,亦不承担相应法律责任。如果您发现本社区中有涉嫌抄袭的内容,欢迎发送邮件进行举报,并提供相关证据,一经查实,本社区将立刻删除涉嫌侵权内容,举报邮箱: cloudbbs@moduyun.com

  1. 分享:
最后一次编辑于 2023年11月12日 0

暂无评论

推荐阅读
  TEZNKK3IfmPf   2024年04月26日   32   0   0 javaRocketMQspringcloud
  TEZNKK3IfmPf   2024年03月29日   78   0   0 客户端端口Socket
TEZNKK3IfmPf