阿里一面,说说你知道消息中间件的应用场景有哪些?


1、前言

又到了金三银四的时候,大家都按耐不住内心的躁动,我在这里给大家分享下之前面试中遇到的一个知识点(MQ的应用场景),如有不足,欢迎大佬们指点指点。

消息中间件应用背景

提高系统性能首先考虑的是数据库的优化,但是数据库因为历史原因,横向扩展是一件非常复杂的工程,所有我们一般会尽量把流量都挡在数据库之前。不管是无限的横向扩展服务器,还是纵向阻隔到达数据库的流量,都是这个思路。阻隔直达数据库的流量,缓存组件和消息组件是两大杀器。

2、MQ简介

MQ:Message queue,消息队列,就是指保存消息的一个容器。

现在常用的MQ组件有activeMQ、rabbitMQ、rocketMQ,当然近年来火热的kafka,从某些场景来说,也是MQ,不过kafka的功能更加强大,虽然不同的MQ都有自己的特点和优势,但是,不管是哪种MQ,都有MQ本身自带的一些特点。

常用消息队列比较

特性 ActiveMQ RabbitMQ RocketMQ Kafka
生产者消费者模式 支持 支持 支持 支持
发布订阅模式 支持 支持 支持 支持
请求回应模式 支持 支持 不支持 不支持
Api完备性
多语言支持 支持 支持 java 支持
单机吞吐量 万级 万级 万级 十万级
消息延迟 微秒级 毫秒级 毫秒级
可用性 高(主从) 高(主从) 非常高(分布式) 非常高(分布式)
消息丢失 理论上不会丢失 理论上不会丢失
文档的完备性 教高
提供快速入门
社区活跃度
商业支持 商业云 商业云

3、MQ特点

先进先出

先进先出,是队列最明显的特点。消息队列的顺序在入队的时候就基本已经确定了,一般是不需人工干预的。而且,最重要的是,数据是只有一条数据在使用中。 这也是MQ在诸多场景被使用的原因。

发布订阅

发布订阅是一种很高效的处理方式,如果不发生阻塞,基本可以当做是同步操作。这种处理方式能非常有效的提升服务器利用率,这样的应用场景非常广泛。

持久化

持久化确保MQ的使用不只是一个部分场景的辅助工具,而是让MQ能像数据库一样存储核心的数据,保证MQ的可靠性。

分布式

在现在大流量、大数据的使用场景下,只支持单体应用的服务器软件基本是无法使用的,支持分布式的部署,才能被广泛使用。而且,MQ的定位就是一个高性能的中间件。

4、应用场景

消息队列中间件是分布式系统中重要的组件,主要解决应用解耦,异步消息,流量削锋、海量日志数据同步、分布式事务等问题,实现高性能,高可用,可伸缩和最终一致性架构。

4.1 应用解耦

场景说明:用户下单后,订单系统需要通知库存系统。传统的做法是,订单系统调用库存系统的接口。

image-20220301193157985

传统模式的缺点:假如库存系统无法访问,则订单减库存将失败,从而导致订单失败,订单系统与库存系统耦合度高,容易出现雪崩事故。

引入应用消息队列后的方案

image-20220301193421703

订单系统:用户下单后,订单系统完成持久化处理,将消息写入消息队列,返回用户订单下单成功。
库存系统:订阅下单的消息,采用pull/push的方式,获取下单信息,库存系统根据下单信息,进行库存操作。
解决问题关键步骤:在下单时库存系统不能正常使用,也不影响正常下单,因为下单后,订单系统写入消息队列就不再关心其他的后续操作了,只要达成最终一致性即可。实现订单系统与库存系统的应用解耦。

4.2 异步消息

场景说明:用户注册后,需要发注册邮件和注册短信。传统的做法有两种:串行的方式、并行方式。

  1. 串行方式:将注册信息写入数据库成功后,发送注册邮件,再发送注册短信。以上三个任务全部完成后,返回给客户端。

    image-20220301193824700
  2. 并行方式:将注册信息写入数据库成功后,发送注册邮件的同时,发送注册短信。以上三个任务完成后,返回给客户端。与串行的差别是,并行的方式可以提高处理的时间。

    image-20220301193912473

    问题分析

    假设三个业务节点每个使用50毫秒钟,不考虑网络等其他开销,则串行方式的时间是150毫秒,并行的时间可能是100毫秒。
    因为CPU在单位时间内处理的请求数是一定的,假设CPU1秒内吞吐量是100次。则串行方式1秒内CPU可处理的请求量是7次(1000/150)。并行方式处理的请求量是10次(1000/100)
    如以上案例描述,传统的方式系统的性能(并发量,吞吐量,响应时间)会有瓶颈。

    将发送注册邮件和注册短信的步骤通过消息队列解耦

    image-20220301194204361

    由以上架构可知,用户的响应时间相当于是注册信息写入数据库的时间,也就是50毫秒。注册邮件,发送短信写入消息队列后,直接返回,因此写入消息队列的速度很快,基本可以忽略,因此用户的响应时间可能是50毫秒。因此架构改变后,系统的吞吐量提高到每秒20 QPS。比串行提高了3倍,比并行提高了两倍。

4.3 流量削锋

流量削锋也是消息队列中的常用场景,一般在秒杀或团抢活动中使用广泛。

场景说明:秒杀活动,一般会因为流量过大,导致流量暴增,应用或者数据库挂掉。为解决这个问题,一般需要在应用前端加入消息队列。

架构如下

image-20220301194437969

加入消息队列的好处

  1. 可以控制活动的人数
  2. 可以缓解短时间内高流量压垮应用

用户的请求,服务器接收后,首先写入消息队列。假如消息队列长度超过最大数量,则直接抛弃用户请求或跳转到错误页面。
秒杀业务根据消息队列中的请求信息,再做后续处理。

4.4 海量日志数据同步

场景说明:在微服务体系下,项目往往是集群部署,那么就需要一个统一日志平台来查询各个实例的日志,但集群中的日志信息往往都是海量数据,单一的日志采集工具不能满足业务的需要,因此需要将消息队列用在日志处理中,比如Kafka的应用,解决大量日志传输的问题。

架构简化如下

image-20220301195357808

架构说明

  1. 日志采集客户端,负责日志数据采集,定时写受写入Kafka队列
  2. Kafka消息队列,负责日志数据的接收,存储和转发
  3. 日志处理应用:订阅并消费kafka队列中的日志数据

4.5 分布式事物

分布式事务又分为强一致,弱一致,和最终一致性

  1. 强一致

    当更新操作完成之后,任何多个后续进程或者线程的访问都会返回最新的更新过的值。这种是对用户最友好的,就是用户上一次写什么,下一次就保证能读到什么。根据 CAP 理论,这种实现需要牺牲可用性。

  2. 弱一致

    系统并不保证续进程或者线程的访问都会返回最新的更新过的值。系统在数据写入成功之后,不承诺立即可以读到最新写入的值,也不会具体的承诺多久之后可以读到。

  3. 最终一致

    弱一致性的特定形式。系统保证在没有后续更新的前提下,系统最终返回上一次更新操作的值。在没有故障发生的前提下,不一致窗口的时间主要受通信延迟,系统负载和复制副本的个数影响。DNS 是一个典型的最终一致性系统。

在分布式系统中,同时满足“CAP定律”中的一致性、可用性和分区容错性三者是几乎不可能的。在互联网领域的绝大多数的场景,都需要牺牲强一致性来换取系统的高可用性,系统往往只需要保证“最终一致性”,只要这个最终时间是在用户可以接受的范围内即可,这时候我们只需要用短暂的数据不一致就可以达到我们想要效果。

场景说明:比如有订单,库存两个数据,一个下单过程简化为,加一个订单,减一个库存。 而订单和库存是独立的服务,那怎么保证数据一致性。

远程调用最郁闷的地方就是,结果有3种,成功、失败和超时。 超时的话,成功失败都有可能。一般的解决方案,大多数的做法是借助mq来做最终一致。

实现最终一致

最终一致性

通过上面的架构可能会想到这些问题

本地先执行事务,执行成功了就发个消息过去,消费端拿到消息执行自己的事务。
比如a,b两个服务,服务a异步调用服务b,如果服务b失败了,或者成功,或者超时,那么怎么用mq让他们最终一致呢?

参照于本地事务的概念可将该场景分为三种情况解决

  1. 第一种情况:假设a,b都正常执行,那整个业务正常结束;
  2. 第二种情况:假设b超时,那么需要MQ给b重发消息(b服务要做幂等),如果出现重发失败的话,需要看情况,是中断服务,还是继续重发,甚至人为干预;
  3. 第三种情况:假设a,b之中的一个失败了,失败的服务利用MQ给其他的服务发送消息,其他的服务接收消息,查询本地事务记录日志,如果本地也失败,删除收到的消息(表示消息消费成功),如果本地成功的话,则需要调用补偿接口进行补偿(需要每个服务都提供业务补偿接口)。

需要特别注意

MQ这里有个坑,通常只适用于只允许第一个操作失败的场景,也就是第一个成功之后必须保证后面的操作在业务上没障碍,不然后面失败了前面不好回滚,只允许系统异常的失败,不允许业务上的失败,通常业务上失败一次后面基本上也不太可能成功了,要是因为网络或宕机引起的失败可以通过重试解决,如果业务异常,那就只能发消息给服务a让他们做补偿了吧?通常是通过第三方进行补偿,各个服务需要提供补偿接口,设计范式里通常不允许消费下游业务失败。

5、总结

MQ在分布式系统开发的场景下使用的越来越多,处理的业务能力也越来越强,所以掌握MQ的使用场景是很要必要的。通过掌握MQ,即可解决大多数业务场景,也可在面试中加分,提高自己的核心竞争力。

最后,外出打工不易,希望各位兄弟找到自己心仪的工作,虎年发发发

也希望兄弟们能关注、点赞、收藏、评论支持一波,非常感谢大家!

相关