admin管理员组文章数量:1559055
大规模分布式系统的快速发展使得消息中间件已经成为系统间通信的核心手段。本文将对腾讯teg基础架构部中间件团队研发的企业级消息中间件cmq原理进行分享介绍。
背景介绍
可以使用消息队列的场景有很多,常见的有以下几种:
1.服务解耦:同步变异步,数据最终一致性;
2.削峰限流:类似“三峡大坝”,下游服务方被超过服务能力请求压垮;
3.广播订阅:发送方不关心谁订阅这个消息,只管发出来,拓展方便;
4.流式数据过滤:消费者通过类似sql语句来筛选自己感兴趣的数据;
5.两阶段消息:通过两阶段消息与本地数据库事务相结合达到简单分布式事务。
中间件团队消息队列发展历程:
cmq/ckafka/mq for iot本质上都属于分布式消息中间件,分布式消息系统的最大特点是可扩展性。核心理念是多个节点协同工作完成单个节点无法完成的任务,不允许出现单节点故障服务不可用(rto)和数据丢失(rpo)情况。归根结底是解决cap问题, cmq作为金融级别服务要求数据高可靠强一致(cp), ckafka以大数据领域为主要服务对象,更偏重于ap,同时允许用户通过配置在cap之间进行权衡,本文重点对cmq进行介绍
核心原理介绍
整体架构介绍
架构图
cmq属于典型的三层架构,支持业界主流协议,业务可以选择http/amqp/mqtt等多种协议,适配层主要负责协议适配和路由控制,同时支撑系统水平弹性伸缩,后端broker set 提供消息持久化存储、转发以及基于消息的高阶功能,例如延时消息、事务消息、死信消息等;控制server和管控平台负责对整个系统进行智能调度、故障处理、运营监控。
弹性伸缩:
分布式消息队列性能和消息堆积存储量理论上无上限,cmq的路由控制server 会根据存储set的实际负载调整消息收发路由信息并同时适配层,适配层根据收到的路由指令调整数据最终流向后端那个set,整个过程对使用者是透明的。
数据高可靠强一致:
cmq 利用数据多副本存储来保证可靠性,通过raft算法来保证副本间的数据强一致,数据生产过程大致如下:
以一个存储set中3个节点为例,其中只有一个master节点可以对外接收生产数据,另外两个节点作为slave存在,同时slave 会将收到的请求重定向到master,详细过程如下:
1.master 负责消息的生产消费请求,收到请求后先通过raft一致性模块写raft log到本地并同步给所有slave节点;
2.slave 收到master发来的raft log持久化到本地同时返回master 成功信息;
3.master 收到set中过半节点的成功信息后将请求信息提交到mq 状态机;
4.mq 状态机处理请求信息后返回用户成功;
可以看到对于生产数据cmq会通过raft算法确保set中超过半数的节点已经完成存储持久化后才返回给用户发送成功,同时raft 算法的选举原理保证数据对用户可见的强一致性,具体raft算法不在此展开。
通过上述过程我们可以发现两个问题:
1.上述整个流程是串行的,raft组内顺序执行上述流程,不能充分发挥节点性能;
2.相对master节点,slave做的事情更少,节点平时存在严重浪费;
为了提升qps和机器利用率cmq通过multi-raft将set中的3个节点充分利用起来,多组raft之前相互独立,master 尽量打散分布在不同节点上。
在研发cmq过程中,我们将其中使用到的raft 算法进行抽象,沉淀成可独立使用的raft算法库,目前已经在部门内部多个产品中使用,逐步完善后会进一步对外开源。
上面从设计与开发角度介绍了cmq一致性原理,但是如何验证开发出来的cmq是符合线性一致性的呢?为此我们参考业界知名的分布式系统完备性工具jepsen设计开发了自己的验证系统,原理如下:
1.部署要测试的集群;
2.controlnode执行测试程序
- 启动集群
- 生产执行序列
- 5个client线程并发运行执行序列,同时通过nemesis线程进行错误及异常注入测试,6个线程将执行过程log 记录到history。
3. module是根据系统行为提前定义好的正确性验证模型,checker结合module分析history输出测试报告。
高性能优化:
raft 算法中存在以下两个比较耗时的操作:
1.master每收到一个请求都向所有slave各发起一次网络io, slave处理成功后回复master成功。
2.master 和slave 还需要对收到的请求同步刷盘
对上述两个步骤进行分解:
3.fsync_raft_log时间取决于磁盘性能,raft_log网络传输时间取决于网络rtt。由此可见这两个值是硬件相关的,因此我们在消息个数、时间两个维度来尽可能合并消息,做到批量发送raft_log 和批量刷盘来提高qps。
可用性保证:
cmq具备节点、set、园区三级高可用保障机制,业务可根据实际需求来按需选择。
节点可用性:
如果set中的单个slave 发生故障,由于此时set满足大多数节点可用,得益于raft算法使得故障对业务是完全透明的;如果是master 发生故障,此时raft 算法会自动发起选举,符合条件的slave 自动提升为master, 整个过程是秒级别的,由于存在重试逻辑,所以绝大部分情况下对业务影响也是透明的。
set 级别可用性:
很不幸,假设一个set中的3个节点中的两个节点同时发生了故障,此时按照raft算法要求的大多数节点都同意才能提交请求到mq状态机的原则,当前set 是不可用的。此时cmq通过双set来保障可用性,大致原理如下:
业务在申请使用消息队列时cmq会在两个set上分别建立队列元数据,正常情况下只有一个set 对外服务,另外一个set standby;当一个set 不可用时间超过一定时间,消息流会自动切换到之前standby的set上。为了提高set使用率,standby 队列并没有独占set,而是分布在不同的set 之上。对于存留在故障set上的还未来得及消费的数据需要故障恢复后才能正常消费。
数据中心级别可用性:
金融业务在应用层都有多中心多活的要求,防止数据中心故障后导致整个服务不可用。cmq通过插件的方式对两个数据中心的消息服务进行异步同步。当一个数据中心故障时任然存在少量未来的及同步的数据丢失的情况,此时需要通过log 或者对账来恢复数据。
消息log trace
消息中间件日常运营中最常见的一个问题是如何证明系统没有丢消息?为此cmq提供了一套消息trace 系统。agent 将每条消息的id、生产者、消费者信息都上报到log 存储系统,业务对于有疑问的消息可以在控制台上直接查询,就能看到消息的整个流转消费情况。
开源竞品对比
业界高可靠消息中间件主要以rabbitmq为主,下面对cmq和rabbitmq进行分析对比。
rabbitmq 集群镜像模式节点间采用自研的可靠多播(guaranteed multicast)算法来同步数据,gm可靠多播将集群中所有节点组成一个环。log 复制依次从 master 向后继节点传播,当 master 再次收到该请求时,发出确认消息在环中传播,直至 master再次收到该确认消息,表明log 在环中所有节点同步完成。
gm算法要求log在集群所有节点同步之后才能向客户端返回成功;raft算法则只要求大多数节点同步完成。raft算法在同步路径上比gm算法减少了近一半的等待时间。
相同条件下对cmq 和rabbitmq 进行性能测试,测试场景如下:三台同样配置的机器组成一个集群,cmq、rabbitmq 均配置为镜像队列,数据均在三台机器上同步。 cmq 和 rabbitmq 都开启生产、消费消息确认机制。测试中的生产消息大小为1kb。
测试数据如下:
在高可靠场景中,cmq 吞吐量优于 rabbitmq的四倍以上。
总结
本文主要腾讯基础架构部消息中间件发展历程进行简要介绍,重点对金融级消息中间件cmq核心原理进行分享,除此之外,中间件团队针对大数据领域常用的kafka进行优化改进推出了ckafka,在相同条件下小于4kb的情况下生产性能是开源社区的两倍以上;针对物联网研发的iot hub中的mq引擎,完全兼容mqtt3.1协议,配合iot gate way 可以轻松支持上亿并发连接,欢迎大家体验使用,也期待更多技术达人加入中间件团队。
j9九游会老哥俱乐部交流区的版权声明:本文标题:腾讯企业级消息中间件cmq技术解密 内容由热心网友自发贡献,该文观点仅代表作者本人, 转载请联系作者并注明出处:https://www.elefans.com/dianzi/1727422363a1113725.html, 本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,一经查实,本站将立刻删除。