APP下载

一个牛逼的多级快取实现方案 究竟有多牛逼?

消息来源:baojiabao.com 作者: 发布时间:2024-05-17

报价宝综合消息一个牛逼的多级快取实现方案 究竟有多牛逼?

作者:有赞技术

来源:https://tech.youzan.com/

TMC,即“透明多级快取(Transparent Multilevel Cache)”,是有赞 PaaS 团队给公司内应用提供的整体快取解决方案。

TMC 在通用“分散式快取解决方案(如 CodisProxy + Redis,如有赞自研分散式快取系统 zanKV)”基础上,增加了以下功能:

应用层热点探测应用层本地快取应用层快取命中统计以帮助应用层解决快取使用过程中出现的热点访问问题。

为什么要做 TMC

使用有赞服务的电商商家数量和型别很多,商家会不定期做一些“商品秒杀”、“商品推广”活动,导致“营销活动”、“商品详情”、“交易下单”等链路应用出现 快取热点访问的情况:

活动时间、活动型别、活动商品之类的资讯不可预期,导致 快取热点访问 情况不可提前预知;快取热点访问 出现期间,应用层少数 热点访问 key 产生大量快取访问请求:冲击分散式快取系统,大量占据内网带宽,最终影响应用层系统稳定性;为了应对以上问题,需要一个能够 自动发现热点 并 将热点快取访问请求前置在应用层本地快取的解决方案,这就是 TMC 产生的原因。

多级快取解决方案的痛点

基于上述描述,我们总结了下列 多级快取解决方案 需要解决的需求痛点:

热点探测:如何快速且准确的发现 热点访问 key ?资料一致性:前置在应用层的本地快取,如何保障与分散式快取系统的资料一致性?效果验证:如何让应用层检视本地快取命中率、热点 key 等资料,验证多级快取效果?透明接入:整体解决方案如何减少对应用系统的入侵,做到快速平滑接入?TMC 聚焦上述痛点,设计并实现了整体解决方案。以支援“热点探测”和“本地快取”,减少热点访问时对下游分散式快取服务的冲击,避免影响应用服务的效能及稳定性。

TMC 整体架构

TMC 整体架构如上图,共分为三层:

储存层:提供基础的 kv 资料储存能力,针对不同的业务场景选用不同的储存服务(codis/zankv/aerospike);代理层:为应用层提供统一的快取使用入口及通讯协议,承担分散式资料水平切分后的路由功能转发工作;应用层:提供统一客户端给应用服务使用,内建“热点探测”、“本地快取”等功能,对业务透明;本篇聚焦在应用层客户端的“热点探测”、“本地快取”功能。

TMC 本地快取

如何透明

TMC 是如何减少对业务应用系统的入侵,做到透明接入的? 对于公司 Java 应用服务,在快取客户端使用方式上分为两类:

基于 spring.data.redis包,使用 RedisTemplate编写业务程式码;基于 youzan.framework.redis包,使用 RedisClient编写业务程式码;不论使用以上那种方式,最终通过 JedisPool建立的 Jedis物件与快取服务端代理层做请求互动。

TMC 对原生 jedis 包的 JedisPool和 Jedis类做了改造,在 JedisPool 初始化过程中整合 TMC“热点发现”+“本地快取”功能 Hermes-SDK包的初始化逻辑,使 Jedis客户端与快取服务端代理层互动时先与 Hermes-SDK互动,从而完成 “热点探测”+“本地快取”功能的透明接入。

对于 Java 应用服务,只需使用特定版本的 jedis-jar 包,无需修改程式码,即可接入 TMC 使用“热点发现”+“本地快取”功能,做到了对应用系统的最小入侵。

整体结构

模组划分

TMC 本地快取整体结构分为如下模组:

Jedis-Client:Java 应用与快取服务端互动的直接入口,界面定义与原生 Jedis-Client 无异;Hermes-SDK:自研“热点发现+本地快取”功能的 SDK 封装,Jedis-Client 通过与它互动来整合相应能力;Hermes 服务端丛集:接收 Hermes-SDK 上报的快取访问资料,进行热点探测,将热点 key 推送给 Hermes-SDK 做本地快取;快取丛集:由代理层和储存层组成,为应用客户端提供统一的分散式快取服务入口;基础元件:etcd 丛集、Apollo 配置中心,为 TMC 提供“丛集推送”和“统一配置”能力;基本流程

1)key 值获取

Java 应用呼叫 Jedis-Client 界面获取 key 的快取值时,Jedis-Client 会询问 Hermes-SDK 该 key 当前是否是 热点key;对于 热点key ,直接从 Hermes-SDK 的 热点模组 获取热点 key 在本地快取的 value 值,不去访问 快取丛集 ,从而将访问请求前置在应用层;对于非 热点keyHermes-SDK 会通过 Callable回拨 Jedis-Client 的原生界面,从 快取丛集 拿到 value 值;对于 Jedis-Client 的每次 key 值访问请求,Hermes-SDK 都会通过其 通讯模组 将 key 访问事件 异步上报给 Hermes 服务端丛集 ,以便其根据上报资料进行“热点探测”;2)key 值过期

Java 应用呼叫 Jedis-Client 的 set() del() expire()界面时会导致对应 key 值失效,Jedis-Client 会同步呼叫 Hermes-SDK 的 invalid()方法告知其“key 值失效”事件;对于 热点 keyHermes-SDK 的 热点模组 会先将 key 在本地快取的 value 值失效,以达到本地资料强一致。同时 通讯模组 会异步将“key 值失效”事件通过 etcd 丛集 推送给 Java 应用丛集中其他 Hermes-SDK 节点;其他 Hermes-SDK 节点的 通讯模组 收到 “key 值失效”事件后,会呼叫 热点模组 将 key 在本地快取的 value 值失效,以达到丛集资料最终一致;3)热点发现

Hermes 服务端丛集 不断收集 Hermes-SDK上报的 key 访问事件,对不同业务应用丛集的快取访问资料进行周期性(3s 一次)分析计算,以探测业务应用丛集中的热点 key列表;对于探测到的热点 key列表,Hermes 服务端丛集 将其通过 etcd 丛集 推送给不同业务应用丛集的 Hermes-SDK 通讯模组,通知其对热点 key列表进行本地快取;4)配置读取

Hermes-SDK 在启动及执行过程中,会从 Apollo 配置中心 读取其关心的配置资讯(如:启动关闭配置、黑白名单配置、etcd 地址...);Hermes 服务端丛集 在启动及执行过程中,会从 Apollo 配置中心 读取其关心的配置资讯(如:业务应用列表、热点阈值配置、etcd 地址...);稳定性

TMC 本地快取稳定性表现在以下方面:

资料上报异步化:Hermes-SDK 使用 rsyslog技术对“key 访问事件”进行异步化上报,不会阻塞业务;通讯模组执行绪隔离:Hermes-SDK 的 通讯模组 使用独立执行绪池+有界伫列,保证事件上报&监听的 I/O 操作与业务执行执行绪隔离,即使出现非预期性异常也不会影响基本业务功能;快取管控:Hermes-SDK 的 热点模组 对本地快取大小上限进行了管控,使其占用内存不超过 64MB(LRU),杜绝 JVM 堆内存溢位的可能;一致性

TMC 本地快取一致性表现在以下方面:

Hermes-SDK 的 热点模组 仅快取 热点 key 资料,绝大多数非热点 key资料由 快取丛集 储存;热点 key 变更导致 value 失效时,Hermes-SDK 同步失效本地快取,保证 本地强一致热点 key 变更导致 value 失效时,Hermes-SDK 通过 etcd 丛集 广播事件,异步失效业务应用丛集中其他节点的本地快取,保证 丛集最终一致

热点发现

整体流程

TMC 热点发现流程分为四步:

资料收集:收集 Hermes-SDK 上报的 key 访问事件;热度滑窗:对 App 的每个 Key,维护一个时间轮,记录基于当前时刻滑窗的访问热度;热度汇聚:对 App 的所有 Key,以 的形式进行 热度排序汇总;热点探测:对 App,从 热 Key 排序汇总 结果中选出 TopN 的热点 Key ,推送给 Hermes-SDK资料收集

Hermes-SDK 通过本地 rsyslog将 key 访问事件 以协议格式放入 kafkaHermes 服务端丛集 的每个节点消费 kafka 讯息,实时获取 key 访问事件

访问事件协议格式如下:

appName:丛集节点所属业务应用uniqueKey:业务应用 key 访问事件 的 keysendTime:业务应用 key 访问事件 的发生时间weight:业务应用 key 访问事件 的访问权值Hermes 服务端丛集 节点将收集到的 key 访问事件 储存在本地内存中,内存资料结构为 Map>,对应业务含义对映为 Map>。

热度滑窗

时间滑窗

Hermes 服务端丛集 节点,对每个 App 的每个 key,维护了一个 时间轮

时间轮中共 10 个 时间片,每个时间片记录当前 key 对应 3 秒时间周期的总访问次数;时间轮 10 个时间片的记录累加即表示当前 key 从当前时间向前 30 秒时间视窗内的总访问次数;对映任务

Hermes 服务端丛集 节点,对每个 App 每 3 秒 生成一个 对映任务 ,交由节点内 “快取对映执行绪池” 执行。对映任务 内容如下:

对当前 App,从 Map>中取出 appName 对应的 Map Map>;遍历 Map>中的 key,对每个 key 取出其热度存入其 时间轮 对应的时间片中;热度汇聚

完成第二步“热度滑窗”后,对映任务 继续对当前 App 进行“热度汇聚”工作:

遍历 App 的 key,将每个 key 的 时间轮 热度进行汇总(即 30 秒时间视窗内总热度)得到探测时刻 滑窗总热度;将 以排序集合的方式存入 Redis 储存服务 中,即 热度汇聚结果热点探测

在前几步,每 3 秒 一次的 对映任务 执行,对每个 App 都会产生一份当前时刻的 热度汇聚结果Hermes 服务端丛集 中的“热点探测”节点,对每个 App,只需周期性从其最近一份 热度汇聚结果 中取出达到热度阈值的 TopN 的 key 列表,即可得到本次探测的 热点 key 列表;TMC 热点发现整体流程如下图:

特性总结

实时性

Hermes-SDK 基于rsyslog + kafka 实时上报 key 访问事件对映任务 3 秒一个周期完成“热度滑窗” + “热度汇聚”工作,当有 热点访问场景 出现时最长 3 秒即可探测出对应 热点 key

准确性

key 的热度汇聚结果由“基于时间轮实现的滑动视窗”汇聚得到,相对准确地反应当前及最近正在发生访问分布。

扩充套件性

Hermes 服务端丛集节点无状态,节点数可基于 kafka 的 partition 数量横向扩充套件。

“热度滑窗” + “热度汇聚” 过程基于 App 数量,在单节点内多执行绪扩充套件。

实战效果

快手商家某次商品营销活动

有赞商家通过快手直播平台为某商品搞活动,造成该商品短时间内被集中访问产生访问热点,活动期间 TMC 记录的实际热点访问效果资料如下:

某核心应用的快取请求&命中率曲线图

上图蓝线为应用丛集呼叫get()方法访问快取次数上图绿线为获取快取操作命中TMC本地快取的次数

上图为本地快取命中率曲线图

可以看出活动期间快取请求量及本地快取命中量均有明显增长,本地快取命中率达到近 80%(即应用丛集中 80% 的快取查询请求被 TMC 本地快取拦截)。

热点快取对应用访问的加速效果

上图为应用界面 QPS 曲线

上图为应用界面 RT 曲线

可以看出活动期间应用界面的请求量有明显增长,由于 TMC 本地快取的效果应用界面的 RT 反而出现下降。

双十一期间部分应用 TMC 效果展示

商品域核心应用效果

活动域核心应用效果

功能展望

TMC 目前已为商品中心、物流中心、库存中心、营销活动、使用者中心、闸道器&讯息等多个核心应用模组提供服务,后续应用也在陆续接入中。

TMC 在提供“热点探测” + “本地快取”的核心能力同时,也为应用服务提供了灵活的配置选择,应用服务可以结合实际业务情况在“热点阈值”、“热点 key 探测数量”、“热点黑白名单”维度进行自由配置以达到更好的使用效果。

2019-11-11 19:56:00

相关文章