开源地址 : https://github.com/byteblogs168/x-retry
X-RETRY 基于服务治理的思想我们开发了重试治理的功能,支持动态配置,接入方式基本无需入侵业务代码,并使用多种策略结合的方式在链路层面控制重试放大效应,兼顾易用性、灵活性、安全性的分布式异常重试服务平台
https://www.byteblogs.com/chat
使用过程中有任何问题,或者对项目有什么想法或者建议,可以加入社群,跟群友一起交流讨论
<dependency>
<groupId>com.x.retry</groupId>
<artifactId>x-retry-client-starter</artifactId>
<version>0.0.4.0</version>
</dependency>
添加注解开启 X-RETRY 功能
@SpringBootApplication
@EnableXRetry(group = "example_group")
public class ExampleApplication {
public static void main(String[] args) {
SpringApplication.run(ExampleApplication.class, args);
}
}
为需要重试的方法添加重试注解
@Retryable(scene = "errorMethodForLocalAndRemote", localTimes = 3, retryStrategy = RetryType.LOCAL_REMOTE)
public String errorMethodForLocalAndRemote(String name) {
double i = 1 / 0;
return "这是一个简单的异常方法";
}
属性 | 类型 | 必须指定 | 默认值 | 描述 |
---|---|---|---|---|
scene | String | 是 | 无 | 场景 |
include | Throwable | 否 | 无 | 包含的异常 |
exclude | Throwable | 否 | 无 | 排除的异常 |
retryStrategy | RetryType | 是 | LOCAL_REMOTE | 重试策略 |
retryMethod | RetryMethod | 是 | RetryAnnotationMethod | 重试处理入口 |
bizId | BizIdGenerate | 是 | SimpleBizIdGenerate | 自定义业务 id ,默认为 hash(param),传入成员列表,全部拼接取 hash |
bizNo | String | 否 | 无 | bizNo spel 表达式 |
localTimes | int | 是 | 3 | 本地重试次数 次数必须大于等于 1 |
localInterval | int | 是 | 2 | 本地重试间隔时间(s) |
数据库脚本位置
doc/sql/x_retry.sql
spring:
datasource:
name: x_retry
url: jdbc:mysql://localhost:3306/x_retry?useSSL=false&characterEncoding=utf8&useUnicode=true
username: root
password: root
type: com.zaxxer.hikari.HikariDataSource
driver-class-name: com.mysql.jdbc.Driver
hikari:
connection-timeout: 30000
minimum-idle: 5
maximum-pool-size: 20
auto-commit: true
idle-timeout: 30000
pool-name: x_retry
max-lifetime: 1800000
connection-test-query: SELECT 1
resources:
static-locations: classpath:admin/
mybatis-plus:
mapper-locations: classpath:/mapper/*.xml
typeAliasesPackage: com.x.retry.server.persistence.mybatis.po
global-config:
db-config:
field-strategy: NOT_EMPTY
capital-mode: false
logic-delete-value: 1
logic-not-delete-value: 0
configuration:
map-underscore-to-camel-case: true
cache-enabled: true
x-retry:
lastDays: 30 # 拉取重试数据的天数
retryPullPageSize: 100 # 拉取重试数据的每批次的大小
nettyPort: 1788 # 服务端 netty 端口
totalPartition: 32 # 重试和死信表的分区总数
##项目部署
下载源码
https://github.com/byteblogs168/x-retry.git
maven 打包镜像
maven clean install
/x-retry-server/src/main/resources/application.yml
java -jar x-retry-server.jar
下载镜像 地址: https://github.com/byteblogs168/x-retry/pkgs/container/x-retry-server
docker pull ghcr.io/byteblogs168/x-retry-server:{最新版本}
创建容器并运行
/**
* 如需自定义 mysql 等配置,可通过 "-e PARAMS" 指定,参数格式 PARAMS="--key1=value1 --key2=value2" ;
* 配置项参考文件:/x-retry-server/src/main/resources/application.yml
* 如需自定义 JVM 内存参数 等配置,可通过 "-e JAVA_OPTS" 指定,参数格式 JAVA_OPTS="-Xmx512m" ;
*/
docker run \
-e PARAMS="--spring.datasource.username=root --spring.datasource.password=123456 --spring.datasource.url=jdbc:mysql://ip:3306/x_retry?useUnicode=true&characterEncoding=UTF-8&autoReconnect=true&serverTimezone=Asia/Shanghai " \
-p 8080:8080 \
-p 1788:1788 \
--name x-retry-server-1 \
-d registry.cn-shanghai.aliyuncs.com/byteblogs/x-retry:{最新版本}
如果你已经正确按照系统了,那么你可以输入
http://localhost:8080
会出现登陆页面:
输入用户名: admin, 密码: 123456
仪表盘直观展示系统的任务量、调度量、在线节点展示等
统计当前系统总的任务量
已经调度成功的异常数据
处于调度中的异常数据
调度次数超过配置的最大执行次数的异常数据
展示系统触发调度的总数量
包括调度客户端执行失败、调度超时等异常执行的数据
调用客户端执行重试成功的数据
实时展示当前活跃的客户端与服务端
通过新建
按钮配置点开配置组、场景、通知界面
每个系统对应一个组,服务端通过一致性 hash 环来分配当前已启用的 Group 在集群中哪节点上消费
场景负责管理收集重试现场的数据,比如 方法名、参数、类等信息; 对照代码 中可以理解为需要重试的方法; 每个业务服务对应 N 个场景值,即系统配置的最小单位。
及时告知系统管理人员,系统运行状态,如出现大量重试的数据、或者大量重试失败的数据
通知类型: 钉钉通知、邮箱通知、企业微信通知
通知场景:
通知阈值: 到达阈值发送通知
通知地址: 发送通知的地址
描述: 对通知进行描述
操作: 新增-添加场景配置、删除-未提交则删除临时通知配置,已提交则删除数据库中的通知配置
查询当前处理重试中的数据,存在三种状态
支持的搜索条件:
支持的搜索条件:
支持的搜索条件:
死信队列数据迁移至重试任务重,并删除死信队列数据
搜索系统用户信息 支持的搜索条件:
为系统新增用户
用户名: 用户名是数字、字母、下划线组合,最长 64 个字符长度
密码: 密码是数字、字母、下划线组合,最长 64 个字符长度
角色:
权限: 需要管理的组
客户端核心能力
负责发现异常,标记事故现场
根据不同阶段进行本地重试和远程重试
失败上报和执行服务端下发的重试指令
避免服务间调用产生重试放大风险
重试流量管控
服务端核心能力
单机重试管控
单机多注解嵌套方法,通过标记重试现场入口,发生异常重试只重试现场入口,防止每个方法都重试, 从而避免了重试风暴
链路重试管控
重试流速管控
通过路由策略和限流措施对每个组的集群进行流量控制
DelayLevelEnum
启动模块
重试阶段
重试模式
RetryType.ONLY_LOCAL
或者RetryType.LOCAL_REMOTE
, 则会触发本地内存重试RetryType.ONLY_REMOTE
或者RetryType.LOCAL_REMOTE
, 则会触发上报服务端重试执行器
重试组件: 对 guava retry 的深度封装
重试执行器
RetryMethod
接口, 即可实现自定义重试, 发生重试时直接重试自定义方法执行器重试流量管控
标记重试入口,触发重试时只从标记的重试入口进入
- 标记重试流量
> 对于重试的请求,我们在请求头中下发一个特殊的标识(xRetry:boolean), 在 Service A ->Service B ->Service C 的调用链路中,当 Service B 收到 Service A 的请求时会先读取这个 xRetry 判断这个请求是不是重试请求, 如果是,那它调用 Service C 即使失败也不会重试;否则将触发重试 。 同时 Service B 也会把这个 xRetry 下传,它发出的请求也会有这个标志,它的下游也不会再对这个请求重试
DDL 是“ Deadline Request 调用链超时”的简称,我们知道 TCP/IP 协议中的 TTL 用于判断数据包在网络中的时间是否太长而应被丢弃,DDL 与之类似, 它是一种全链路式的调用超时,可以用来判断当前的 RPC 请求是否还需要继续下去。如下图,在 RPC 请求调用链中会带上超时时间, 并且每经过一层就减去该层处理的时间,如果剩下的时间已经小于等于 0 ,则可以不需要再请求下游,直接返回失败即可。
- 特殊的 status code 限制链路重试
如果每层都配置重试可能导致调用量指数级扩大,这样对底层服务来说压力是非常之大的, 通过对流量的标记 ,用户可以判断是否是重试的流量来判断是否继续处理,我们使用 Google SRE 中提出的内部使用特殊错误码的方式来实现:
```
1 统一约定一个特殊的 status code ,它表示:调用失败,但别重试。
2 任何一级重试失败后,生成该 status code 并返回给上层。
3 上层收到该 status code 后停止对这个下游的重试,并将错误码再传给自己的上层。
```
这种方式理想情况下只有最下一层发生重试,它的上游收到错误码后都不会重试,但是这种策略依赖于业务方传递错误码, 对业务代码有一定入侵,而且通常业务方的代码差异很大, 调用 RPC 的方式和场景也各不相同,需要业务方配合进行大量改造, 很可能因为漏改等原因导致没有把从下游拿到的错误码传递给上游。
master thread
重试分发组件
ScanGroupActor
ExecUnitActor
结果处理
算法
客户端轮询算法
服务端 Rebalance 算法
1
XRR 2022-07-08 17:42:52 +08:00
mark 一下 这周看看
|
2
wolfie 2022-07-08 17:54:01 +08:00
写过基于 http 的 日志 + 重试。(生产环境正常运行)
想过加反射支持,考虑 代码迭代(方法改变)、ThreadLocal 等上下文问题就放弃了。 |
6
leipengcheng 2022-07-09 09:24:38 +08:00
|
7
zsg1994 OP @leipengcheng 说明大家对重试都是有需求的
|