Appearance
服务保护和分布式事务
1、微服务保护
保证服务运行的健壮性,避免级联失败导致的雪崩问题,就属于微服务保护。这章我们就一起来学习一下微服务保护的常见方案以及对应的技术。
1.1、微服务保护方案
微服务保护的方案有很多,比如:
- 请求限流
- 线程隔离
- 服务熔断
这些方案或多或少都会导致服务的体验上略有下降,比如请求限流,降低了并发上限;线程隔离,降低了可用资源数量;服务熔断,降低了服务的完整度,部分服务变的不可用或弱可用。因此这些方案都属于服务降级的方案。但通过这些方案,服务的健壮性得到了提升,
接下来,我们就逐一了解这些方案的原理。
1.1.1、请求限流
服务故障最重要原因,就是并发太高!解决了这个问题,就能避免大部分故障。当然,接口的并发不是一直很高,而是突发的。因此请求限流,就是限制或控制接口访问的并发流量,避免服务因流量激增而出现故障。
请求限流往往会有一个限流器,数量高低起伏的并发请求曲线,经过限流器就变的非常平稳。这就像是水电站的大坝,起到蓄水的作用,可以通过开关控制水流出的大小,让下游水流始终维持在一个平稳的量。
1.1.2、线程隔离
当一个业务接口响应时间长,而且并发高时,就可能耗尽服务器的线程资源,导致服务内的其它接口收到影响。所以我们必须把这种影响降低,或者缩减影响的范围。线程隔离正是解决这个问题的好办法。
线程隔离的思想来自轮船的舱壁模式:
为了避免某个接口故障或压力过大导致整个服务不可用,我们可以限定每个接口可以使用的资源范围,也就是将其"隔离"起来。
1.1.3、服务熔断
线程隔离虽然避免了雪崩问题,但故障服务依然会拖慢购物车服务的接口响应速度。而且商品查询的故障依然会导致查询购物车功能出现故障,购物车业务也变的不可用了。
所以,我们要做两件事情:
- 编写服务降级逻辑:就是服务调用失败后的处理逻辑,根据业务场景,可以抛出异常,也可以返回友好提示或默认数据。
- 异常统计和熔断:统计服务提供方的异常比例,当比例过高表明该接口会影响到其它服务,应该拒绝调用该接口,而是直接走降级逻辑。
1.2、Sentinel
微服务保护的技术有很多,但在目前国内使用较多的还是 Sentinel,所以接下来我们学习 Sentinel 的使用。
1.2.1、介绍和安装
Sentinel 是阿里巴巴开源的一款服务保护框架,目前已经加入 SpringCloudAlibaba 中。官方网站:https://sentinelguard.io/zh-cn/
Sentinel 的使用可以分为两个部分:
- 核心库(Jar 包):不依赖任何框架/库,能够运行于 Java 8 及以上的版本的运行时环境,同时对 Dubbo / Spring Cloud 等框架也有较好的支持。在项目中引入依赖即可实现服务限流、隔离、熔断等功能。
- 控制台(Dashboard):Dashboard 主要负责管理推送规则、监控、管理机器信息等。
为了方便监控微服务,我们先把 Sentinel 的控制台搭建出来。
1)下载 jar 包
下载地址:https://github.com/alibaba/Sentinel/releases
2)运行
将 jar 包放在任意非中文、不包含特殊字符的目录下,重命名为sentinel-dashboard.jar:
然后运行如下命令启动控制台:
Shell
java -Dserver.port=8090 -Dcsp.sentinel.dashboard.server=localhost:8090 -Dproject.name=sentinel-dashboard -jar sentinel-dashboard.jar其它启动时可配置参数可参考官方文档。
3)访问
访问 http://localhost:8090 页面,就可以看到 sentinel 的控制台了:
需要输入账号和密码,默认都是:sentinel
登录后,即可看到控制台,默认会监控 sentinel-dashboard 服务本身。
1.2.2、微服务整合
我们在cart-service模块中整合 sentinel,连接sentinel-dashboard控制台,步骤如下:
1)引入 sentinel 依赖
XML
<!--sentinel-->
<dependency>
<groupId>com.alibaba.cloud</groupId>
<artifactId>spring-cloud-starter-alibaba-sentinel</artifactId>
</dependency>2)配置控制台
修改 application.yaml 文件,添加下面内容:
YAML
spring:
cloud:
sentinel:
transport:
dashboard: http://localhost:80903)访问任意端点
重启cart-service并启动其它几个服务;通过浏览器访问购物车接口或者商城页面中操作购物车;Sentinel 的客户端就会将服务访问的信息提交到sentinel-dashboard控制台。并展示出统计信息。
1.3、请求限流
在簇点链路后面点击流控按钮,即可对其做限流配置。
在弹出的菜单中这样填写:
这样就把查询购物车列表这个簇点资源的流量限制在了每秒 6 个,也就是最大 QPS 为 6。
1.4、线程隔离
限流可以降低服务器压力,尽量减少因并发流量引起的服务故障的概率,但并不能完全避免服务故障。一旦某个服务出现故障,我们必须隔离对这个服务的调用,避免发生雪崩。
比如,查询购物车的时候需要查询商品,为了避免因商品服务出现故障导致购物车服务级联失败,我们可以把购物车业务中查询商品的部分隔离起来,限制可用的线程资源:
这样,即便商品服务出现故障,最多导致查询购物车业务故障,并且可用的线程资源也被限定在一定范围,不会导致整个购物车服务崩溃。
所以,我们要对查询商品的 FeignClient 接口做线程隔离。
1.4.1、OpenFeign 整合 Sentinel
修改 cart-service 模块的 application.yml 文件,开启 Feign 的 sentinel 功能:
yml
feign:
sentinel:
enabled: true # 开启feign对sentinel的支持然后重启 cart-service 服务,可以看到查询商品的 FeignClient 自动变成了一个簇点资源。
1.4.2、配置线程隔离
接下来,点击查询商品的 FeignClient 对应的簇点资源后面的流控按钮:
在弹出的表单中填写下面内容:
注意,这里勾选的是并发线程数限制,也就是说这个查询功能最多使用 5 个线程,而不是 5QPS。如果查询商品的接口每秒处理 2 个请求,则 5 个线程的实际 QPS 在 10 左右,而超出的请求自然会被拒绝。
1.5、服务熔断
在前面,我们利用线程隔离对查询购物车业务进行隔离,保护了购物车服务的其它接口。由于查询商品的功能耗时较高(我们模拟了 500 毫秒延时),再加上线程隔离限定了线程数为 5,导致接口吞吐能力有限,最终 QPS 只有 10 左右。这就导致了几个问题:
第一,超出的 QPS 上限的请求就只能抛出异常,从而导致购物车的查询失败。但从业务角度来说,即便没有查询到最新的商品信息,购物车也应该展示给用户,用户体验更好。也就是给查询失败设置一个降级处理逻辑。
第二,由于查询商品的延迟较高(模拟的 500ms),从而导致查询购物车的响应时间也变的很长。这样不仅拖慢了购物车服务,消耗了购物车服务的更多资源,而且用户体验也很差。对于商品服务这种不太健康的接口,我们应该直接停止调用,直接走降级逻辑,避免影响到当前服务。也就是将商品查询接口熔断。
1.5.1、服务降级
触发限流或熔断后的请求不一定要直接报错,也可以返回一些默认数据或者友好提示,也被称为服务降级,用户体验会更好。
给 FeignClient 编写失败后的降级逻辑有两种方式:
- 方式一:FallbackClass,无法对远程调用的异常做处理
- 方式二:FallbackFactory,可以对远程调用的异常做处理,我们一般选择这种方式。
这里我们演示方式二的失败降级处理。
1)编写降级处理类
编写降级处理类,代码参考如下:
java
package com.mall.api.fallback;
import com.mall.api.client.ItemClient;
import com.mall.api.dto.ItemDTO;
import com.mall.api.dto.OrderDetailDTO;
import com.mall.common.exception.BizIllegalException;
import com.mall.common.utils.CollUtils;
import lombok.extern.slf4j.Slf4j;
import org.springframework.cloud.openfeign.FallbackFactory;
import java.util.Collection;
import java.util.List;
@Slf4j
public class ItemClientFallback implements FallbackFactory<ItemClient> {
@Override
public ItemClient create(Throwable cause) {
return new ItemClient() {
@Override
public List<ItemDTO> queryItemByIds(Collection<Long> ids) {
log.error("远程调用ItemClient.queryItemByIds方法出现异常;参数{}", ids, cause);
//查询购物车列表允许失败,返回空集合
return CollUtils.emptyList();
}
@Override
public void deductStock(List<OrderDetailDTO> items) {
//库存扣减失败,需要触发事务回滚;所以这里抛出异常
throw new BizIllegalException(cause);
}
};
}
}2)注册降级处理类
在hj-api模块中的com.mall.api.config.DefaultFeignConfig类中将ItemClientFallback注册为一个Bean
3)应用降级处理类
在hj-api模块中的ItemClient接口中使用ItemClientFallback:
4)测试
重启后,再次测试,发现被限流的请求不再报错,走了降级逻辑。
1.5.2、服务熔断
查询商品的 RT 较高(模拟的 500ms),从而导致查询购物车的 RT 也变的很长。这样不仅拖慢了购物车服务,消耗了购物车服务的更多资源,而且用户体验也很差。
对于商品服务这种不太健康的接口,我们应该停止调用,直接走降级逻辑,避免影响到当前服务。也就是将商品查询接口熔断。当商品服务接口恢复正常后,再允许调用。这其实就是断路器的工作模式了。
Sentinel 中的断路器不仅可以统计某个接口的慢请求比例,还可以统计异常请求比例。当这些比例超出阈值时,就会熔断该接口,即拦截访问该接口的一切请求,降级处理;当该接口恢复正常时,再放行对于该接口的请求。
断路器的工作状态切换有一个状态机来控制:
状态机包括三个状态:
- closed:关闭状态,断路器放行所有请求,并开始统计异常比例、慢请求比例。超过阈值则切换到 open 状态
- open:打开状态,服务调用被熔断,访问被熔断服务的请求会被拒绝,快速失败,直接走降级逻辑。Open 状态持续一段时间后会进入 half-open 状态
- half-open:半开状态,放行一次请求,根据执行结果来判断接下来的操作。
- 请求成功:则切换到 closed 状态
- 请求失败:则切换到 open 状态
我们可以在控制台通过点击簇点后的**熔断**按钮来配置熔断策略:
在弹出的表格中这样填写:
这种是按照慢调用比例来做熔断,上述配置的含义是:
- RT 超过 200 毫秒的请求调用就是慢调用
- 统计最近 1000ms 内的最少 5 次请求,如果慢调用比例不低于 0.5,则触发熔断
- 熔断持续时长 20s
2、分布式事务
首先我们看看项目中的下单业务整体流程:
由于订单、购物车、商品分别在三个不同的微服务,而每个微服务都有自己独立的数据库,因此下单过程中就会跨多个数据库完成业务。而每个微服务都会执行自己的本地事务:
- 交易服务:下单事务
- 购物车服务:清理购物车事务
- 库存服务:扣减库存事务
整个业务中,各个本地事务是有关联的。因此每个微服务的本地事务,也可以称为分支事务。多个有关联的分支事务一起就组成了全局事务。我们必须保证整个全局事务同时成功或失败。
我们知道每一个分支事务就是传统的单体事务,都可以满足 ACID 特性,但全局事务跨越多个服务、多个数据库,是否还能满足呢?
我们来做一个测试,先进入购物车页面,然后结算下单,进入订单结算页面,将商品的库存修改为 0,然后提交订单,最终因库存不足导致下单失败;查看购物车列表,发现购物车刚刚购买失败的商品数据被清空了,并未回滚。
事务并未遵循 ACID 的原则,归其原因就是参与事务的多个子业务在不同的微服务,跨越了不同的数据库。虽然每个单独的业务都能在本地遵循 ACID,但是它们互相之间没有感知,不知道有人失败了,无法保证最终结果的统一,也就无法遵循 ACID 的事务特性了。
这就是分布式事务问题,出现以下情况之一就可能产生分布式事务问题:
- 业务跨多个服务实现
- 业务跨多个数据源实现
2.1、认识 Seata
解决分布式事务的方案有很多,但实现起来都比较复杂,因此我们一般会使用开源的框架来解决分布式事务问题。在众多的开源分布式事务框架中,功能最完善、使用最多的就是阿里巴巴在 2019 年开源的 Seata 了。
https://seata.io/zh-cn/docs/overview/what-is-seata.html
其实分布式事务产生的一个重要原因,就是参与事务的多个分支事务互相无感知,不知道彼此的执行状态。因此解决分布式事务的思想非常简单:
就是找一个统一的事务协调者,与多个分支事务通信,检测每个分支事务的执行状态,保证全局事务下的每一个分支事务同时成功或失败即可。大多数的分布式事务框架都是基于这个理论来实现的。
Seata 也不例外,在 Seata 的事务管理中有三个重要的角色:
- TC (Transaction Coordinator) - **事务协调者:**维护全局和分支事务的状态,协调全局事务提交或回滚。
- **TM (Transaction Manager) - 事务管理器:**定义全局事务的范围、开始全局事务、提交或回滚全局事务。
- RM (Resource Manager) - **资源管理器:**管理分支事务,与 TC 交谈以注册分支事务和报告分支事务的状态,并驱动分支事务提交或回滚。
Seata 的工作架构如图所示:
其中,TM和RM可以理解为 Seata 的客户端部分,引入到参与事务的微服务依赖中即可。将来TM和RM就会协助微服务,实现本地分支事务与TC之间交互,实现事务的提交或回滚。
而TC服务则是事务协调中心,是一个独立的微服务,需要单独部署。
2.2、部署 TC 服务
2.3、微服务集成 Seata
在下单时涉及的微服务有:trade-service、item-service、cart-service 。参与分布式事务的每一个微服务都需要集成 Seata。
2.3.1、添加依赖
1)trade-service
为了方便各个微服务集成 seata,我们需要把 seata 配置共享到 nacos,因此trade-service模块不仅仅要引入 seata 依赖,还要引入 nacos 依赖:
xml
<!--统一配置管理-->
<dependency>
<groupId>com.alibaba.cloud</groupId>
<artifactId>spring-cloud-starter-alibaba-nacos-config</artifactId>
</dependency>
<!--读取bootstrap文件-->
<dependency>
<groupId>org.springframework.cloud</groupId>
<artifactId>spring-cloud-starter-bootstrap</artifactId>
</dependency>
<!--seata-->
<dependency>
<groupId>com.alibaba.cloud</groupId>
<artifactId>spring-cloud-starter-alibaba-seata</artifactId>
</dependency>2)cart-service
添加 mall\cart-service\pom.xml 依赖如下:
xml
<!--seata-->
<dependency>
<groupId>com.alibaba.cloud</groupId>
<artifactId>spring-cloud-starter-alibaba-seata</artifactId>
</dependency>3)item-service
添加 mall\item-service\pom.xml 依赖如下:
xml
<!--统一配置管理-->
<dependency>
<groupId>com.alibaba.cloud</groupId>
<artifactId>spring-cloud-starter-alibaba-nacos-config</artifactId>
</dependency>
<!--读取bootstrap文件-->
<dependency>
<groupId>org.springframework.cloud</groupId>
<artifactId>spring-cloud-starter-bootstrap</artifactId>
</dependency>
<!--seata-->
<dependency>
<groupId>com.alibaba.cloud</groupId>
<artifactId>spring-cloud-starter-alibaba-seata</artifactId>
</dependency>2.3.2、改造配置
1)新建 seata 共享配置
在 nacos 上添加一个共享的 seata 配置,命名为shared-seata.yaml:
内容如下:
yml
seata:
registry: # TC服务注册中心的配置,微服务根据这些信息去注册中心获取tc服务地址
type: nacos # 注册中心类型 nacos
nacos:
server-addr: 192.168.12.168:8848 # nacos地址
namespace: "" # namespace,默认为空
group: DEFAULT_GROUP # 分组,默认是DEFAULT_GROUP
application: seata-server # seata服务名称
username: nacos
password: nacos
tx-service-group: mall # 事务组名称
service:
vgroup-mapping: # 事务组与tc集群的映射关系
mall: "default"2)trade-service
创建 mall\trade-service\src\main\resources\bootstrap.yml 内容如下:
yml
spring:
application:
name: trade-service # 服务名称
profiles:
active: dev
cloud:
nacos:
server-addr: 192.168.12.168 # nacos地址
config:
file-extension: yaml # 文件后缀名
shared-configs: # 共享配置
- dataId: shared-jdbc.yaml # 共享mybatis配置
- dataId: shared-log.yaml # 共享日志配置
- dataId: shared-swagger.yaml # 共享日志配置
- dataId: shared-seata.yaml # 共享seata配置改造 mall\trade-service\src\main\resources\application.yaml 文件,内容如下:
yml
server:
port: 8084
feign:
okhttp:
enabled: true # 开启OKHttp连接池支持
sentinel:
enabled: true # 开启Feign对Sentinel的整合
hm:
swagger:
title: 交易服务接口文档
package: com.mall.trade.controller
db:
database: hj-trade3)cart-service
修改 mall\cart-service\src\main\resources\bootstrap.yaml 新增 shared-seata.yaml 共享配置文件。
4)item-service
创建 mall\item-service\src\main\resources\bootstrap.yml文件;内容如下:
yml
spring:
application:
name: item-service # 服务名称
profiles:
active: dev
cloud:
nacos:
server-addr: 192.168.12.168 # nacos地址
config:
file-extension: yaml # 文件后缀名
shared-configs: # 共享配置
- dataId: shared-jdbc.yaml # 共享mybatis配置
- dataId: shared-log.yaml # 共享日志配置
- dataId: shared-swagger.yaml # 共享日志配置
- dataId: shared-seata.yaml # 共享seata配置修改 mall\item-service\src\main\resources\application.yaml 文件;内容如下:
yml
server:
port: 8081
feign:
okhttp:
enabled: true # 开启OKHttp连接池支持
sentinel:
enabled: true # 开启Feign对Sentinel的整合
hm:
swagger:
title: 商品服务接口文档
package: com.mall.item.controller
db:
database: hj-item2.3.3、添加数据库表
seata 的客户端在解决分布式事务的时候需要记录一些中间数据,保存在数据库中。因此我们要先准备这样的表。
将资料/seata-at.sql分别文件导入 hj-trade、hj-cart、hj-item 三个数据库中。
到此;整合 seata 到微服务完成。
2.3.4、测试
接下来就是测试的分布式事务的时候了。
我们找到trade-service模块下的com.mall.trade.service.impl.OrderServiceImpl类中的createOrder方法,也就是下单业务方法。
将其上的@Transactional注解改为 Seata 提供的@GlobalTransactional:
@GlobalTransactional注解就是在标记事务的起点,将来 TM 就会基于这个方法判断全局事务范围,初始化全局事务。
我们重启trade-service、item-service、cart-service三个服务。再次测试,发现分布式事务的问题解决了!
那么,Seata 是如何解决分布式事务的呢?
2.4、XA 模式
Seata 支持四种不同的分布式事务解决方案:
- XA
- TCC
- AT (默认)
- SAGA
这里我们以XA模式和AT模式来给大家讲解其实现原理。
XA 规范 是 X/Open 组织定义的分布式事务处理(DTP,Distributed Transaction Processing)标准,XA 规范 描述了全局的TM与局部的RM之间的接口,几乎所有主流的数据库都对 XA 规范 提供了支持。
2.4.1、两阶段提交
XA 是规范,目前主流数据库都实现了这种规范,实现的原理都是基于两阶段提交。
一阶段:
- 事务协调者通知每个事务参与者执行本地事务
- 本地事务执行完成后报告事务执行状态给事务协调者,此时事务不提交,继续持有数据库锁
二阶段:
- 事务协调者基于一阶段的报告来判断下一步操作
- 如果一阶段都成功,则通知所有事务参与者,提交事务
- 如果一阶段任意一个参与者失败,则通知所有事务参与者回滚事务
2.4.2、Seata 的 XA 模型
Seata 对原始的 XA 模式做了简单的封装和改造,以适应自己的事务模型,基本架构如图:
RM一阶段的工作:
- 注册分支事务到
TC - 执行分支业务 sql 但不提交
- 报告执行状态到
TC
TC二阶段的工作:
TC检测各分支事务执行状态
如果都成功,通知所有 RM 提交事务
如果有失败,通知所有 RM 回滚事务
RM二阶段的工作:
- 接收
TC指令,提交或回滚事务
2.4.3、优缺点
XA模式的优点是什么?
- 事务的强一致性,满足 ACID 原则
- 常用数据库都支持,实现简单,并且没有代码侵入
XA模式的缺点是什么?
- 因为一阶段需要锁定数据库资源,等待二阶段结束才释放,性能较差
- 依赖关系型数据库实现事务
2.5、AT 模式
AT模式同样是分阶段提交的事务模型,不过缺弥补了XA模型中资源锁定周期过长的缺陷。
2.5.1、Seata 的 AT 模型
基本流程图:
阶段一RM的工作:
- 注册分支事务
- 记录 undo-log(数据快照)
- 执行业务 sql 并提交
- 报告事务状态
阶段二提交时RM的工作:
- 删除 undo-log 即可
阶段二回滚时RM的工作:
- 根据 undo-log 恢复数据到更新前
2.5.2、流程梳理
我们用一个真实的业务来梳理下 AT 模式的原理。
比如,现在有一个数据库表,记录用户余额:
| id | money |
|---|---|
| 1 | 100 |
其中一个分支业务要执行的 SQL 为:
SQL
update tb_account set money = money - 10 where id = 1AT 模式下,当前分支事务执行流程如下:
一阶段:
TM发起并注册全局事务到TCTM调用分支事务- 分支事务准备执行业务 SQL
RM拦截业务 SQL,根据 where 条件查询原始数据,形成快照。RM执行业务 SQL,提交本地事务,释放数据库锁。此时 money = 90RM报告本地事务状态给TC
二阶段:
TM通知TC事务结束TC检查分支事务状态- 如果都成功,则立即删除快照
- 如果有分支事务失败,需要回滚。读取快照数据,将快照恢复到数据库。此时数据库再次恢复为 100
2.5.3、AT 与 XA 的区别
简述AT模式与XA模式最大的区别是什么?
XA模式一阶段不提交事务,锁定资源;AT模式一阶段直接提交,不锁定资源。XA模式依赖数据库机制实现回滚;AT模式利用数据快照实现数据回滚。XA模式强一致;AT模式最终一致
可见,AT 模式使用起来更加简单,无业务侵入,性能更好。因此企业 90%的分布式事务都可以用 AT 模式来解决。
3、案例
3.1、编写降级逻辑
给商城中现有的 FeignClient 都编写对应的降级逻辑,并且改造项目中每一个微服务,将 OpenFeign 与 Sentinel 整合。
3.1.1、编写 Fallback
编写 com.mall.api.fallback.CartClientFallback 内容参考如下:
java
package com.mall.api.fallback;
import com.mall.api.client.CartClient;
import lombok.extern.slf4j.Slf4j;
import org.springframework.cloud.openfeign.FallbackFactory;
import java.util.Collection;
@Slf4j
public class CartClientFallback implements FallbackFactory<CartClient> {
@Override
public CartClient create(Throwable cause) {
return new CartClient() {
@Override
public void deleteCartItemByIds(Collection<Long> ids) {
log.error("远程调用CartClient.deleteCartItemByIds 失败;ids = {}", ids, cause);
}
};
}
}编写 com.mall.api.fallback.TradeClientFallback 内容参考如下:
java
package com.mall.api.fallback;
import com.mall.api.client.CartClient;
import com.mall.api.client.TradeClient;
import lombok.extern.slf4j.Slf4j;
import org.springframework.cloud.openfeign.FallbackFactory;
import java.util.Collection;
@Slf4j
public class TradeClientFallback implements FallbackFactory<TradeClient> {
@Override
public TradeClient create(Throwable cause) {
return new TradeClient() {
@Override
public void markOrderPaySuccess(Long orderId) {
log.error("远程调用TradeClient.markOrderPaySuccess 失败;参数{}", orderId, cause);
}
};
}
}编写 com.mall.api.fallback.UserClientFallback 内容参考如下:
java
package com.mall.api.fallback;
import com.mall.api.client.UserClient;
import lombok.extern.slf4j.Slf4j;
import org.springframework.cloud.openfeign.FallbackFactory;
@Slf4j
public class UserClientFallback implements FallbackFactory<UserClient> {
@Override
public UserClient create(Throwable cause) {
return new UserClient() {
@Override
public void deductMoney(String pw, Integer amount) {
log.error("远程调用UserClient.deductMoney 失败;参数pw={},amount={}", pw, amount, cause);
}
};
}
}3.1.2、注册 Fallback
修改 com.mall.api.config.DefaultFeignConfig 注册上述 3 个 Fallback;修改后如下:
java
package com.mall.api.config;
import com.mall.api.fallback.CartClientFallback;
import com.mall.api.fallback.ItemClientFallback;
import com.mall.api.fallback.TradeClientFallback;
import com.mall.api.fallback.UserClientFallback;
import com.mall.common.utils.UserContext;
import feign.Logger;
import feign.RequestInterceptor;
import feign.RequestTemplate;
import org.springframework.context.annotation.Bean;
public class DefaultFeignConfig {
//注册商品的熔断降级处理类
@Bean
public ItemClientFallback itemClientFallback(){
return new ItemClientFallback();
}
//注册 CartClientFallback
@Bean
public CartClientFallback cartClientFallback(){
return new CartClientFallback();
}
// 注册 TradeClientFallback
@Bean
public TradeClientFallback tradeClientFallback(){
return new TradeClientFallback();
}
//注册 UserClientFallback
@Bean
public UserClientFallback userClientFallback(){
return new UserClientFallback();
}
//定义feign请求拦截器,设置用户信息
@Bean
public RequestInterceptor requestInterceptor(){
return new RequestInterceptor() {
@Override
public void apply(RequestTemplate template) {
Long userId = UserContext.getUser();
if(userId!= null){
template.header("user-info", userId.toString());
}
}
};
}
//配置feign的日志级别
@Bean
public Logger.Level feignLoggerLevel(){
return Logger.Level.FULL;
}
}3.1.3、应用 Fallback
分别在 CartClient、TradeClient、UserClient 中应用 Fallback 熔断降级类。
3.1.4、配置 Sentinel
1)添加依赖
针对 item-service、trade-service、pay-service、user-service的pom.xml 都确保添加了如下配置共享与 Sentinel 的依赖坐标:
xml
<!--统一配置管理-->
<dependency>
<groupId>com.alibaba.cloud</groupId>
<artifactId>spring-cloud-starter-alibaba-nacos-config</artifactId>
</dependency>
<!--读取bootstrap文件-->
<dependency>
<groupId>org.springframework.cloud</groupId>
<artifactId>spring-cloud-starter-bootstrap</artifactId>
</dependency>
<!--sentinel-->
<dependency>
<groupId>com.alibaba.cloud</groupId>
<artifactId>spring-cloud-starter-alibaba-sentinel</artifactId>
</dependency>
<!--seata-->
<dependency>
<groupId>com.alibaba.cloud</groupId>
<artifactId>spring-cloud-starter-alibaba-seata</artifactId>
</dependency>2)修改配置
item-service
修改或新增
mall\item-service\src\main\resources\bootstrap.yml内容如下:ymlspring: application: name: item-service # 服务名称 profiles: active: dev cloud: nacos: server-addr: 192.168.12.168 # nacos地址 config: file-extension: yaml # 文件后缀名 shared-configs: # 共享配置 - dataId: shared-jdbc.yaml # 共享mybatis配置 - dataId: shared-log.yaml # 共享日志配置 - dataId: shared-swagger.yaml # 共享日志配置 - dataId: shared-seata.yaml # 共享seata配置修改
mall\item-service\src\main\resources\application.yml内容如下:ymlserver: port: 8081 feign: okhttp: enabled: true # 开启OKHttp连接池支持 sentinel: enabled: true # 开启Feign对Sentinel的整合 hm: swagger: title: 商品服务接口文档 package: com.mall.item.controller db: database: hj-item spring: cloud: sentinel: transport: dashboard: http://localhost:8090 http-method-specify: true # 开启请求方式前缀pay-service
修改或新增
mall\item-service\src\main\resources\bootstrap.yml内容如下:ymlspring: application: name: pay-service # 服务名称 profiles: active: dev cloud: nacos: server-addr: 192.168.12.168 # nacos地址 config: file-extension: yaml # 文件后缀名 shared-configs: # 共享配置 - dataId: shared-jdbc.yaml # 共享mybatis配置 - dataId: shared-log.yaml # 共享日志配置 - dataId: shared-swagger.yaml # 共享日志配置 - dataId: shared-seata.yaml # 共享seata配置修改
mall\item-service\src\main\resources\application.yml内容如下:ymlserver: port: 8085 feign: okhttp: enabled: true # 开启OKHttp连接池支持 sentinel: enabled: true # 开启Feign对Sentinel的整合 hm: swagger: title: 支付服务接口文档 package: com.mall.pay.controller db: database: hj-pay spring: cloud: sentinel: transport: dashboard: http://localhost:8090 http-method-specify: true # 开启请求方式前缀trade-service
修改或新增
mall\item-service\src\main\resources\bootstrap.yml内容如下:ymlspring: application: name: trade-service # 服务名称 profiles: active: dev cloud: nacos: server-addr: 192.168.12.168 # nacos地址 config: file-extension: yaml # 文件后缀名 shared-configs: # 共享配置 - dataId: shared-jdbc.yaml # 共享mybatis配置 - dataId: shared-log.yaml # 共享日志配置 - dataId: shared-swagger.yaml # 共享日志配置 - dataId: shared-seata.yaml # 共享seata配置修改
mall\item-service\src\main\resources\application.yml内容如下:ymlserver: port: 8084 feign: okhttp: enabled: true # 开启OKHttp连接池支持 sentinel: enabled: true # 开启Feign对Sentinel的整合 hm: swagger: title: 交易服务接口文档 package: com.mall.trade.controller db: database: hj-trade spring: cloud: sentinel: transport: dashboard: http://localhost:8090 http-method-specify: true # 开启请求方式前缀user-service
修改或新增
mall\item-service\src\main\resources\bootstrap.yml内容如下:ymlspring: application: name: user-service # 服务名称 profiles: active: dev cloud: nacos: server-addr: 192.168.12.168 # nacos地址 config: file-extension: yaml # 文件后缀名 shared-configs: # 共享配置 - dataId: shared-jdbc.yaml # 共享mybatis配置 - dataId: shared-log.yaml # 共享日志配置 - dataId: shared-swagger.yaml # 共享日志配置 - dataId: shared-seata.yaml # 共享seata配置修改
mall\item-service\src\main\resources\application.yml内容如下:ymlserver: port: 8083 feign: okhttp: enabled: true # 开启OKHttp连接池支持 sentinel: enabled: true # 开启Feign对Sentinel的整合 hm: swagger: title: 用户服务接口文档 package: com.mall.user.controller db: database: hj-user jwt: location: classpath:mall.jks alias: mall password: mall123 tokenTTL: 30m spring: cloud: sentinel: transport: dashboard: http://localhost:8090 http-method-specify: true # 开启请求方式前缀
3)测试
访问 http://localhost:18080/;走完一个商品的下单流程之后;访问 http://localhost:8090/ 查看。
3.2、解决分布式事务
除了下单业务以外,用户如果选择余额支付,前端会将请求发送到 pay-service 模块。而这个模块要做三件事情:
- 直接从 user-service 模块调用接口,扣除余额付款
- 更新本地(pay-service)交易流水表状态
- 通知交易服务(trade-service)更新其中的业务订单状态
显然,这里也存在分布式事务问题。对应的页面如下:
当我们提交订单成功后,进入支付页面,选择余额支付,输入密码后点击确认支付即可。
前端会提交支付请求,业务接口的入口在com.mall.pay.controller.PayController类的tryPayOrderByBalance方法:
利用 seata 解决这里的分布式事务问题。
3.2.1、添加依赖
在涉及到的三个微服务中中添加 seata 的依赖:
xml
<!--seata-->
<dependency>
<groupId>com.alibaba.cloud</groupId>
<artifactId>spring-cloud-starter-alibaba-seata</artifactId>
</dependency>注意:这个依赖已经在第 1 个练习中如果都已经添加完;不需要再添加
3.2.2、创建数据库表
将资料/seata-at.sql分别文件导入 hj-pay、hj-user 两个数据库中。
3.2.3、添加 seata 事务注解
在支付业务方法上添加@GlobalTransactional注解。