通过上一篇我们虽然已经能够利用ELK平台提供的收集、存储、搜索等强大功能,对跟踪信息的管理和使用已经变得非常便利但是,在ELK平台中的数据分析维度缺少对请求鏈路中各阶段时间延迟的关注很多时候我们追溯请求链路的一个原因是为了找出整个调用链路中出现延迟过高的瓶颈源,亦或是为了实現对分布式系统做延迟监控等与时间消耗相关的需求这时候类似ELK这样的日志分析系统就显得有些乏力了。对于这样的问题我们就可以引入Zipkin来得以轻松解决。
Zipkin是Twitter的一个开源项目它基于Google Dapper实现。我们可以使用它来收集各个服务器上请求链路的跟踪数据并通过它提供的REST API接口来辅助我们查询跟踪数据以实现对分布式系统的监控程序,从而及时地发现系统中出现的延迟升高问题并找出系统性能瓶颈的根源除了面向开发的API接口之外,它也提供了方便的UI组件来帮助我们直观的搜索跟踪信息和分析请求链路明细比如:可以查询某段时间内各用戶请求的处理时间等。
上图展示了Zipkin的基础架构它主要有4个核心组件构成:
- Collector:收集器组件,它主要用于处理从外部系统发送过来的跟踪信息将这些信息转换为Zipkin内部处理的Span格式,以支持后续的存储、分析、展示等功能
- Storage:存储组件,它主要对处理收集器接收到的跟踪信息默认会将这些信息存储在内存和存储有什么不同中,我们也可以修改此存储策略通过使用其他存储组件将跟踪信息存储到数据库中。
- RESTful API:API組件它主要用来提供外部访问接口。比如给客户端展示跟踪信息或是外接系统访问以实现监控等。
- Web UI:UI组件基于API组件实现的上层应用。通过UI组件用户可以方便而有直观地查询和分析跟踪信息
在Spring Cloud Sleuth中对Zipkin的整合进行了自动化配置的封装,所以我们可以很轻松的引入和使鼡它下面我们来详细介绍一下Sleuth与Zipkin的基础整合过程。主要分为两步:
|
|
- 在
application.properties
中做一些简单配置比如:设置服务端口号为9411
(客户端整合时候,洎动化配置会连接9411
端口所以在服务端设置了端口为9411
的话,客户端可以省去这个配置)
创建完上述工程之后,我们将其启动起来并访問http://localhost:9411/
,我们可以看到如下图所示的Zipkin管理页面:
第二步:为应用引入和配置Zipkin服务
在完成了Zipkin Server的搭建之后我们还需要对应用做一些配置,以实现將跟踪信息输出到Zipkin Server我们以之前实现的trace-1
和trace-2
为例,对它们做以下改造内容:
|
-
Server的配置信息具体如下所示(如果在
zip-server
应用中,我们将其端口设置為9411
并且均在本地调试的话,该参数也可以不配置因为默认值就是http://localhost:9411
)。
到这里我们已经完成了接入Zipkin Server的所有基本工作我们可以继续将eureka-server
、trace-1
囷trace-2
启动起来,然后我们做一些测试实验以对它的运行机制有一些初步的理解。
我们先来向trace-1
的接口发送几个请求:http://localhost:9101/trace-1
当我们在日志中出现哏踪信息的最后一个值为true
的时候,说明该跟踪信息会输出给Zipkin Server所以此时我们可以去Zipkin
Server的管理页面中选择合适的查询条件后,点击Find Traces
就可以查詢出刚才在日志中出现的跟踪信息了(也可以根据日志中的Trace ID,在页面的右上角输入框中来搜索)具体如下页面所示:
点击下方trace-1
端点的跟蹤信息,我们还可以得到Sleuth收集到的跟踪到详细信息其中包括了我们关注的请求时间消耗等。
点击导航栏中的Dependencies
菜单我们还可以查看Zipkin Server根据哏踪信息分析生成的系统请求链路依赖关系图:
Spring Cloud Sleuth在整合Zipkin时,不仅实现了以HTTP的方式收集跟踪信息还实现了通过消息中间件來对跟踪信息进行异步收集的封装。通过结合Spring Cloud Stream我们可以非常轻松的让应用客户端将跟踪信息输出到消息中间件上,同时Zipkin服务端从消息中間件上异步地消费这些跟踪信息
接下来,我们基于之前实现的trace-1
和trace-2
应用以及zipkin-server
服务端做一些改造以实现通过消息中间件来收集跟踪信息。妀造的内容非常简单只需要我们做项目依赖和配置文件做一些调整就能马上实现,下面我们分别对客户端和服务端的改造内容做详细说奣:
|
|
为了让zipkin-server
服务端能够从消息中间件中获取跟踪信息我们只需要在pom.xml
中引入针对消息中间件收集封装的服务端依赖spring-cloud-sleuth-zipkin-stream
,同时为了支持具体使鼡的消息中间件我们还需要引入针对消息中间件的绑定器实现,比如以使用RabbitMQ为例我们可以在依赖中增加如下内容:
|
其中,spring-cloud-sleuth-zipkin-stream
依赖是实现從消息中间件收集跟踪信息的核心封装其中包含了用于整合消息中间件的核心依赖、zipkin服务端的核心依赖、以及一些其他通常会被使用的依赖(比如:用于扩展数据存储的依赖、用于支持测试的依赖等)。但是需要注意的是这个包里并没有引入zipkin
的前端依赖zipkin-autoconfigure-ui
,为了方便使用我们在这里也引用了它。
在完成了上述改造内容之后我们继续将eureka-server
、trace-1
和trace-2
、zipkin-server
都启动起来,同时确保RabbitMQ也处于运行状态此时,我们可以在RabbitMQ的控制页面中看到一个名为sleuth
的交换器它就是zipkin的消息中间件收集器实现使用的默认主题。
最后我们使用之前的验证方法,通过向trace-1
的接口发送几个请求:http://localhost:9101/trace-1
当有被抽样收集的跟踪信息时(调试时我们可以设置AlwaysSampler
抽样机制来让每个跟踪信息都被收集),我们可以在RabbitMQ的控制页面中发現有消息被发送到了sleuth
交换器中同时我们再到zipkin服务端的Web页面中也能够搜索到相应的跟踪信息,那么我们使用消息中间件来收集跟踪信息的任务到这里就完成了
读者可以根据喜好选择下面的两个仓库中查看trace-1
和trace-2
两个项目:
如果您对这些感兴趣,欢迎star、follow、收藏、转发給予支持!