目录
环境:
一、mybatis-plus之sql分析日志输出
1.配置
2.验证
3.高级输出方式
二、业务日志输出到文件
1.添加log4j2依赖
2.排除logback依赖
3.新增log4j2的配置文件
4.添加配置
5.启动测试
6.给日志请求加个id
6.1、过滤器filter实现
6.2、测试
6.3、request_id检索方式
7.结束
环境:
jdk:1.8
springboot版本:2.7.15
mybatis-plus版本:3.5.3.2
一、mybatis-plus之sql分析日志输出
为了生产中更快的分析问题以及解决问题,sql输出是非常有必要的,这里第一步是将sql输出到控制台便于调试时分析问题,优化sql
1.配置
日志输出操作很简单,在application.yml中配置:
mybatis-plus:configuration:log-impl: org.apache.ibatis.logging.stdout.StdOutImpl
2.验证
使用测试类进行测试,注意,本地调试可以使用这种方式打开日志,如果线上日志输出到文件,要用下面的高级输出方式
3.高级输出方式
使用数据库操作分析框架p6spy组件,进行sql分支,但是该组件比较消耗性能,生产环境中不建议使用,但是如果想玩玩的话,大家可以试试。
p6spy快速配置:p6spy快速配置
二、业务日志输出到文件
为什么要进行日志输出呢?
因为生产环境想要知道程序是否是按照我们的意愿正常运行的,通过日志输出是最直观最有效的方式。
日志文件输出我们一般常用日志输出框架有两种:一种是log4j2、另一种是logback。而springboot中默认使用的是logback框架,考虑到性能原因大多数生产环境使用日志框架为log4j2,所以这里也以log4j2框架进行整合和练习。
1.添加log4j2依赖
<!-- 引入log4j2依赖 --><dependency><groupId>org.springframework.boot</groupId><artifactId>spring-boot-starter-log4j2</artifactId></dependency><!-- 加上这个才能辨认到log4j2-*.yml文件 --><dependency><groupId>com.fasterxml.jackson.dataformat</groupId><artifactId>jackson-dataformat-yaml</artifactId></dependency>
为何用jackson-dataformat-yaml包?问就是可读性好~,log4j2官方采用的是.xml,.json或者.jsn这种方式来做配置,我们既然使用了springboot那当然要用yml文件来配置了,而这个包就是为了程序启动时辨认log4j2-*.yml文件的。
2.排除logback依赖
<!-- 全局排除spring-boot-starter-logging相关所有依赖 --><dependency><groupId>org.springframework.boot</groupId><artifactId>spring-boot-starter-logging</artifactId><exclusions><exclusion><groupId>*</groupId><artifactId>*</artifactId></exclusion></exclusions></dependency>
3.新增log4j2的配置文件
Configuration:#Configuration后面的status,这个用于设置log4j2自身内部的信息输出,可以不设置,当设置成trace时,你会看到log4j2内部各种详细输出#日志级别以及优先级排序: ALL < TRACE < DEBUG < INFO < WARN < ERROR < FATAL < OFFstatus: info# 定义全局变量Properties:Property:#日志存放路径- name: log.pathvalue: /Users/liuph/dev/space/log/iterge_pre#定义日志输出目的地,内容和格式等Appenders:# 控制台日志Console:name: consoletarget: SYSTEM_OUT#输出日志的格式PatternLayout:Pattern: "[%X{request_id}] %-d{yyyy-MM-dd HH:mm:ss} - [%p] [%C{1}:%L %M] %m%n"ThresholdFilter:level: infoonMatch: ACCEPTonMismatch: DENY# 文件日志RollingFile:- name: iterge_pre#日志存储路径fileName: "${log.path}/info.log"#历史日志封存路径 其中%d{yyyy-MM-dd}表示了日志的时间单位是天filePattern: "${log.path}/iterge_pre_%d{yyyy-MM-dd}.log"PatternLayout:Pattern: "[%X{request_id}] %-d{yyyy-MM-dd HH:mm:ss} - [%p] [%C{1}:%L %M] %m%n"#归档设置Policies:#按时间间隔归档TimeBasedTriggeringPolicy:#时间间隔 单位由filePattern的%d日期格式指定, 此处配置代表每一天归档一次interval: 1#是否对interval取模,决定了下一次触发的时间点modulate: true#按照日志文件的大小: size表示当前日志文件的最大size,支持单位:KB/MB/GB#SizeBasedTriggeringPolicy:#size: 50MBThresholdFilter:level: infoonMatch: ACCEPTonMismatch: DENYLoggers:Root:level: info#关联的Appender, 只有定义了logger并引入的appender,appender才会生效AppenderRef:- ref: console- ref: iterge_pre
4.添加配置
在配置文件中添加需要生效的log4j2的配置信息,我这里生效的配置文件是application-dev.yml,所以我在application-dev.yml中加入以下配置代码:
#这里配置日志生效文件,用于多环境部署时切换(通常部署会有三个环境:线上、测试、开发)
logging:config: classpath:log4j2/log4j2-dev.yml
项目配置文件目录:
5.启动测试
如上图:日志打印格式已经按照我们配置的打印了,这里大家可能问这个“[]”是什么含义?接着往下看。
6.给日志请求加个id
为什么给日志请求加个id?这里当然是为了方便了,举个例子:当你在线上查询问题时,一段代码你你可能加了10个日志输出点,而线上业务日志又有很多的情况下,你难道要一行一行的检索日志来看吗?这时候当然请求id检索更香啊!
6.1、过滤器filter实现
新建过滤器LogTraceFilter,代码中的“request_id”要和log4j2的配置文件中设置的一致!!!
(这里通过拦截器实现也是可以的)
@WebFilter(filterName = "LogTraceFilter", urlPatterns = "/*")
@Component
public class LogTraceFilter implements Filter {@Overridepublic void doFilter(ServletRequest servletRequest, ServletResponse servletResponse, FilterChain filterChain) throws IOException, ServletException {MDC.put("request_id", UUID.randomUUID().toString().replace("-", ""));filterChain.doFilter(servletRequest, servletResponse);MDC.remove("request_id");}}
6.2、测试
controller代码:
@GetMapping("/test/get")public User getUser(Integer id){log.info("请求入参:{}",id);User user = userMapper.selectById(id);log.info("请求结果:{}",user.getName());log.info("你看,这样很明显知道我们是一次请求的log吧!");return user;}
运行结果:
由此可以看出同一个请求的日志id都是相同的。