- Maven
- JPA + MySQL
- JSP
- Servlet support
- Upload File & Files
- Custom LogBack
- Custom JPA
- Paging and Sorting
- Druid Connector pool
- FastJSON
- Interceptor
- JavaMail
- Spring Boot request logger
- Static resource path forwarding
- Query dsl
- Hibernate validator
- Redis
- 打包方式改为war方式:
<package>war</package>
官方文档说明:
When running a Spring Boot application that uses an embedded servlet container (and is packaged as an executable archive), there are some limitations in the JSP support.
- With Tomcat it should work if you use war packaging, i.e. an executable war will work, and will also be deployable to a standard container (not limited to, but including Tomcat). An executable jar will not work because of a hard coded file pattern in Tomcat.
- With Jetty it should work if you use war packaging, i.e. an executable war will work, and will also be deployable to any standard container.
- Undertow does not support JSPs.
- Creating a custom error.jsp page won’t override the default view for error handling, custom error pages should be used instead.
- 添加JSP解析引擎以及JSTL:
<!-- spring boot tomcat jsp support init -->
<dependency>
<groupId>org.apache.tomcat.embed</groupId>
<artifactId>tomcat-embed-jasper</artifactId>
<version>8.5.6</version>
</dependency>
JSTL(JSP标准标签库)支持:
<!-- jstl support init -->
<dependency>
<groupId>javax.servlet</groupId>
<artifactId>jstl</artifactId>
<version>1.2</version>
</dependency>
上述代码一定要注意,不要在
<dependency>
标签里面添加<scope>provide</scope>
,否则会访问不到JSP页面 不需要加下述<dependency>
<dependency>
<groupId>org.springframework.boot</groupId>
<artifactId>spring-boot-starter-tomcat</artifactId>
</dependency>
如果非要加上述代码,也不要在<dependency>
标签里面添加<scope>provide</scope>
这两个<dependency>
加不加<scope>provide</scope>
一共有四种组合,目前都不加是可以实现访问JSP页面的,
embed
添加provide
肯定不能访问到,其他组合没有试过
- 添加servlet-api
<!-- servlet support init -->
<dependency>
<groupId>javax.servlet</groupId>
<artifactId>javax.servlet-api</artifactId>
<version>3.1.0</version>
</dependency>
添加servlet-api
支持之后,maven
编译阶段才会正常编译通过,但是如果你不用maven
内置的tomcat
,打好war
包之后,
放到单独的Tomcat
容器里面去运行,有可能会产生包重复的错误,因为Tomcat
容器中是默认有Servlet
包的,所以项目中的
Servlet-api
一定要指定好范围,最好加上:<scope>provide</scope>
- 创建
JSP
存放目录并在配置文件中指定
创建JSP
存放目录(与java/resources目录齐平):
/webapp/WEB-INF/view/*.jsp
修改/resources/application.properties
文件使JSP
目录生效
# 页面文件存放目录
spring.mvc.view.prefix=/WEB-INF/view/
# 页面文件后缀
spring.mvc.view.suffix=.jsp
Spring Boot
基于Spring MVC
改编,将@Controller
与ResponseBody
进行合并为一个新的注解:@RestController
@RestController
中返回视图:
@RequestMapping(value="/tologin", method=RequestMethod.GET)
public ModelAndView login(){
ModelAndView mv = new ModelAndView("index");
return mv;
}
正常Return "Stirng"
将会返回字符串或者JSON数据(需要在@RequestMapping
中指定:produces = "application/json; charset=UTF-8"
)
@Controller
返回值乱码问题:
在produce
参数中加入编码声明charset=UTF-8
,示例代码如下:
@RequestMapping(value = "/upload", method = RequestMethod.POST, produces = "text/plain;charset=utf-8")
构建发送过程:
- 构建一个继承自
javax.mail.Authenticator
的具体类,并重写里面的getPasswordAuthentication()
方法。此类是用作登录校验的,以确保你对该邮箱有发送邮件的权利。 - 构建一个
properties
文件,该文件中存放SMTP
服务器地址等参数。 - 通过构建的
properties
文件和javax.mail.Authenticator
具体类来创建一个javax.mail.Session
(Session
的创建,就相当于登录邮箱一样)。 - 构建邮件内容,一般是
javax.mail.internet.MimeMessage
对象,并指定发送人,收信人,主题,内容等等。 - 使用
javax.mail.Transport
工具类发送邮件。
发送邮箱需要确认:
- POP3/SMTP服务已开启
- 获取授权码(非独立密码)
有些邮箱需要使用SSL发送,这类邮箱注意添加:
properties.put("mail.smtp.socketFactory.class", "javax.net.ssl.SSLSocketFactory");
properties.put("mail.smtp.socketFactory.port", "465");
通过设置拦截器,拦截所有请求的Request
和Response
,并将这些记录在数据库中,通过重写拦截器中的preHandle方法
和afterCompletion
方法分别将Request
数据和
Response
数据存储在Logger Entity
中,最后将整个日志实体类存储到数据库中。
这里要注意一点,拦截器中无法通过SpringBean
的方式注入Logger实体
的JPA类,也就无法通过这种方式将最后的日志实体通过JPA持久化,所以通过另一种方式来获取(Filter比Bean先加载)。
获取方式:
WebApplicationContextUtils
可以通过HttpServletRequest
请求对象的上下文(ServetCotext
)获取Spring管理的Bean,
通过WebApplicationContextUtils
内部的getRequiredWebApplicationContext
方法获取到
BeanFactory
(实体工厂类),从而通过BeanFactory
的getBean()
方法就可以拿到SpringDataJPA
为
我们管理的Logger JPA持久化数据接口实例
,代码如下:
private <T> T getDao(Class<T> clazz, HttpServletRequest request) {
BeanFactory factory = WebApplicationContextUtils.getRequiredWebApplicationContext(request.getServletContext());
return factory.getBean(clazz);
}
创建日志请求,首先我们在日志拦截器的 preHandle 方法中
创建Logger Entity
,将一些必要的参数记录后,
将实体类写入HttpServletRequest
中,接下来请求会进入对应的具体Spring MVC 控制器方法
,在最后
渲染视图即将返回前台前会开始执行日志拦截器中的 afterCompeletion 方法
,这个方法中记录了请求
状态码、请求时间戳、请求返回值等内容。
当然,最后,一定不要忘了将日志拦截器添加到Spring Boot项目中,使用@Configuration
添加,示例代码如下:
@Configuration
public class LoggerConfiguration extends WebMvcConfigurerAdapter{
@Override
public void addInterceptors(InterceptorRegistry registry) {
registry.addInterceptor(new LoggerInterceptor()).addPathPatterns("/**");
}
}
Spring Boot默认配置了静态资源地址转发,我们只需要将资源文件放在/resources/static/
目录下,
就可以直接通过网页访问这些静态资源了,但是这样会暴露项目结构,所以添加配置做一个静态资源路径转发:
@Configuration
public class StaticPathConfiguration extends WebMvcConfigurerAdapter{
@Override
public void addResourceHandlers(ResourceHandlerRegistry registry) {
registry.addResourceHandler("lc/resources/**").addResourceLocations("classpath:/static/");
}
}
Web开发使用Controller
基本上可以完成大部分需求,但是我们还可能会用到Servlet、Filter、Listener、Interceptor
等等。
当使用Spring Boot时,嵌入式Servlet容器通过扫描注解的方式注册Servlet、Filter
和Servlet规范的所有监听器
(如HttpSessionListener监听器)
在spring boot中添加自己的Servlet有两种方法,代码注册Servlet和注解自动注册(Filter和Listener也是如此)
- 代码注册通过
ServletRegistrationBean
、FilterRegistrationBean
和ServletListenerRegistrationBean
获得控制。 也可以通过实现ServletContextInitializer
接口直接注册。 - 在
SpringBootApplication
上使用@ServletComponentScan
注解后(或者通过@configuration
配置@ServeltComponentScan
),Servlet、Filter、Listener
可以直接通过@WebServlet、@WebFilter、@WebListener
注解自动注册,无需其他代码。代码如下:
@WebServlet(urlPatterns = "/test")
public class TestServlet extends HttpServlet{
@Override
protected void doGet(HttpServletRequest req, HttpServletResponse resp) throws ServletException, IOException {
resp.setContentType("application/json");
resp.setCharacterEncoding("utf-8");
PrintWriter writer = resp.getWriter();
writer.write("执行TestServlet中的doGet方法成功");
writer.close();
}
}
@Configuration
@ServletComponentScan
public class ServletConfiguration {
}
使用MultipartFile
对象内置的方法transferTo()
就可以实现JSP页面上传到request
内的文件对象直接存储到指定文件File
对象内,以此来完成上传文件的存储。代码如下:
private void executeUpload(String uploadDir, MultipartFile file) throws Exception {
// 文件后缀名
String suffix = file.getOriginalFilename().substring(file.getOriginalFilename().lastIndexOf("."));
// 上传文件名,使用UUID防止重名
String fileName = UUID.randomUUID() + suffix;
// 服务器端保存对象,并存入服务器文件夹中
File serverFile = new File(uploadDir + fileName);
file.transferTo(serverFile);
}
SpringBoot
上传文件时限制了我们上传文件最大容量为:1048576 bytes
,那我们需要上传超过配置的文件时修改怎么做呢?
打开application.properties
配置文件,加入spring.http.multipart.max-file-size
以及spring.http.multipart.max-request-size
配置信息
spring.http.multipart.max-file-size=1024Mb
spring.http.multipart.max-request-size=2048Mb
spring boot内部使用Commons Logging
来记录日志,但也保留外部接口可以让一些日志框架来进行实现,例如Java Util Logging
,Log4J2
还有Logback
。如果你想用某一种日志框架来进行实现的话,就必须先配置,默认情况下,spring boot使用Logback作为日志实现的框架。
SpringBoot内部集成了LogBack
日志依赖,SpringBoot默认使用LogBack记录日志信息,默认根据base.xml
配置内容来输出到控制台和文件之中。
LogBack读取配置文件的步骤
- 尝试classpath下查找文件
logback-test.xml
- 如果文件不存在,尝试查找
logback.xml
- 如果两个文件都不存在,LogBack用
BasicConfiguration
自动对自己进行最小化配置,这样既实现了上面我们不需要添加任何配置就可以输出到控制台日志信息。
接下来我们在resources
目录下创建名叫logback.xml
的文件,并且添加日志配置输出到文件内按天存储到不同的文件之中。
- 彩色日志
- 专为 Hibernate 定制
- 日志异步到数据库
<configuration debug="false">
<!-- 定义日志文件的存放地址,请勿在 logBack 配置中使用相对路径 -->
<property name="LOG_HOME" value="./logs"/>
<!-- 彩色日志 -->
<!-- 彩色日志依赖的渲染类 -->
<conversionRule conversionWord="clr" converterClass="org.springframework.boot.logging.logback.ColorConverter" />
<conversionRule conversionWord="wex" converterClass="org.springframework.boot.logging.logback.WhitespaceThrowableProxyConverter" />
<conversionRule conversionWord="wEx" converterClass="org.springframework.boot.logging.logback.ExtendedWhitespaceThrowableProxyConverter" />
<!-- 彩色日志格式 -->
<property name="CONSOLE_LOG_PATTERN" value="${CONSOLE_LOG_PATTERN:-%clr(%d{yyyy-MM-dd HH:mm:ss.SSS}){faint} %clr(${LOG_LEVEL_PATTERN:-%5p}) %clr(${PID:- }){magenta} %clr(---){faint} %clr([%15.15t]){faint} %clr(%-40.40logger{39}){cyan} %clr(:){faint} %m%n${LOG_EXCEPTION_CONVERSION_WORD:-%wEx}}" />
<!-- Console 输出设置 -->
<appender name="STDOUT" class="ch.qos.logback.core.ConsoleAppender">
<encoder>
<pattern>${CONSOLE_LOG_PATTERN}</pattern>
<charset>utf8</charset>
</encoder>
</appender>
<!--<!– 不带彩色日志 –>
<!– Console输出设置 –>
<appender name="STDOUT" class="ch.qos.logback.core.ConsoleAppender">
<encoder class="ch.qos.logback.classic.encoder.PatternLayoutEncoder">
<!– 格式化输出:%d表示日期,%thread表示线程名,%-5level级别从左显示五个字符宽度,%msg表示消息,%n换行–>
<pattern>%d{yyyy-MM-dd HH:mm:ss.SSS} [%thread] %-5level %logger{50} -%msg %n</pattern>
</encoder>
</appender>-->
<!-- 按照每天生成日志文件 -->
<appender name="FILE" class="ch.qos.logback.core.rolling.RollingFileAppender">
<rollingPolicy class="ch.qos.logback.core.rolling.TimeBasedRollingPolicy">
<!-- 日志文件输出名 -->
<FileNamePattern>${LOG_HOME}/runtime.log.%d{yyyy-MM-dd}.log</FileNamePattern>
<!-- 最大保留天数 -->
<MaxHistory>30</MaxHistory>
</rollingPolicy>
<encoder class="ch.qos.logback.classic.encoder.PatternLayoutEncoder">
<!-- 格式化输出:%d表示日期,%thread表示线程名,%-5level级别从左显示五个字符宽度,%msg表示消息,%n换行-->
<pattern>%d{yyyy-MM-dd HH:mm:ss.SSS} [%thread] %-5level %logger{50} -%msg %n</pattern>
</encoder>
<!-- 日志文件最大大小 -->
<triggeringPolicy class="ch.qos.logback.core.rolling.SizeBasedTriggeringPolicy">
<MaxFileSize>10MB</MaxFileSize>
</triggeringPolicy>
</appender>
<!-- show parameters for hibernate sql 专为 Hibernate 定制 -->
<logger name="org.hibernate.type.descriptor.sql.BasicBinder" level="TRACE" />
<logger name="org.hibernate.type.descriptor.sql.BasicExtractor" level="DEBUG" />
<logger name="org.hibernate.SQL" level="DEBUG" />
<logger name="org.hibernate.engine.QueryParameters" level="DEBUG" />
<logger name="org.hibernate.engine.query.HQLQueryPlan" level="DEBUG" />
<!--myibatis log configure-->
<logger name="com.apache.ibatis" level="TRACE"/>
<logger name="java.sql.Connection" level="DEBUG"/>
<logger name="java.sql.Statement" level="DEBUG"/>
<logger name="java.sql.PreparedStatement" level="DEBUG"/>
<!-- 日志输出级别 -->
<root level="INFO">
<appender-ref ref="STDOUT"/>
<appender-ref ref="FILE"/>
</root>
<!--日志异步到数据库
<appender name="DB" class="ch.qos.logback.classic.db.DBAppender">
<!–日志异步到数据库 –>
<connectionSource class="ch.qos.logback.core.db.DriverManagerConnectionSource">
<!–连接池 –>
<dataSource class="com.mchange.v2.c3p0.ComboPooledDataSource">
<driverClass>com.mysql.jdbc.Driver</driverClass>
<url>jdbc:mysql://127.0.0.1:3306/databaseName</url>
<user>root</user>
<password>123456</password>
</dataSource>
</connectionSource>
</appender>-->
</configuration>
LogBack取代log4j的理由
- 更快的实现 Logback的内核重写了,在一些关键执行路径上性能提升10倍以上。而且logback不仅性能提升了,初始化内存加载也更小了。
- 非常充分的测试 Logback经过了几年,数不清小时的测试。Logback的测试完全不同级别的。在作者的观点,这是简单重要的原因选择logback而不是log4j。=
- Logback-classic非常自然实现了SLF4j Logback-classic实现了 SLF4j。在使用SLF4j中,你都感觉不到logback-classic。而且因为logback-classic非常自然地实现了SLF4J, 所 以切换到log4j或者其他,非常容易,只需要提供成另一个jar包就OK,根本不需要去动那些通过SLF4JAPI实现的代码。
- 非常充分的文档 官方网站有两百多页的文档。
- 自动重新加载配置文件 当配置文件修改了,Logback-classic能自动重新加载配置文件。扫描过程快且安全,它并不需要另外创建一个扫描线程。这个技术充分保证了应用程序能跑得很欢在JEE环境里面。
- Lilith Lilith是log事件的观察者,和log4j的chainsaw类似。而lilith还能处理大数量的log数据 。
- 谨慎的模式和非常友好的恢复 在谨慎模式下,多个FileAppender实例跑在多个JVM下,能 够安全地写道同一个日志文件。RollingFileAppender会有些限制。Logback的FileAppender和它的子类包括 RollingFileAppender能够非常友好地从I/O异常中恢复。
- 配置文件可以处理不同的情况 开发人员经常需要判断不同的Logback配置文件在不同的环境下(开发,测试,生产)。而这些配置文件仅仅只有一些很小的不同,可以通过,和来实现,这样一个配置文件就可以适应多个环境。
- Filters(过滤器) 有些时候,需要诊断一个问题,需要打出日志。在log4j,只有降低日志级别,不过这样会打出大量的日志,会影响应用性能。在Logback,你可以继续 保持那个日志级别而除掉某种特殊情况,如alice这个用户登录,她的日志将打在DEBUG级别而其他用户可以继续打在WARN级别。要实现这个功能只需 加4行XML配置。可以参考MDCFIlter 。
- SiftingAppender(一个非常多功能的Appender) 它可以用来分割日志文件根据任何一个给定的运行参数。如,SiftingAppender能够区别日志事件跟进用户的Session,然后每个用户会有一个日志文件。
- 自动压缩已经打出来的log RollingFileAppender在产生新文件的时候,会自动压缩已经打出来的日志文件。压缩是个异步过程,所以甚至对于大的日志文件,在压缩过程中应用不会受任何影响。
- 堆栈树带有包版本 Logback在打出堆栈树日志时,会带上包的数据。
- 自动去除旧的日志文件 通过设置TimeBasedRollingPolicy或者SizeAndTimeBasedFNATP的maxHistory属性,你可以控制已经产生日志文件的最大数量。如果设置maxHistory 12,那那些log文件超过12个月的都会被自动移除。
logBack配置介绍
- Logger、appender及layout Logger作为日志的记录器,把它关联到应用的对应的context上后,主要用于存放日志对象,也可以定义日志类型、级别。 Appender主要用于指定日志输出的目的地,目的地可以是控制台、文件、远程套接字服务器、 MySQL、 PostreSQL、 Oracle和其他数据库、 JMS和远程UNIX Syslog守护进程等。 Layout 负责把事件转换成字符串,格式化的日志信息的输出。
- logger context 各个logger 都被关联到一个 LoggerContext,LoggerContext负责制造logger,也负责以树结构排列各 logger。其他所有logger也通过org.slf4j.LoggerFactory 类的静态方法getLogger取得。 getLogger方法以 logger 名称为参数。用同一名字调用LoggerFactory.getLogger 方法所得到的永远都是同一个logger对象的引用。
- 有效级别及级别的继承 Logger 可以被分配级别。级别包括:TRACE、DEBUG、INFO、WARN 和 ERROR,定义于 ch.qos.logback.classic.Level类。如果 logger没有被分配级别,那么它将从有被分配级别的最近的祖先那里继承级别。root logger 默认级别是 DEBUG。
- 打印方法与基本的选择规则 打印方法决定记录请求的级别。例如,如果 L 是一个 logger 实例,那么,语句 L.info("..")是一条级别为 INFO 的记录语句。记录请求的级别在高于或等于其 logger 的有效级别时被称为被启用,否则,称为被禁用。记录请求级别为 p,其logger的有效级别为 q,只有则当 p>=q时,该请求才会被执行。 该规则是 logback 的核心。级别排序为: TRACE < DEBUG < INFO < WARN < ERROR。
采用滚动记录并将INFO、ERROR、DEBUG信息分别记录在不同文件中的示例
<?xml version="1.0" encoding="UTF-8"?>
<configuration>
<!--
说明:
1、日志级别及文件
日志记录采用分级记录,级别与日志文件名相对应,不同级别的日志信息记录到不同的日志文件中
例如:error级别记录到log_error_xxx.log或log_error.log(该文件为当前记录的日志文件),而log_error_xxx.log为归档日志,
日志文件按日期记录,同一天内,若日志文件大小等于或大于2M,则按0、1、2...顺序分别命名
例如log-level-2013-12-21.0.log
其它级别的日志也是如此。
2、文件路径
若开发、测试用,在Eclipse中运行项目,则到Eclipse的安装路径查找logs文件夹,以相对路径../logs。
若部署到Tomcat下,则在Tomcat下的logs文件中
3、Appender
FILEERROR对应error级别,文件名以log-error-xxx.log形式命名
FILEWARN对应warn级别,文件名以log-warn-xxx.log形式命名
FILEINFO对应info级别,文件名以log-info-xxx.log形式命名
FILEDEBUG对应debug级别,文件名以log-debug-xxx.log形式命名
stdout将日志信息输出到控制上,为方便开发测试使用
-->
<contextName>SpringBootDemo</contextName>
<property name="LOG_PATH" value="D:\\JavaWebLogs" />
<!--设置系统日志目录-->
<property name="APPDIR" value="SpringBootDemo" />
<!-- 日志记录器,日期滚动记录 -->
<appender name="FILEERROR" class="ch.qos.logback.core.rolling.RollingFileAppender">
<!-- 正在记录的日志文件的路径及文件名 -->
<file>${LOG_PATH}/${APPDIR}/log_error.log</file>
<!-- 日志记录器的滚动策略,按日期,按大小记录 -->
<rollingPolicy class="ch.qos.logback.core.rolling.TimeBasedRollingPolicy">
<!-- 归档的日志文件的路径,例如今天是2013-12-21日志,当前写的日志文件路径为file节点指定,可以将此文件与file指定文件路径设置为不同路径,从而将当前日志文件或归档日志文件置不同的目录。
而2013-12-21的日志文件在由fileNamePattern指定。%d{yyyy-MM-dd}指定日期格式,%i指定索引 -->
<fileNamePattern>${LOG_PATH}/${APPDIR}/error/log-error-%d{yyyy-MM-dd}.%i.log</fileNamePattern>
<!-- 除按日志记录之外,还配置了日志文件不能超过2M,若超过2M,日志文件会以索引0开始,
命名日志文件,例如log-error-2013-12-21.0.log -->
<timeBasedFileNamingAndTriggeringPolicy class="ch.qos.logback.core.rolling.SizeAndTimeBasedFNATP">
<maxFileSize>2MB</maxFileSize>
</timeBasedFileNamingAndTriggeringPolicy>
</rollingPolicy>
<!-- 追加方式记录日志 -->
<append>true</append>
<!-- 日志文件的格式 -->
<encoder class="ch.qos.logback.classic.encoder.PatternLayoutEncoder">
<pattern>===%d{yyyy-MM-dd HH:mm:ss.SSS} %-5level %logger Line:%-3L - %msg%n</pattern>
<charset>utf-8</charset>
</encoder>
<!-- 此日志文件只记录info级别的 -->
<filter class="ch.qos.logback.classic.filter.LevelFilter">
<level>error</level>
<onMatch>ACCEPT</onMatch>
<onMismatch>DENY</onMismatch>
</filter>
</appender>
<!-- 日志记录器,日期滚动记录 -->
<appender name="FILEWARN" class="ch.qos.logback.core.rolling.RollingFileAppender">
<!-- 正在记录的日志文件的路径及文件名 -->
<file>${LOG_PATH}/${APPDIR}/log_warn.log</file>
<!-- 日志记录器的滚动策略,按日期,按大小记录 -->
<rollingPolicy class="ch.qos.logback.core.rolling.TimeBasedRollingPolicy">
<!-- 归档的日志文件的路径,例如今天是2013-12-21日志,当前写的日志文件路径为file节点指定,可以将此文件与file指定文件路径设置为不同路径,从而将当前日志文件或归档日志文件置不同的目录。
而2013-12-21的日志文件在由fileNamePattern指定。%d{yyyy-MM-dd}指定日期格式,%i指定索引 -->
<fileNamePattern>${LOG_PATH}/${APPDIR}/warn/log-warn-%d{yyyy-MM-dd}.%i.log</fileNamePattern>
<!-- 除按日志记录之外,还配置了日志文件不能超过2M,若超过2M,日志文件会以索引0开始,
命名日志文件,例如log-error-2013-12-21.0.log -->
<timeBasedFileNamingAndTriggeringPolicy class="ch.qos.logback.core.rolling.SizeAndTimeBasedFNATP">
<maxFileSize>2MB</maxFileSize>
</timeBasedFileNamingAndTriggeringPolicy>
</rollingPolicy>
<!-- 追加方式记录日志 -->
<append>true</append>
<!-- 日志文件的格式 -->
<encoder class="ch.qos.logback.classic.encoder.PatternLayoutEncoder">
<pattern>===%d{yyyy-MM-dd HH:mm:ss.SSS} %-5level %logger Line:%-3L - %msg%n</pattern>
<charset>utf-8</charset>
</encoder>
<!-- 此日志文件只记录info级别的 -->
<filter class="ch.qos.logback.classic.filter.LevelFilter">
<level>warn</level>
<onMatch>ACCEPT</onMatch>
<onMismatch>DENY</onMismatch>
</filter>
</appender>
<!-- 日志记录器,日期滚动记录 -->
<appender name="FILEINFO" class="ch.qos.logback.core.rolling.RollingFileAppender">
<!-- 正在记录的日志文件的路径及文件名 -->
<file>${LOG_PATH}/${APPDIR}/log_info.log</file>
<!-- 日志记录器的滚动策略,按日期,按大小记录 -->
<rollingPolicy class="ch.qos.logback.core.rolling.TimeBasedRollingPolicy">
<!-- 归档的日志文件的路径,例如今天是2013-12-21日志,当前写的日志文件路径为file节点指定,可以将此文件与file指定文件路径设置为不同路径,从而将当前日志文件或归档日志文件置不同的目录。
而2013-12-21的日志文件在由fileNamePattern指定。%d{yyyy-MM-dd}指定日期格式,%i指定索引 -->
<fileNamePattern>${LOG_PATH}/${APPDIR}/info/log-info-%d{yyyy-MM-dd}.%i.log</fileNamePattern>
<!-- 除按日志记录之外,还配置了日志文件不能超过2M,若超过2M,日志文件会以索引0开始,
命名日志文件,例如log-error-2013-12-21.0.log -->
<timeBasedFileNamingAndTriggeringPolicy class="ch.qos.logback.core.rolling.SizeAndTimeBasedFNATP">
<maxFileSize>2MB</maxFileSize>
</timeBasedFileNamingAndTriggeringPolicy>
</rollingPolicy>
<!-- 追加方式记录日志 -->
<append>true</append>
<!-- 日志文件的格式 -->
<encoder class="ch.qos.logback.classic.encoder.PatternLayoutEncoder">
<pattern>===%d{yyyy-MM-dd HH:mm:ss.SSS} %-5level %logger Line:%-3L - %msg%n</pattern>
<charset>utf-8</charset>
</encoder>
<!-- 此日志文件只记录info级别的 -->
<filter class="ch.qos.logback.classic.filter.LevelFilter">
<level>info</level>
<onMatch>ACCEPT</onMatch>
<onMismatch>DENY</onMismatch>
</filter>
</appender>
<appender name="STDOUT" class="ch.qos.logback.core.ConsoleAppender">
<!--encoder 默认配置为PatternLayoutEncoder-->
<encoder>
<pattern>===%d{yyyy-MM-dd HH:mm:ss.SSS} %-5level %logger Line:%-3L - %msg%n</pattern>
<charset>utf-8</charset>
</encoder>
<!--此日志appender是为开发使用,只配置最底级别,控制台输出的日志级别是大于或等于此级别的日志信息-->
<filter class="ch.qos.logback.classic.filter.ThresholdFilter">
<level>debug</level>
</filter>
</appender>
<logger name="org.springframework" level="WARN" />
<logger name="org.hibernate" level="WARN" />
<!-- 生产环境下,将此级别配置为适合的级别,以免日志文件太多或影响程序性能 -->
<root level="INFO">
<appender-ref ref="FILEERROR" />
<appender-ref ref="FILEWARN" />
<appender-ref ref="FILEINFO" />
<!-- 生产环境将请stdout,testfile去掉 -->
<appender-ref ref="STDOUT" />
</root>
</configuration>
JpaRepository
接口
JpaRepository
接口内继承了PagingAndSortingRepository
接口和QueryByExampleExecutor
接口,PagingAndSortingRepository
接口
内部又继承自CrudRepository
接口
@NoRepositoryBean
public interface JpaRepository<T, ID extends Serializable> extends PagingAndSortingRepository<T, ID>, QueryByExampleExecutor<T> {
List<T> findAll();
List<T> findAll(Sort var1);
List<T> findAll(Iterable<ID> var1);
<S extends T> List<S> save(Iterable<S> var1);
void flush();
<S extends T> S saveAndFlush(S var1);
void deleteInBatch(Iterable<T> var1);
void deleteAllInBatch();
T getOne(ID var1);
<S extends T> List<S> findAll(Example<S> var1);
<S extends T> List<S> findAll(Example<S> var1, Sort var2);
}
CrudRepository
接口
该接口包含了最简单的CRUD:Create/Read/Update/Delete方法,还包括Count/Exist方法
@NoRepositoryBean
public interface CrudRepository<T, ID extends Serializable> extends Repository<T, ID> {
<S extends T> S save(S var1);
<S extends T> Iterable<S> save(Iterable<S> var1);
T findOne(ID var1);
boolean exists(ID var1);
Iterable<T> findAll();
Iterable<T> findAll(Iterable<ID> var1);
long count();
void delete(ID var1);
void delete(T var1);
void delete(Iterable<? extends T> var1);
void deleteAll();
}
PagingAndSortingRepository
接口
继承自CrudRepository
接口,包含最基本的CRUD方法,该接口内部还加了两个方法:
@NoRepositoryBean
public interface PagingAndSortingRepository<T, ID extends Serializable> extends CrudRepository<T, ID> {
Iterable<T> findAll(Sort var1);
Page<T> findAll(Pageable var1);
}
Iterable
/Page
,为分页和排序而生
QueryByExampleRepository
接口
该接口提供条件查询,复杂查询,可以通过Example方式查询数据
public interface QueryByExampleExecutor<T> {
<S extends T> S findOne(Example<S> var1);
<S extends T> Iterable<S> findAll(Example<S> var1);
<S extends T> Iterable<S> findAll(Example<S> var1, Sort var2);
<S extends T> Page<S> findAll(Example<S> var1, Pageable var2);
<S extends T> long count(Example<S> var1);
<S extends T> boolean exists(Example<S> var1);
}
Jpa
内部的 save
方法
注意:
SpringDataJPA
内又个save方法,这个方法不仅是用来添加数据使用,当我们传入主键的值 时则根据主键的值完成数据更新操作
@Query
注解自定义SQL
SpringDataJPA
内部有两种方式可以实现自定义SQL功能,我们先来讲述使用注解的方式,
后期在SpringDataJPA
核心技术专题内再详细的讲解使用EntityManager
是如何完成自定义SQL、调用
存储过程、视图等等操作的
@Query(value = "select * from user where age > ?1", nativeQuery = true)
public List<User> nativeQuery(int age);
@Query
是用来配置自定义SQL的注解,后面参数nativeQuery = true
才是表明了使用原生 的sql,如果不配置,默认是false,则使用HQL查询方式
@Query配合@Modifying
从名字上可以看到我们的@Query
注解好像只是用来查询的,但是如果配合@Modifying
注解一共使用,则
可以完成数据的删除、添加、更新操作
@Transactional
@Modifying
@Query(value = "DELETE FROM USER WHERE username=?1 AND password=?2", nativeQuery = true)
public void deleteQuery(String userName, String pwd);
如果不加
@TransActional
注解,会抛出异常异常:TranscationRequiredException
,意思 就是你当前的操作给你抛出了需要事务异常,SpringDataJPA
自定义SQL时需要在对应的接口或者调用接口 的地方添加事务注解@Transactional
,来开启事务自动化管理
@NoRepositoryBean
Spring开源程序猿在命名规则上应该是比较严格的,从名字上我们几乎就可以判断出用途,这个注解如果 配置在继承了
JpaRepository
接口以及其他SpringDataJpa
内部的接口的子接口时,子接口不被作 为一个Repository
创建代理实现类。
@RequestMapping(value = "/cutPage")
public List<User> cutPage(int page) {
User user = new User();
user.setSize(2);
user.setPage(page);
// 获取排序对象
Sort.Direction sort_direction = Sort.Direction.ASC.toString().equalsIgnoreCase(user.getSord()) ? Sort.Direction.ASC : Sort.Direction.DESC;
// 构建排序,参数
Sort sort = new Sort(sort_direction, user.getSidx());
// 构建分页对象
PageRequest pageRequest = new PageRequest(user.getPage() - 1, user.getSize(), sort);
// 执行分页查询
return userJPA.findAll(pageRequest).getContent();
}
QueryDSL
是一个Java语言编写的通用查询框架,专注于通过JavaAPI方式构建安全的
SQL查询。QueryDSL
可以应用到NoSQL数据库上,QueryDSL
查询框架可以在任何支持
的ORM框架或者SQL平台上以一种通用的API方式来构建SQL。目前QueryDSL
支持的平台
包扣JPA、JDO、SQL、Java Collections、RDF、Lucene、Hibernate Serch、MongoDB
等
添加POM
<dependencies>
<!-- Query DSL -->
<dependency>
<groupId>com.querydsl</groupId>
<artifactId>querydsl-jpa</artifactId>
</dependency>
<dependency>
<groupId>com.querydsl</groupId>
<artifactId>querydsl-apt</artifactId>
<scope>provided</scope>
</dependency>
</dependencies>
<build>
<plugin>
<groupId>com.mysema.maven</groupId>
<artifactId>apt-maven-plugin</artifactId>
<version>1.1.3</version>
<executions>
<execution>
<goals>
<goal>process</goal>
</goals>
<configuration>
<outputDirectory>target/generated-sources/java</outputDirectory>
<processor>com.querydsl.apt.jpa.JPAAnnotationProcessor</processor>
</configuration>
</execution>
</executions>
</plugin>
</plugins>
</build>
具体使用方法请见:QueryController.java
,GoodJPA.java
,Inquirer.java
Spring boot 内置了Hibernate validator
,所以我们可以直接使用来做后台验证。内置验证如下:
@Null 被注释的元素必须为 null
@NotNull 被注释的元素必须不为 null
@AssertTrue 被注释的元素必须为 true
@AssertFalse 被注释的元素必须为 false
@Min(value) 被注释的元素必须是一个数字,其值必须大于等于指定的最小值
@Max(value) 被注释的元素必须是一个数字,其值必须小于等于指定的最大值
@DecimalMin(value) 被注释的元素必须是一个数字,其值必须大于等于指定的最小值
@DecimalMax(value) 被注释的元素必须是一个数字,其值必须小于等于指定的最大值
@Size(max=, min=) 被注释的元素的大小必须在指定的范围内
@Digits (integer, fraction) 被注释的元素必须是一个数字,其值必须在可接受的范围内
@Past 被注释的元素必须是一个过去的日期
@Future 被注释的元素必须是一个将来的日期
@Pattern(regex=,flag=) 被注释的元素必须符合指定的正则表达式
Hibernate Validator 附加的 constraint
@NotBlank(message =) 验证字符串非null,且长度必须大于0
@Email 被注释的元素必须是电子邮箱地址
@Length(min=,max=) 被注释的字符串的大小必须在指定的范围内
@NotEmpty 被注释的字符串的必须非空
@Range(min=,max=,message=) 被注释的元素必须在合适的范围内
自定义Validator,请参考validator/FlagValidator.java,validator/FlagValidatorClass.java
简单介绍
这个是比较重要的一个集成,对于一个大型项目来说,尤其是前端页面反复会查询的,比如大型电商 网站,如果没有一个好的缓存系统,支持高并发大流量的数据访问,可以说是很难做到,有可能最终会 拖垮整个网站,所以一个好的缓存系统对于现如今的站点来说是非常重要的一个环节
Redis
完全开源免费,遵守BSD协议,是一个高性能的key-value数据库,三个特点:
- 支持数据持久化,可将内存中的数据保存到磁盘中,重启的时候再次加载使用
- 不仅支持key-value数据,同时提供list,set,zset,hash等数据结构的存储
- 支持数据备份,即master-slave模式的数据备份
优点:
- 性能极高 --> 读:110000次/s,写:81000次/s
- 丰富的数据类型,支持二进制案例的 Strings, Lists, Hashes, Sets 及 Ordered Sets 数据类型操作
- 原子 – Redis的所有操作都是原子性的,意思就是要么成功执行要么失败完全不执行。单个操作是原子性的。多个操作也支持事务,即原子性,通过MULTI和EXEC指令包起来
- 丰富的特性 – Redis还支持 publish/subscribe, 通知, key 过期等等特性
Redis运行与查看当前缓存
运行:
命令行进入Redis解压目录,Run:redis-server.exe redis.windows.conf
查看缓存:
命令行进入Redis解压目录,运行 redis-cli.exe
进入redis命令行模式,然后运行:keys *
即可
列出当前所有缓存
Redis其他的特性,安装运行及高级用法请参照:Redis教程
集成
Spring boot中集成Redis,再pom.xml中添加:
<!-- 添加缓存支持 -->
<dependency>
<groupId>org.springframework.boot</groupId>
<artifactId>spring-boot-starter-cache</artifactId>
</dependency>
<!-- 添加redis缓存支持 -->
<dependency>
<groupId>org.springframework.boot</groupId>
<artifactId>spring-boot-starter-redis</artifactId>
<version>1.4.3.RELEASE</version>
</dependency>
这里需要注意一点,集成的时候一定要加上
<version>1.4.3.RELEASE</version>
,否则取不到 Redis的相关类,如RedisTemplete.java
随后添加配置,再application.properties
中添加:
#配置redis数据库连接池
redis.host=127.0.0.1
redis.port=6373
redis.pool.max-idle=20
redis.pool.min-idle=1
redis.pool.max-active=20
redis.pool.max-wait=60000
redis.database=0 #默认是索引为0的数据库
随后创建RedisConfiguration
类将Redis的Bean注入到SpringBoot中去:
@Configuration
@EnableCaching
public class RedisConfiguration extends JCacheConfigurerSupport{
/**
* 自定义key生成规则
* @return
*/
@Override
public KeyGenerator keyGenerator() {
return new KeyGenerator() {
@Override
public Object generate(Object o, Method method, Object... objects) {
StringBuffer sb = new StringBuffer();
// 追加类名
sb.append(o.getClass().getName());
// 追加方法名
sb.append(method.getName());
// 遍历参数并追加
for (Object object : objects) {
sb.append(object.toString());
}
System.out.println("调用Redis缓存key:" + sb.toString());
return sb.toString();
}
};
}
/**
* 采用redisCacheManager作为缓存管理器
* @param redisTemplate
* @return
*/
@Bean
public CacheManager cacheManager(RedisTemplate redisTemplate) {
return new RedisCacheManager(redisTemplate);
}
}
其中cacheManager
方法是使用Redis代替springboot中的默认框架,@EnableCaching
开启项目支持缓存,
SpringBoot项目启动的时候就会去找自定义配置的CacheManager
对象并自动应用到项目中。
该类集成自
JChcheConfigurerSupport
,并重写了keyGenerator
方法,这样在Redis中就会使用 我们自定义的key
生成算法,更加方便阅读,方便寻找。
编写 UserService
类并添加Redis支持:
@Service
@CacheConfig(cacheNames = "user")
public class UserService {
@Autowired
private UserJPA userJPA;
@Cacheable
public List<User> list() {
return userJPA.findAll();
}
}
@CacheConfig
:该注解是用来开启声明的类参与缓存,如果方法内的@Cacheable
注解没有添加key
值,那么会自动使用cahceNames
配置参数并且追加方法名。
@Cacheable
:配置方法的缓存参数,可自定义缓存的key
以及value
。
上面这个类中如果不配置key,那么redis会默认为我们生成key,生成的key值很难读懂,所以我们在上一个 类
RedisConfiguration
中实现了自定义key生成方式,避免了看不懂key的情况。
Redis常用命令
- flushdb:清空当前数据库。
- select [index]:选择索引数据库,index为索引值名,如:select 1。
- del [key]:删除一条指定key的值。
- keys *:查看数据库内所有的key。
- flushall:清空所有数据库。
- quit:退出客户端连接。