第二章 SpringBoot快速开发框架 - Mysql数据源配置
作者简介:
🌹 作者:暗夜91
🤟 个人主页:暗夜91的主页
📝 如果感觉文章写的还有点帮助,请帮忙点个关注,我会持续输出高质量技术博文。
专栏文章:
1、集成Swagger,生成API文档
2、Mysql数据源配置
3、集成Redis
4、Spring Security + JWT实现登录权限认证
5、跨域配置
专栏源码:
针对该专栏功能,对源码进行整理,可以直接下载运行。
源码下载请移步:SpringBoot快速开发框架
一、数据源配置
这里针对MySQL数据库,通过JPA和Jdbc对数据库进行操作。
1、集成方法
(1)引入依赖
<dependency> <groupId>mysql</groupId> <artifactId>mysql-connector-java</artifactId> </dependency>
(2)在application.yml中配置数据库连接
spring: datasource: url: jdbc:mysql://localhost:3306/framework?useUnicode=true&characterEncoding=UTF-8&useSSL=false&serverTimezone=GMT%2b8 password: Abc,123. username: root driver-class-name: com.mysql.cj.jdbc.Driver hikari: max-lifetime: 660000 maximum-pool-size: 100 minimum-idle: 10 idle-timeout: 600000 connection-timeout: 30000 connection-test-query: SELECT 1 jpa: hibernate: ddl-auto: update properties: hibernate: dialect: org.hibernate.dialect.MySQL5InnoDBDialect format_sql: true show-sql: true open-in-view: false
针对MySQL单数据源的配置到这里就完成了,在业务模块可以通过JPA和Jdbctemplate对数据库进行操作了。
2、连接池说明
数据库连接池用来管理、分配和释放数据库连接,允许服务重复使用一个现有的数据库连接,极大的提高了对数据库操作的性能。
在上面的配置中,使用的是SpringBoot默认的HikariCP连接池,是一个高性能的JDBC
连接池,基于BoneCP
做了不少的改进和优化,号称“史上最快连接池”。
HikariCP速度快的原因:
1.字节码更加精简,所以可以加载更多代码到缓存。
2.实现了一个无锁的集合类型,来减少并发造成的资源竞争。
3.使用了自定义的数组类型,相对与ArrayList极大地提升了性能。
4.针对CPU的时间片算法进行优化,尽可能在一个时间片里面完成各种操作。
HikariCP常用配置:
ame | 描述 | 构造器默认值 | 默认配置validate之后的值 | validate重置 |
---|---|---|---|---|
autoCommit | 自动提交从池中返回的连接 | TRUE | TRUE | – |
connectionTimeout | 等待来自池的连接的最大毫秒数 | SECONDS.toMillis(30) = 30000 | 30000 | 如果小于250毫秒,则被重置回30秒 |
idleTimeout | 连接允许在池中闲置的最长时间 | MINUTES.toMillis(10) = 600000 | 600000 | 如果idleTimeout+1秒>maxLifetime 且 maxLifetime>0,则会被重置为0(代表永远不会退出);如果idleTimeout!=0且小于10秒,则会被重置为10秒 |
maxLifetime | 池中连接最长生命周期 | MINUTES.toMillis(30) = 1800000 | 1800000 | 如果不等于0且小于30秒则会被重置回30分钟 |
connectionTestQuery | 如果您的驱动程序支持JDBC4,我们强烈建议您不要设置此属性 | null | null | – |
minimumIdle | 池中维护的最小空闲连接数 | -1 | 10 | minIdlemaxPoolSize,则被重置为maxPoolSize |
maximumPoolSize | 池中最大连接数,包括闲置和使用中的连接 | -1 | 10 | 如果maxPoolSize小于1,则会被重置。当minIdle0则重置为minIdle的值 |
metricRegistry | 该属性允许您指定一个 Codahale / Dropwizard MetricRegistry 的实例,供池使用以记录各种指标 | null | null | – |
healthCheckRegistry | 该属性允许您指定池使用的Codahale / Dropwizard HealthCheckRegistry的实例来报告当前健康信息 | null | null | – |
poolName | 连接池的用户定义名称,主要出现在日志记录和JMX管理控制台中以识别池和池配置 | null | HikariPool-1 | – |
initializationFailTimeout | 如果池无法成功初始化连接,则此属性控制池是否将 fail fast | 1 | 1 | – |
isolateInternalQueries | 是否在其自己的事务中隔离内部池查询,例如连接活动测试 | FALSE | FALSE | – |
allowPoolSuspension | 控制池是否可以通过JMX暂停和恢复 | FALSE | FALSE | – |
readOnly | 从池中获取的连接是否默认处于只读模式 | FALSE | FALSE | – |
registerMbeans | 是否注册JMX管理Bean(MBeans) | FALSE | FALSE | – |
catalog | 为支持 catalog 概念的数据库设置默认 catalog | driver default | null | – |
connectionInitSql | 该属性设置一个SQL语句,在将每个新连接创建后,将其添加到池中之前执行该语句。 | null | null | – |
driverClassName | HikariCP将尝试通过仅基于jdbcUrl的DriverManager解析驱动程序,但对于一些较旧的驱动程序,还必须指定driverClassName | null | null | – |
transactionIsolation | 控制从池返回的连接的默认事务隔离级别 | null | null | – |
validationTimeout | 连接将被测试活动的最大时间量 | SECONDS.toMillis(5) = 5000 | 5000 | 如果小于250毫秒,则会被重置回5秒 |
leakDetectionThreshold | 记录消息之前连接可能离开池的时间量,表示可能的连接泄漏 | 0 | 0 | 如果大于0且不是单元测试,则进一步判断:(leakDetectionThreshold maxLifetime && maxLifetime > 0),会被重置为0 . 即如果要生效则必须>0,而且不能小于2秒,而且当maxLifetime > 0时不能大于maxLifetime |
dataSource | 这个属性允许你直接设置数据源的实例被池包装,而不是让HikariCP通过反射来构造它 | null | null | – |
schema | 该属性为支持模式概念的数据库设置默认模式 | driver default | null | – |
threadFactory | 此属性允许您设置将用于创建池使用的所有线程的java.util.concurrent.ThreadFactory的实例。 | null | null | – |
scheduledExecutor | 此属性允许您设置将用于各种内部计划任务的java.util.concurrent.ScheduledExecutorService实例 | null | null | – |
二、集成Redis
本项目使用Redis作为服务的缓存管理,用来存储用户登录的token及相关的用户信息。
Redis相关知识这里不做太多赘述,如需学习Redis相关的知识,可以关注本人的另一篇专栏:
Redis技术学习及开发运维
1、集成方法
(1)引入依赖
<dependency> <groupId>org.springframework.boot</groupId> <artifactId>spring-boot-starter-data-redis</artifactId></dependency>
(2)添加Redis配置文件
package com.lll.framework.config;import com.fasterxml.jackson.annotation.JsonAutoDetect;import com.fasterxml.jackson.annotation.PropertyAccessor;import com.fasterxml.jackson.databind.ObjectMapper;import org.springframework.cache.CacheManager;import org.springframework.cache.annotation.CachingConfigurerSupport;import org.springframework.context.annotation.Bean;import org.springframework.context.annotation.Configuration;import org.springframework.data.redis.cache.RedisCacheConfiguration;import org.springframework.data.redis.cache.RedisCacheManager;import org.springframework.data.redis.connection.RedisConnectionFactory;import org.springframework.data.redis.serializer.Jackson2JsonRedisSerializer;import org.springframework.data.redis.serializer.RedisSerializationContext;import org.springframework.data.redis.serializer.RedisSerializer;import org.springframework.data.redis.serializer.StringRedisSerializer;@Configurationpublic class RedisConfig extends CachingConfigurerSupport { private RedisSerializer<Object> valueSerializer() { Jackson2JsonRedisSerializer jackson2JsonRedisSerializer = new Jackson2JsonRedisSerializer(Object.class); ObjectMapper om = new ObjectMapper(); om.setVisibility(PropertyAccessor.ALL, JsonAutoDetect.Visibility.ANY); om.enableDefaultTyping(ObjectMapper.DefaultTyping.NON_FINAL); jackson2JsonRedisSerializer.setObjectMapper(om); return jackson2JsonRedisSerializer; } @Bean public CacheManager cacheManager(RedisConnectionFactory factory) { RedisSerializer<String> redisSerializer = new StringRedisSerializer(); // 配置序列化 RedisCacheConfiguration config = RedisCacheConfiguration.defaultCacheConfig(); RedisCacheConfiguration redisCacheConfiguration = config.serializeKeysWith(RedisSerializationContext.SerializationPair.fromSerializer(redisSerializer)) .serializeValuesWith(RedisSerializationContext.SerializationPair.fromSerializer((valueSerializer()))); RedisCacheManager cacheManager = RedisCacheManager.builder(factory) .cacheDefaults(redisCacheConfiguration) .build(); return cacheManager; }}
(3)封装Redis工具类
package com.reach.dv.common.service;import com.alibaba.fastjson.JSON;import org.springframework.beans.factory.annotation.Autowired;import org.springframework.data.redis.core.StringRedisTemplate;import org.springframework.stereotype.Service;import java.util.Map;import java.util.Set;import java.util.concurrent.TimeUnit;/ * @ClassName RedisTemplateService * @Date 2019/5/16 * @Version 1.0 /@Servicepublic class RedisTemplateService { @Autowired private StringRedisTemplate redisTemplate; / * 数据写入redis * * @param key * @param value * @param * @return */ public <T> boolean set(String key, T value) { String val = beanToString(value); if (val == null || val.length() <= 0) { return false; } redisTemplate.opsForValue().set(key, val); return true; } / * 写入hash类型的数据 * @param key * @param value * @return */ public boolean set(String key, Map<String,Object> value) { redisTemplate.opsForHash().putAll(key,value); return true; } / * 数据写入redis * @param key * @param value * @param timeout 超时时长(S) >0时设置 * @param * @return */ public <T> boolean set(String key, T value,int timeout) { String val = beanToString(value); if (val == null || val.length() <= 0) { return false; } redisTemplate.opsForValue().set(key, val); if (timeout>0){ redisTemplate.expire(key,timeout, TimeUnit.SECONDS); } return true; } private <T> String beanToString(T value) { String result = ""; if (value == null) { return null; } Class clazz = value.getClass(); if (clazz == int.class || clazz == Integer.class) { result = String.valueOf(value); } else if (clazz == long.class || clazz == Long.class) { result = String.valueOf(value); } else if (clazz == String.class) { result = String.valueOf(value); } else { result = JSON.toJSONString(value); } return result; } / * 查询数据,返回序列化数据 * @param key * @param * @return */ public <T> T get(String key, Class<T> clazz) { String value = redisTemplate.opsForValue().get(key); if(key.equals("vin")){ value = value.toUpperCase(); } return stringToBean(value, clazz); } / * 查询hash数据,返回序列化数据 * @param key * @param mkey * @param clazz * @param * @return */ public <T> T get(String key,String mkey, Class<T> clazz){ String value = String.valueOf(redisTemplate.opsForHash().get(key,mkey)); if(key.equals("vin")){ value = value.toUpperCase(); } return stringToBean(value, clazz); } private <T> T stringToBean(String value, Class<T> clazz) { T result; if (value == null || value.length() <= 0 || clazz == null) { return null; } if (clazz == int.class || clazz == Integer.class) { result = (T) Integer.valueOf(value); } else if (clazz == long.class || clazz == Long.class) { result = (T) Long.valueOf(value); } else if (clazz == String.class) { result = (T) value; } else { result = JSON.parseObject(value,clazz);// result = JSON.toJavaObject(value,clazz); } return result; } public boolean delete(String key){ redisTemplate.delete(key); return true; } public Set<String> getKeys(String prefix){ Set<String> keys = redisTemplate.keys(prefix); return keys; } / * 判断key是否存在 * @param key * @return */ public boolean hasKey(String key){ return redisTemplate.hasKey(key); } / * 更新key的过期时间 * @param key * @param newTimeOut * @return */ public Boolean expireKey(String key,int newTimeOut){ return redisTemplate.expire(key, newTimeOut, TimeUnit.SECONDS); }}
到这里,我们就完成了对Redis的集成,可以在业务模块通过Redis的工具类对Redis进行操作了。