Mybatis Plus批量插入数据到MySQL中

网友投稿 1331 2023-04-23

Mybatis Plus批量插入数据到MySQL中

Mybatis Plus批量插入数据到MySQL中

​作为CRUD程序员,大部分Java开发者应该都在用Mybatis Plus来操作数据库。但是BaseMapper默认仅提供了int insert(T entity)这个单条插入的方法。那么我们想批量插入数据该怎么办呢?

在以前用Mybatis的时候,我们会在Mapper.xml里面去写foreach循环:

12345678

insert into user (user_name,create_time) values (#{list.userName},now())

如果批量的实体对象较多的话,我们就会写很多这样的Mapper,如果表字段较多,这工作量的也不小的,当然,如果你用了代码生成工具,那就当我没说。Mybatis Plus作为Mybatis的增强版,也为我们考虑到了这个问题。使用Mybatis Plus批量插入数据有两种方式,第一种是Service层继承IService,第二种便是insertBatchSomeColumn。先来看看IService的方式

新建Mapper继承BaseMapperpublic interface UserMapper extends BaseMapper {}新建一个Service接口,继承IServicepublic interface UserService extends IService { void batchAddUser();}新建一个Service实现类,继承ServiceImplpublic class UserServiceImpl extends ServiceImpl implements UserService { @Autowired private UserMapper userMapper; @Override public void batchAddUser() { List userDOList=new ArrayList<>(); UserDO user1=new UserDO(); user1.setAge(99); user1.setName("99_1"); userDOList.add(user1); UserDO user2=new UserDO(); user2.setAge(999); user2.setName("999_1"); userDOList.add(user2); this.saveBatch(userDOList,2); }}

这种方式,会生成多条INSERT语句一条条执行,然后按设置的batchSize来提交事务。

我们再来看看insertBatchSomeColumn是怎么做的呢。1.新建一个InsertBatchInjector类来扩展DefaultSqlInjector

123456789

@Componentpublic class InsertBatchInjector extends DefaultSqlInjector { @Override public List getMethodList(Class mapperClass, TableInfo tableInfo) { List methodList = super.getMethodList(mapperClass,tableInfo); methodList.add(new InsertBatchSomeColumn()); return methodList; }}

2.新建一个Mapper接口,继承BaseMapper并添加insertBatchSomeColumn方法,

1234

@Mapperpublic interface UserMapper extends BaseMapper { int insertBatchSomeColumn(List userDOList);}

3.在要批量写的地方直接调用该Mapper的insertBatchSomeColumn即可

123456789101112

public void batchAddUser() { List userDOList=new ArrayList<>(); UserDO user1=new UserDO(); user1.setAge(99); user1.setName("99_1"); userDOList.add(user1); UserDO user2=new UserDO(); user2.setAge(999); user2.setName("999_1"); userDOList.add(user2); userMapper.insertBatchSomeColumn(userDOList);}

这种方式则是拼接成一条SQL,一次性提交到数据库执行

这里,SQL语句的长度受MySQL服务端的max_allowed_packet参数限制,默认为1M,如果拼接的字符串过长则会报错。可以进来减少批量提交的记录,或者是调整max_allowed_packet参数的大小。除了受到max_allowed_packet的影响,innodb_buffer_pool_size的大小也会影响批量的记录数大小,innodb_buffer_pool_size的默认值为128M,我们可以根据情况适当调整,合理地配置innodb_buffer_pool_size参数,可以提高MySQL的读写性能。

版权声明:本文内容由网络用户投稿,版权归原作者所有,本站不拥有其著作权,亦不承担相应法律责任。如果您发现本站中有涉嫌抄袭或描述失实的内容,请联系我们jiasou666@gmail.com 处理,核实后本网站将在24小时内删除侵权内容。

上一篇:实时数仓、湖仓一体、流批一体,它们都在说什么
下一篇:秒换存储引擎,又多了一种架构方案?
相关文章