如何写sql脚本文件批量插入mysql数据库

作者:国际小甜 | 创建时间: 2023-06-19
对于一些数据量较大的系统,数据库面临的问题除了查询效率低下,还有就是数据入库时间长。特别像报表系统,每天花费在数据导入上的时间可能会长达几个小时或十几个小时之久。因此,优化数据库插入性能是很有意义的。...
如何写sql脚本文件批量插入mysql数据库

操作方法

假定我们的表结构如下,代码如下:

通常情况下单条插入的sql语句我们会这么写:

mysql允许我们在一条sql语句中批量插入数据,如下sql语句:

如果我们插入列的顺序和表中列的顺序一致的话,还可以省去列名的定义,如下sql

上面看上去没什么问题,下面我来使用sql语句优化的小技巧,下面会分别进行测试,目标是插入一个空的数据表200W条数据 第一种方法:使用insert into 插入,最后显示为:23:25:05 01:32:05 也就是花了2个小时多! 代码如下:

第二种方法:使用事务提交,批量插入数据库(每隔10W条提交下)最后显示消耗的时间为:22:56:13 23:04:00 ,一共8分13秒 ,代码如下:

第三种方法:使用优化SQL语句:将SQL语句进行拼接,使用 insert into table () values (),(),(),()然后再一次性插入,如果字符串太长,则需要配置下MYSQL,在mysql 命令行中运行 :set global max_allowed_packet = 2*1024*1024*10;消耗时间为:11:24:06 11:25:06;插入200W条测试数据仅仅用了1分钟!代码如下:

最后总结下,在插入大批量数据时,第一种方法无疑是最差劲的,而第二种方法在实际应用中就比较广泛,第三种方法在插入测试数据或者其他低要求时比较合适,速度确实快。

温馨提示

1. SQL语句是有长度限制,在进行数据合并在同一SQL中务必不能超过SQL长度限制,通过max_allowed_packet配置可以修改,默认是1M,测试时修改为8M。
2. 事务需要控制大小,事务太大可能会影响执行的效率。MySQL有innodb_log_buffer_size配置项,超过这个值会把innodb的数据刷到磁盘中,这时,效率会有所下降。所以比较好的做法是,在数据达到这个这个值前进行事务提交。
点击展开全文

更多推荐