mysql批量插入优化
这段时间一直在参与产品库的设计和实现,中间和mysql的恩恩怨怨给广大喜欢交流学习的网友们,提供一些借鉴的机会。首先从mysql的批量插入开始吧。
一直自认为对sql语句的数量使用,完全绝对的低估了现实问题的难度。100w的产品基础数据插入用掉了10个小时的时间。很挫…第一批实验数据100w插入后,让我久久不能释怀,这10个小时让我很纠结。找原因吧,之前先入为主,一颗天真烂漫的心被一篇jdbc批处理survey的文章所蒙蔽,一直以为批处理的性能不会比单独insert要更快,那就试一下吧。【本文不谈java代码的优化】
PreparedStatement pstmt = null; Connection con = null; try { con = JdbcUtil.getConnection(); con.setAutoCommit(false); pstmt = con.prepareStatement(sql, ResultSet.TYPE_SCROLL_SENSITIVE, ResultSet.CONCUR_READ_ONLY); String[] lines = temp.split(ConstUtil.DELIM_ENTER, -1); for (int i = 0; i < lines.length; i++) { String[] pdArr = lines[i].split(ConstUtil.DELIM_ONE, -1); if (pdArr.length < 5) return; pstmt.setString(1, pdArr[0]); if (pdArr[1].length() > 13) continue; pstmt.setString(2, pdArr[1]);// isbn pstmt.setString(3, pdArr[2]); pstmt.setString(4, pdArr[3]); pstmt.setString(5, pdArr[4]); pstmt.addBatch(); } pstmt.executeBatch(); con.commit();
还是100w的实验数据: 首先批处理Threshold=100
Time consuming: 8h
然后批处理Threshold=500
Time consuming: 6.7h
然后批处理Threshold=1000
Time consuming: 5.4h
然后批处理Threshold=2000
Time consuming: 5.3h
看来批处理还是能节省相当的时间。不过Threshold在大也没有多少优化空间了。不过5个多小时的插入时间还是让心情沉重。再想想别的方法,记得jdbc-mysql的实现的新版本中增加了对批处理的支持的优化,那可以试一下嘛。 jdbc driver版本 5.1.8及以上支持rewriteBatchedStatements=true参数,该参数帮主mysql打开批处理状态,只需在jdbc url后跟一个参数rewriteBatchedStatements=true即可(jdbc:mysql:///test?rewriteBatchedStatements=true)。
下载地址: http://www.mysql.com/products/connector/
然后批处理Threshold=1000
Time consuming: 0.5h
oha,到此批处理的结果才令人满意(600 records/s)
</div>来自: http://www.adintellig.com/mysql-bulk-insert-optimization/