4分钟插入1000万条数据到mysql数据库表

发布时间:2022-07-02 发布网站:脚本宝典
脚本宝典收集整理的这篇文章主要介绍了4分钟插入1000万条数据到mysql数据库表脚本宝典觉得挺不错的,现在分享给大家,也给大家做个参考。

准备工作

我用到的数据库为,MySQL数据库8.0版本的,使用的InnoDB存储引

创建测试表

CREATE TABLE `PRoduct` (
  `id` int NOT NULL AUTO_INCREMENT,
  `name` vArchar(100) DEFAULT NULL COMMENT '商品名',
  `price` decimal(8,2) DEFAULT NULL COMMENT '价格',
  Primary KEY (`id`)
) ENginE=;myISAM DEFAULT CHARSET=utf8mb4 COLLATE=utf8mb4_0900_ai_ci COMMENT='商品表';

4分钟插入1000万条数据到mysql数据库表


一、使用java代码插入

1、编写程序

public class Inserttest {
 
    public static void main(String[] args) throws ClassNotFoundException, SQLException {
        final String url = "jdbc:mysql://localhost:3306/blog?characterEncoding=UTF-8&serverTimezone=UTC";
        final String name = "com.mysql.cj.jdbc.Driver";
        final String user = "root"; 
        final String password = "root";
        Connection conn = null;
        Class.forName(name);//指定连接类型 
        conn = DriverManager.getConnection(url, user, password);//获取连接
        if (conn!=null) {
            System.out.println("获取连接成功");
            insert(conn);
        }else {
            System.out.println("获取连接失败");
        }
 
    }
    public static void insert(Connection conn) {
        // 开始时间
        Long begin = System.currentTimeMillis();
        // sql前缀
        String prefix = "INSERT INTO product(`name`,`price`) VALUES";
        try {
            // 保存sql后缀
            StringBuffer suffix = new StringBuffer();
            // 设置事务为非自动提交
            conn.setAutoCommIT(false);
            // 比起st,pst会更好些
            Preparedstatement pst = conn.prepareStatement(" ");//准备执行语句
            // 外层循环,总提交事务次数
            for (int i = 1; i <= 100; i++) {
                suffix = new StringBuffer();
                // 第j次提交步长
                for (int j = 1; j <= 100000; j++) {
                    // 构建SQL后缀
                    suffix.apPEnd("(");
                    suffix.append("'"+"小米"+i*j+"',");
                    suffix.append(""+ ran(100) +"");
                    suffix.append("),");
                }
                // 构建完整SQL
                String sql = prefix + suffix.substring(0, suffix.length() - 1);
                // 添加执行SQL
                pst.addBatch(sql);
                // 执行操作
                pst.executeBatch();
                // 提交事务
                conn.COMmit();
                // 清空上一次添加的数据
                suffix = new StringBuffer();
            }
            // 头等连接
            pst.close();
            conn.close();
        } catch (SQLException e) {
            e.printStackTrace();
        }
        // 结束时间
        Long end = System.currentTimeMillis();
        // 耗时
        System.out.println("1000万条数据插入花费时间 : " + (end - begin) / 1000 + " s");
        System.out.println("插入完成");
    }


    //创建一个范围内的随机数
    public static int ran(int x)
    {
        java.util.Random random=new java.util.Random();
        // 返回0 to x的一个随机数但不会取到x,即返回[0,x)闭开区间的值。
        int rn=random.nextInt(x);
        return rn;
    }
}

4分钟插入1000万条数据到mysql数据库表

1000万条数据108完成,是不是感觉超级牛逼, 我每次插入10万条数据就提交一次事务,如果是一条一条差的话估计要好几个小时


2、总结

1、选择合适的存储引擎,这个会影响插入速度

2、索引不要创建太多,因为插入数据的时候会保存一份索引的数据

3、使用insert批量插入,每次插入10万条数据就提交一次事务,节省了大量时间

3、设置max_Allowed_packet

 其实我在插入1000万条数据的时候遇到了一些问题,现在先来解决他们,一开始我插入100万条数据时候报错,控制台的信息如下F1a;

com.mysql.jdbc.PacketTooBigException: Packet for query is too large (4232009 > 4194304). You can change this value on the server by setting the max_allowed_packet’ VARiable.

出现上面的错误是因为数据库表的 max_allowed_packet这个配置没配置足够大,因为默认的为4M的,后来我调为100M就没报错了

set global max_allowed_packet = 100*1024*1024*
记住,设置好后重新登录数据库才能看的设置后的值show VARIABLES like '%max_allowed_packet%'

二、使用存储过程插入

CREATE defineR=`root`@`localhost` PROCEDURE `bLOG`.`test_insert`()
BEGIN
	-- 设置局部变量
	DECLARE product_name VARCHAR(20);
	DECLARE product_price int(20);
	DECLARE n int DEFAULT 1;

	start transaction;
    -- 开始执行循环体
    WHILE n<=10000000 do
		SET product_name = CONCAT('小米', n);
        SET product_price = FLOOR(RAND()*100);
       -- 开始插入数据
        INSERT INTO `product`(`name`,`price`) VALUES (product_name,product_price);
        SET n=n+1;
    END WHILE;
   	COMMIT;
END

在循环开始之前启动一次事务,循环结束后提交,这样每次 insert 就不会重新启动一个事务再提交了: 

下面我们优化一下,使用批量插入,拼接sql

-- 调用存储过程,插入10000000条数据
CALL test_insert2(10000000);
-- 一个简单的存储过程,通过拼接sql批量向数据库插入数据

-- row_num要插入数据的行数
create procedure blog.test_insert2(in row_num int)
begin 
	declare name varchar(32);
	-- 计数器
	declare counter int default 0;
	-- 插入语句的前部分
	set @pre_sql = "INSERT INTO `product`(`name`,`price`) VALUES  ";
	set @exec_sql = @pre_sql;
	-- 循环语句
	repeat
		-- 循环拼接每一行数据
		set @exec_sql = concat(@exec_sql,
		  "('" , concat('小米',FLOOR(RAND()*100)) , "'," , FLOOR(RAND()*100) , "),"
		);

		set counter=counter+1;
		-- 每拼接1000行数据或者技数器达到上限插入一次
		if counter mod 10000 = 0 then
			-- 出除sql最后一个逗号
			set @exec_sql = substring(@exec_sql, 1, char_length(@exec_sql)-1);
			--  预处理需要执行的动态SQL,其中stmt是一个变量
			prepare stmt From @exec_sql;
		 	## 执行SQL语句
			execute stmt;
			## 释放掉预处理段
			deallocate prepare stmt;
			set @exec_sql = @pre_sql;
		end if;
		-- 直到计数器大于等于插入行数,退出循环
		until counter >= row_num
	end repeat;
end

总共耗时7分钟

综合上面的测试数据,建议还是使用java代码进行批量插入比较快

脚本宝典总结

以上是脚本宝典为你收集整理的4分钟插入1000万条数据到mysql数据库表全部内容,希望文章能够帮你解决4分钟插入1000万条数据到mysql数据库表所遇到的问题。

如果觉得脚本宝典网站内容还不错,欢迎将脚本宝典推荐好友。

本图文内容来源于网友网络收集整理提供,作为学习参考使用,版权属于原作者。
如您有任何意见或建议可联系处理。小编QQ:384754419,请注明来意。