MySQL導出的SQL語句在導入時有可能會非常非常慢,經(jīng)歷過導入僅400萬條記錄,竟用了近2個小時。在導出時合理使用幾個參數(shù),可以大大加快導入的速度。
mysql導出快,導入特別慢的解決方法:
在導入時添加兩個參數(shù):max_allowed_packet; net_buffer_length
-e 使用包括幾個VALUES列表的多行INSERT語法;
--max_allowed_packet=XXX 客戶端/服務器之間通信的緩存區(qū)的最大大小;
--net_buffer_length=XXX TCP/IP和套接字通信緩沖區(qū)大小,創(chuàng)建長度達net_buffer_length的行
注意:max_allowed_packet和net_buffer_length不能比目標數(shù)據(jù)庫的配置數(shù)值大,否則可能出錯。
首先確定目標庫的參數(shù)值
mysql> show variables like 'max_allowed_packet';
+--------------------+---------+
| Variable_name | Value |
+--------------------+---------+
| max_allowed_packet | 1048576 |
+--------------------+---------+
1 row in set (0.00 sec)
mysql> show variables like 'net_buffer_length';
+-------------------+-------+
| Variable_name | Value |
+-------------------+-------+
| net_buffer_length | 16384 |
+-------------------+-------+
1 row in set (0.00 sec)
根據(jù)參數(shù)值書寫mysqldump命令,如:
mysql>mysqldump -uroot -p 數(shù)據(jù)庫名 -e --max_allowed_packet=1048576 -net_buffer_length=16384 > SQL文件
例如:
1.mysql> mysqldump -uroot -p xjtrace -e --max_allowed_packet=1048576 --net_buffer_length=16384 >xjtrace_data_`date +%F`.sql
之前2小時才能導入的sql現(xiàn)在幾十秒就可以完成了。
其它列子分析:
XX市郵政微商城的項目數(shù)據(jù)庫,300多M,約220萬條數(shù)據(jù),source命令導入花了20個小時左右,太不可思議。
速度慢原因:220多萬條數(shù)據(jù),就 insert into 了220多萬次,下圖:
這是用 navicat 導出來的數(shù)據(jù)結構。
后面用 mysqldump 工具導出,唯一區(qū)別是insert into方式不一樣,如下圖:
重新導入測試,僅僅用了不到2分鐘。
另外,source命令在導入時,如果一次性插入的數(shù)據(jù)太多,mysql會自動優(yōu)化,拆開多次插入。如在導入時發(fā)現(xiàn),一張表有100萬左右數(shù)據(jù),它每次插入是1萬多條;另外一張表是1萬多數(shù)據(jù),它也拆開成2次插入。
如對本文有疑問,請?zhí)峤坏浇涣髡搲?,廣大熱心網(wǎng)友會為你解答!! 點擊進入論壇