前言: 很多时候,因为数据统计,我们需要将数据库的数据导出到Excel等文件中,以供数据人员进行查看,如果数据集不大,其实很容易;但是如果对于大数集的导出,将要考虑各种性能的问题,这里以导出数据库一百万条数据为例,导出时间不过20秒,值的学习的一种大数据导出方式。
一、导出思路
- 需要考虑服务器内存
- 需要考虑程序运行的最大时间
- 缺少BOM头导致乱码的处理
- 如果导出数量过大,推荐使用循环导出,每次循环这里以导出一万条为例,循环100次即可全部导出
二、导出源码
- 下面源码将数据库信息修改成自己的即可使用
- 亲测导出一百万条数据,3个字段,不过20秒
- 如果服务器硬件不支持一次读取一万条数据,可将循环次数提高,导出数量降低
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
|
<?php //让程序一直运行 set_time_limit(0); //设置程序运行内存 ini_set ( 'memory_limit' , '128M' ); $fileName = '测试导出数据' ; header( 'Content-Encoding: UTF-8' ); header( "Content-type:application/vnd.ms-excel;charset=UTF-8" ); header( 'Content-Disposition: attachment;filename="' . $fileName . '.csv"' ); //打开php标准输出流 $fp = fopen ( 'php://output' , 'a' ); //添加BOM头,以UTF8编码导出CSV文件,如果文件头未添加BOM头,打开会出现乱码。 fwrite( $fp , chr (0xEF). chr (0xBB). chr (0xBF)); //添加导出标题 fputcsv ( $fp , [ '姓名' , '年龄' , '地区' ]); //链接数据库 $dsn = "mysql:host=127.0.0.1;port=3306;dbname=db_www;charset=utf8" ; $pdo = new PDO( $dsn , 'root' , '' ); $step = 100; //循环次数 $nums = 10000; //每次导出数量 for ( $i = 0; $i < $step ; $i ++) { $start = $i * 10000; $sql = "SELECT uname,age,city FROM `hd_test` ORDER BY `id` LIMIT {$start},{$nums}" ; $pdostatement = $pdo ->query( $sql ); $result = $pdostatement ->fetchAll(PDO::FETCH_ASSOC); foreach ( $result as $item ) { fputcsv ( $fp , $item ); } //每1万条数据就刷新缓冲区 ob_flush(); flush (); } |
三、快速生成百万条测试数据
这里推荐数据库的蠕虫复制命令
先建好表后,插2条测试数据后,执行几次下列命令,即可指数增长
1
|
INSERT INTO hd_test (uname,age,city) SELECT uname,age,city FROM hd_test; |
到此这篇关于PHP快速导出百万级数据到CSV或者EXCEL文件的文章就介绍到这了,更多相关PHP 导出百万级数据内容请搜索服务器之家以前的文章或继续浏览下面的相关文章希望大家以后多多支持服务器之家!
原文链接:https://blog.csdn.net/weixin_41635750/article/details/109821604