场景描述
线上mysql数据库里面有张表保存有每天的统计结果,每天有1千多万条,这是我们意想不到的,统计结果咋有这么多。运维找过来,磁盘占了200G,最后问了运营,可以只保留最近3天的,前面的数据,只能删了。删,怎么删?
因为这是线上数据库,里面存放有很多其它数据表,如果直接删除这张表的数据,肯定不行,可能会对其它表有影响。尝试每次只删除一天的数据,还是卡顿的厉害,没办法,写个Python脚本批量删除吧。
具体思路是:
- 每次只删除一天的数据;
- 删除一天的数据,每次删除50000条;
- 一天的数据删除完,开始删除下一天的数据;
Python代码
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
|
# -*-coding:utf-8 -*- import sys # 这是我们内部封装的Python Module sys.path.append( '/var/lib/hadoop-hdfs/scripts/python_module2' ) import keguang.commons as commons import keguang.timedef as timedef import keguang.sql.mysqlclient as mysql def run(starttime, endtime, regx): tb_name = 'statistic_ad_image_final_count' days = timedef.getDays(starttime,endtime,regx) # 遍历删除所有天的数据 for day in days: print '%s 数据删除开始' % (day) mclient = getConn() sql = ''' select 1 from %s where date = '%s' limit 1 ''' % (tb_name, day) print sql result = mclient.query(sql) # 如果查询到了这一天的数据,继续删除 while result is not (): sql = 'delete from %s where date = "%s" limit 50000' % (tb_name, day) print sql mclient.execute(sql) sql = ''' select 1 from %s where date = '%s' limit 1 ''' % (tb_name, day) print sql result = mclient.query(sql) print '%s 数据删除完成' % (day) mclient.close() # 返回mysql 连接 def getConn(): return mysql.MysqlClient(host = '0.0.0.0' , user = 'test' , passwd = 'test' , db = 'statistic' ) if __name__ = = '__main__' : regx = '%Y-%m-%d' yesday = timedef.getYes(regx, - 1 ) starttime = '2019-08-17' endtime = '2019-08-30' run(starttime, endtime, regx) |
以上就是Python批量删除mysql中千万级大量数据的脚本的详细内容,更多关于python 删除MySQL数据的资料请关注服务器之家其它相关文章!
原文链接:http://www.ikeguang.com/?p=607