1、前言
工作中,经常有些Redis实例使用不恰当,或者对业务预估不准确,或者key没有及时进行处理等等原因,导致某些KEY相当大。
那么大Key会带来哪些问题呢?
如果是集群模式下,无法做到负载均衡,导致请求倾斜到某个实例上,而这个实例的QPS会比较大,内存占用也较多;对于Redis单线程模型又容易出现CPU瓶颈,当内存出现瓶颈时,只能进行纵向库容,使用更牛逼的服务器。
涉及到大key的操作,尤其是使用hgetall、lrange 0 -1、get、hmget 等操作时,网卡可能会成为瓶颈,也会到导致堵塞其它操作,qps 就有可能出现突降或者突升的情况,趋势上看起来十分不平滑,严重时会导致应用程序连不上,实例或者集群在某些时间段内不可用的状态。
假如这个key需要进行删除操作,如果直接进行DEL 操作,被操作的实例会被Block住,导致无法响应应用的请求,而这个Block的时间会随着key的变大而变长。
在redis中,对于一个很大的key,例如hash类型,直接查看其值会非常慢,于是想到写个脚本通过增量迭代来获取,下面话不多说了,来一起看看详细的介绍吧。
2、具体的脚本如下:
功能:扫描redis某个key里面的所有元素
使用方法:python bigkey_save_values.py "zyyset" "*" 100
3、python脚本实现如下:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
|
#!/usr/bin/env python # -*- coding: UTF-8 -*- #功能:扫描某个key里面的所有元素 #使用方法:python bigkey_save_values.py "zyyset" "m*" 100 #如需获取全部的元素:python bigkey_save_values.py "zyyset" "*" 100 __author__ = "lcl" import sys import redis import os pool = redis.ConnectionPool(host = '192.168.225.128' ,port = 6379 ,db = 0 ) r = redis.StrictRedis(connection_pool = pool) #指定key key = sys.argv[ 1 ] #扫描匹配值 match = sys.argv[ 2 ] #每次匹配数量 count = sys.argv[ 3 ] #总数量 total = 0 #获取当前路径 path = os.getcwd() keytype = r. type (key) print "key的类型为%s" % (keytype) #扫描到的key输出的文件 txt = path + "/%s.txt" % (key) #打开文件 #f = open(txt,"w") def list_iter(name): list_count = r.llen(key) for index in range (list_count): yield r.lindex(key, index) if keytype = = 'list' : f = open (txt, "w" ) for item in list_iter(key): #将匹配到对应key中的member/score输出到文件中 f.write( "%s %s" % (item, "\n" )) total = total + 1 f.close elif keytype = = 'hash' : f = open (txt, "w" ) for item in r.hscan_iter(key,match = match,count = count): #将匹配到对应key中的member/score输出到文件中 f.write( "%s %s" % (item, "\n" )) total = total + 1 f.close elif keytype = = 'set' : f = open (txt, "w" ) for item in r.sscan_iter(key,match = match,count = count): f.write( "%s %s" % (item, "\n" )) total = total + 1 f.close elif keytype = = 'zset' : f = open (txt, "w" ) for item in r.zscan_iter(key,match = match,count = count): f.write( "%s %s" % (item, "\n" )) total = total + 1 f.close else : print ( "key的类型为string,value为:" + r.get(key)) print "key:%s的match:%s的数量为:%d" % (key,match,total) |
总结
以上就是这篇文章的全部内容了,希望本文的内容对大家的学习或者工作具有一定的参考学习价值,如果有疑问大家可以留言交流,谢谢大家对服务器之家的支持。