本文实例讲述了PHP使用redis消息队列发布微博的方法。分享给大家供大家参考,具体如下:
在一些用户发布内容应用中,可能出现1秒上万个用户同时发布消息的情况,此时使用mysql可能会出现" too many connections"错误,当然把Mysql的max_connections参数设置为更大数,不过这是一个治标不治本的方法。而使用redis的消息队列,把用户发布的消息暂时存储在消息队列中,然后使用多个cron程序把消息队列中的数据插入到Mysql。这样就有效的降低了Mysql的高并发。具体实现原理如下:
现有微博发布接口:
1
2
3
4
5
|
$weibo = new Weibo(); $uid = $weibo ->get_uid(); $content = $weibo ->get_content; $time = time(); $webi ->post( $uid , $content , $time ); |
此方法直接把微博内容写入Mysql。具体过程省略。
把消息写入到redis:
1
2
3
4
5
|
$redis = new Redis(localhost,6379); $redis ->connect(); $webiInfo = array ( 'uid' =>get_uid(), 'content' =>get_content(), 'time' =>time()); $redis ->lpush( 'weibo_list' ,json_encode( $weiboInfo )); $redis ->close(); |
从redis中取出数据:
1
2
3
4
5
6
7
8
9
10
|
while (true){ if ( $redis ->lsize( 'weibo_list' ) > 0){ $info = $redis ->rpop( 'weibo_list' ); $info = json_decode( $info ); } else { sleep(1); } } $weibo ->post( $info ->uid, $info ->content, $info ->time); //插入数据的时候可以用一次性插入多条数据的方法,避免循环插入,不停的循环插入可能会导致死锁问题。 |
提示:可以运行多个cron程序同时把消息队列的数据插入到Mysql中,当一台Redis服务器不能应付大量并发时,使用一致性Hash算法,把并发分发到不同的Redis服务器。
希望本文所述对大家PHP程序设计有所帮助。