南宁公司和几个分公司之间都使用了呼叫系统,然后现在需要做一个呼叫通话数据分析,由于分公司的呼叫服务器是在内网,通过技术手段映射出来,分公司到南宁之间的网络不稳定,所以需要把分公司的通话数据同步到南宁。
本身最简单的方法就是直接配置mysql的主从同步就可以同步数据到南宁来了。但是销售呼叫系统那边的公司不给mysql权限我们。 所以这个方法只能放弃了。
于是我们干脆的想,使用php来实现定时一个简易的php定时同步工具,然后php进程常驻后台运行,所以首先就先到了一个php组件:swoole,经过讨论,分公司的每天半天生成的数据量最大在5000条左右,所以这个方案是可行,就这样干。
我们使用php swoole 做一个异步的定时任务系统。
本身mysql数据库的主从同步是通过解析master库中的binary-log来进行同步数据到从库的。然而我们使用php来同步数据的时候,那么只能从master库分批查询数据,然后插入到南宁的slave库来了。
这里我们使用的框架是 thinkphp 3.2
.
首先安装php扩展: swoole,因为没有使用到特别的功能,所以这里我们使用pecl来快速安装:
1
|
pecl install swoole |
安装完成后在 php.ini
里面加入 extension="swoole.so"
安装完成后,我们使用 phpinfo()
来检查是否成功了.
安装成功了,我们就来写业务.
服务端
1、首先启动一个后台的服务端,监听端口9501
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
|
public function index() { $serv = new \swoole_server( "0.0.0.0" , 9501); $serv ->set([ 'worker_num' => 1, //一般设置为服务器cpu数的1-4倍 'task_worker_num' => 8, //task进程的数量 'daemonize' => 1, //以守护进程执行 'max_request' => 10000, //最大请求数量 "task_ipc_mode " => 2 //使用消息队列通信,并设置为争抢模式 ]); $serv ->on( 'receive' , [ $this , 'onreceive' ]); //接收任务,并投递 $serv ->on( 'task' , [ $this , 'ontask' ]); //可以在这个方法里面处理任务 $serv ->on( 'finish' , [ $this , 'onfinish' ]); //任务完成时候调用 $serv ->start(); } |
2、接收和投递任务
1
2
3
4
5
6
7
8
9
|
public function onreceive( $serv , $fd , $from_id , $data ) { //使用json_decode 解析任务数据 $areas = json_decode( $data ,true); foreach ( $areas as $area ){ //投递异步任务 $serv ->task( $area ); } } |
3、任务执行,数据从master库查询和写入到slave数据库
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
|
public function ontask( $serv , $task_id , $from_id , $task_data ) { $area = $task_data ; //参数是地区编号 $rows = 50; //每页多少条 //主库地址,根据参数地区($area)编号切换master数据库连接 //从库mysql实例,根据参数地区($area)编号切换slave数据库连接 //由于程序是常驻内存的,所以mysql连接可以使用长连接,然后重复利用。要使用设计模式的,可以使用对象池模式 code...... //master 库为分公司的数据库,slave库为数据同步到南宁后的从库 code...... //使用$sql获取从库中最大的自增: select max(id) as maxid from ss_cdr_cdr_info limit 1 $slavemaxincrementid = ...; //使用$sql获取主库中最大的自增: select max(id) as maxid from ss_cdr_cdr_info limit 1 $mastermaxincrementid = ...; //如果相等的就不同步了 if ( $slavemaxincrementid >= $mastermaxincrementid ){ return false; } //根据条数计算页数 $datanumber = ceil ( $mastermaxincrementid - $slavemaxincrementid ); $eachnumber = ceil ( $datanumber / $rows ); $left = 0; //根据页数来进行分批循环进行写入,要记得及时清理内存 for ( $i = 0; $i < $eachnumber ; $i ++) { $left = $i == 0 ? $slavemaxincrementid : $left + $rows ; $right = $left + $rows ; //生成分批查询条件 //$where = "id > $left and <= $right"; $masterdata = ...; //从主库查询数据 $slavelastinsertid = ...; //插入到从库 unset( $masterdata , $slavelastinsertid ); } echo "new asynctask[id=$task_id]" .php_eol; $serv ->finish( "$area -> ok" ); } |
4、任务完成时候调用
1
2
3
4
|
public function onfinish( $serv , $task_id , $task_data ) { echo "asynctask[$task_id] finish: $task_data" .php_eol; } |
客户端推送任务
到此基本完成,剩下来我们来写客户端任务推送
1
2
3
4
5
6
7
8
9
10
11
|
public function index() { $client = new \swoole_client(swoole_sock_tcp); if (! $client ->connect( '127.0.0.1' , 9501, 1)) { throw new exception( '链接swoole服务错误' ); } $areas = json_encode([ 'liuzhou' , 'yulin' , 'beihai' , 'guilin' ]); //开始遍历检查 $client ->send( $areas ); echo "任务发送成功" .php_eol; } |
至此基本完成了,剩下的我们来写一个shell脚本定时执行:/home/wwwroot/sync_db/crontab/send.sh
1
2
3
4
5
6
|
#!/bin/bash path=/bin:/sbin:/usr/bin:/usr/sbin:/usr/local/bin:/usr/local/sbin:~/bin export path # 定时推送异步的数据同步任务 /usr/bin/php /home/wwwroot/sync_db/server.php home/index/index |
使用crontab定时任务,我们把脚本加入定时任务
1
2
3
4
|
#设置每天12:30执行数据同步任务 30 12 * * * root /home/wwwroot/sync_db/crontab/send.sh #设置每天19:00执行数据同步任务 0 19 * * * root /home/wwwroot/sync_db/crontab/send.sh |
tips: 最好推荐在里面加入写日志操作,这样好知道是任务推送、执行是否成功。
至此基本完成,程序有待优化~~~,各位看客有更好的方法欢迎提出。
原文链接:https://cong5.net/post/php-swoole-sync-call-data-for-subsidiary-to-nanning