CamShift算法全称是“Continuously Adaptive Mean-Shift”(连续的自适应MeanShift算法),是对MeanShift算法的改进算法,可以在跟踪的过程中随着目标大小的变化实时调整搜索窗口大小,对于视频序列中的每一帧还是采用MeanShift来寻找最优迭代结果,至于如何实现自动调整窗口大小的,可以查到的论述较少,我的理解是通过对MeanShift算法中零阶矩的判断实现的。
在MeanShift算法中寻找搜索窗口的质心用到窗口的零阶矩M00和一阶矩M10,M01:
零阶矩是搜索窗口内所有像素的积分,即所有像素值之和,物理上的意义是计算搜索窗口的尺寸。经过目标的H分量直方图反向投影后,目标区域的搜索窗口大部分像素值归一化后应该是最大值255,如果计算出来零阶矩大于某一阈值,可以认为此时目标铺满了整个搜索窗口,有理由认为在搜索窗口之外的区域还存在目标区域,需要增大搜索窗口的尺寸;相应的,如果零阶矩小于某一阈值,则需要缩小搜索窗口的尺寸,如此一来,当目标的大小发生变化的时候,CamShift算法就可以自适应的调整目标区域进行跟踪。
以上过程中涉及到一个关键的概念——反向投影,CamShift和MeanShift的运算都是在反向投影图像上进行的,反向投影的实现过程如下:计算并生成目标区域的H分量的直方图,反向投影其实就是把目标图像上每一个像素点的像素值替换为当前像素值所在bin对应的直方图bin的数值。
Opencv中CamShfit在使用上跟MeanShift一致:
1
2
|
CamShift( InputArray probImage, CV_OUT CV_IN_OUT Rect& window, TermCriteria criteria ); |
第一个参数probImage是反向投影图像
第二个参数window是输入和输出的搜索窗口/目标窗口,window的尺寸会自动调整
第三个参数criteria是迭代收敛终止条件
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
|
#include "core/core.hpp" #include "highgui/highgui.hpp" #include "imgproc/imgproc.hpp" #include "video/tracking.hpp" #include<iostream> using namespace cv; using namespace std; Mat image; Mat rectImage; Mat imageCopy; //绘制矩形框时用来拷贝原图的图像 bool leftButtonDownFlag= false ; //左键单击后视频暂停播放的标志位 Point originalPoint; //矩形框起点 Point processPoint; //矩形框终点 Mat targetImageHSV; int histSize=200; float histR[]={0,255}; const float *histRange=histR; int channels[]={0,1}; Mat dstHist; Rect rect; vector<Point> pt; //保存目标轨迹 void onMouse( int event, int x, int y, int flags , void * ustc); //鼠标回调函数 int main( int argc, char *argv[]) { VideoCapture video(argv[1]); double fps=video.get(CV_CAP_PROP_FPS); //获取视频帧率 double pauseTime=1000/fps; //两幅画面中间间隔 namedWindow( "跟踪木头人" ,0); setMouseCallback( "跟踪木头人" ,onMouse); while ( true ) { if (!leftButtonDownFlag) //判定鼠标左键没有按下,采取播放视频,否则暂停 { video>>image; } if (!image.data||waitKey(pauseTime)==27) //图像为空或Esc键按下退出播放 { break ; } if (originalPoint!=processPoint&&!leftButtonDownFlag) { Mat imageHSV; Mat calcBackImage; cvtColor(image,imageHSV,CV_RGB2HSV); calcBackProject(&imageHSV,2,channels,dstHist,calcBackImage,&histRange); //反向投影 TermCriteria criteria(TermCriteria::MAX_ITER + TermCriteria::EPS, 1000, 0.001); CamShift(calcBackImage, rect, criteria); Mat imageROI=imageHSV(rect); //更新模板 targetImageHSV=imageHSV(rect); calcHist(&imageROI, 2, channels, Mat(), dstHist, 1, &histSize, &histRange); normalize(dstHist, dstHist, 0.0, 1.0, NORM_MINMAX); //归一化 rectangle(image, rect, Scalar(255, 0, 0),3); //目标绘制 pt.push_back(Point(rect.x+rect.width/2,rect.y+rect.height/2)); for ( int i=0;i<pt.size()-1;i++) { line(image,pt[i],pt[i+1],Scalar(0,255,0),2.5); } } imshow( "跟踪木头人" ,image); waitKey(100); } return 0; } //*******************************************************************// //鼠标回调函数 void onMouse( int event, int x, int y, int flags, void *ustc) { if (event==CV_EVENT_LBUTTONDOWN) { leftButtonDownFlag= true ; //标志位 originalPoint=Point(x,y); //设置左键按下点的矩形起点 processPoint=originalPoint; } if (event==CV_EVENT_MOUSEMOVE&&leftButtonDownFlag) { imageCopy=image.clone(); processPoint=Point(x,y); if (originalPoint!=processPoint) { //在复制的图像上绘制矩形 rectangle(imageCopy,originalPoint,processPoint,Scalar(255,0,0),2); } imshow( "跟踪木头人" ,imageCopy); } if (event==CV_EVENT_LBUTTONUP) { leftButtonDownFlag= false ; rect=Rect(originalPoint,processPoint); rectImage=image(rect); //子图像显示 imshow( "Sub Image" ,rectImage); cvtColor(rectImage,targetImageHSV,CV_RGB2HSV); imshow( "targetImageHSV" ,targetImageHSV); calcHist(&targetImageHSV,2,channels,Mat(),dstHist,1,&histSize,&histRange, true , false ); normalize(dstHist,dstHist,0,255,CV_MINMAX); imshow( "dstHist" ,dstHist); } } |
蓝色窗口是跟踪的目标,绿色线条是目标走过的轨迹。
以上就是本文的全部内容,希望对大家的学习有所帮助,也希望大家多多支持服务器之家。
原文链接:http://blog.csdn.net/dcrmg/article/details/52771372