首页 > 期刊投稿知识库 > 运动目标检测与跟踪论文与源代码

运动目标检测与跟踪论文与源代码

发布时间:

运动目标检测与跟踪论文与源代码

#包括“简历。”#包括“highgui。”#包括<高>时间。#包括<数学的。”#包括< ctype小时>。#包括<工作室的。“#包括<字符串>的。一双mhi_duration =0.1;一双max_time_delta =0.5;一双min_time_delta =0.05;整型常量=3;整型常量contour_max_aera =10;iplimage * * BCN =0;最后=0;iplimage *三菱重工=0;cvfilter cv_gaussian_5x5滤波器;cvconnectedcomp * cur_comp,min_comp;cvconnectedcomp补偿;cvmemstorage*;cvpoint铂[ 4];无效update_mhi(iplimage * - *,iplimage夏令时,国际diff_threshold){双时间戳= clock() / 1。;cvsize大小= cvsize(- - - - > >宽度,高度);在我,idx1,idx2;iplimage * silh;iplimage *芘= cvcreateimage(cvsize((size.width及- 2)/ 2,(size.height及- 2)/2),8,1);cvmemstorage *站;cvseq *续;先进行数据的初始化/ * * /如果(!三菱重工| |三菱重工- >宽度!= size.width | |三菱重工- >高度!= size.height){如果(缓冲区= =0){但是=(iplimage * *(*)内存大小(字节[ 0]));memset(缓冲区,0,* size of(字节[ 0]));}为(=0;我的;我+ +){cvreleaseimage(&,[我]);但是[我] = cvcreateimage(大小,ipl_depth_8u,1);cvzero(字节[我]);}cvreleaseimage(与三菱重工);三菱重工= cvcreateimage(大小,ipl_depth_32f,1);cvzero(三菱重工);}cvcvtcolor(1mg,但是[上],cv_bgr2gray);最后idx1=;idx2=(上+1)%氮;最后idx2=;silh =但是[ idx2];cvabsdiff(缓冲区缓冲区idx2[ idx1],[ ],silh);cvthreshold(silh,silh,30,255,cv_thresh_binary);cvupdatemotionhistory(silh,三菱重工,时间戳,mhi_duration);cvcvtscale(三菱重工,测试,255/ mhi_duration,(mhi_duration -时间)* 255/ mhi_duration。);cvcvtscale(三菱重工,测试,255/ mhi_duration,0。);cvsmooth(夏令时间,日光节约时间,cv_median,3,0,0,0);cvpyrdown(夏令时,芘,7);cvdilate(吡啶酚,酚,0,1);cvpyrup(芘,测试,7);故事= cvcreatememstorage(0);续= cvcreateseq(cv_seq_eltype_point,size of(cvseq),大小(cvpoint),故事);cvfindcontours(夏令时,故事,和控制,尺寸(cvcontour),cv_retr_list,cv_chain_approx_simple,cvpoint(0 , 0));为(;控制;控制=续- > h_next){cvrect =((cvcontour *)续)- >矩形;如果(r.height * r.width > contour_max_aera){cvrectangle(1mg,cvpoint(支持,酵母),cvpoint(支持+ r.width,酵母+ r.height),cv_rgb(255,0,0),1,cv_aa,0);}}cvreleasememstorage(与故事);cvreleaseimage(与他们);}cvreleasememstorage(与故事);cvreleaseimage(与他们);诠释主体(国际argc,字符* * argv){iplimage *运动=0;cvcapture *捕捉=0;拍摄cvcapturefromfile(“:/ / capture1的。”);如果(捕获)cvnamedwindow(“视频分析”,1);{为(;;){iplimage *图像;如果(!cvgrabframe(捕获))打破;图像cvretrieveframe(捕获);如果(图像){如果(!运动){运动= cvcreateimage(cvsize(图像- >宽度,图像- >高度),8,1);cvzero(运动);运动- >起源=图像- >起源;}}update_mhi(图像,运动,60);cvshowimage(“视频分析”,形象);如果(cvwaitkey(10)> =0)打破;}cvreleasecapture(捕捉);cvdestroywindow(“视频分析”);}返回0;}希望采纳

纳闷,opencv书上不是有各个函数的功能吗,也可以上网查啊,我不具体看了,大概看一下吧如果你知道目标提取的一些方法,这个看懂不难,抱歉没啥时间给你看,自己努力下吧。大致的思路是:通过背景差或帧差的方法获取两者的差别,并通过设定阈值,将差别较大的认为是前景目标,然后通过一些腐蚀、膨胀、滤波(比如中值滤波)提取出前景目标,然后去除小目标减少干扰,并用矩形框将结果框出来,很简单,自己对照着这个思想好好看看代码吧,凡是要靠自己努力才能成长。祝学业有成~void update_mhi( IplImage* img, IplImage* dst, int diff_threshold ){ double timestamp = clock()/1.; CvSize size = cvSize(img->width,img->height); int i, idx1, idx2; IplImage* silh; IplImage* pyr = cvCreateImage( cvSize((size.width & -2)/2, (size.height & -2)/2), 8, 1 ); CvMemStorage *stor; CvSeq *cont; /*先进行数据的初始化*/ if( !mhi || mhi->width != size.width || mhi->height != size.height ) { if( buf == 0 ) { buf = (IplImage**)malloc(N*sizeof(buf[0])); memset( buf, 0, N*sizeof(buf[0])); } for( i = 0; i < N; i++ ) { cvReleaseImage( &buf[i] ); buf[i] = cvCreateImage( size, IPL_DEPTH_8U, 1 ); cvZero( buf[i] ); } cvReleaseImage( &mhi ); mhi = cvCreateImage( size, IPL_DEPTH_32F, 1 ); cvZero( mhi ); } cvCvtColor( img, buf[last], CV_BGR2GRAY ); //前面没看,我想是将rgb图像转为灰度图像,可能create一下单通道的图像,存放转换结果的。 idx1 = last; idx2 = (last + 1) % N; last = idx2; silh = buf[idx2]; cvAbsDiff( buf[idx1], buf[idx2], silh ); //做差,我想是通过差分的方法,提取前景目标的,也就是当前图像与背景图像作差,提取前景目标。 cvThreshold( silh, silh, 30, 255, CV_THRESH_BINARY );//这里阈值化,相差30像素以上为前景目标 cvUpdateMotionHistory( silh, mhi, timestamp, MHI_DURATION ); cvCvtScale( mhi, dst, 255./MHI_DURATION, (MHI_DURATION - timestamp)*255./MHI_DURATION ); cvCvtScale( mhi, dst, 255./MHI_DURATION, 0 ); cvSmooth( dst, dst, CV_MEDIAN, 3, 0, 0, 0 );//滤波,平滑,去噪 cvPyrDown( dst, pyr, 7 );//降采样 cvDilate( pyr, pyr, 0, 1 ); //膨胀处理,让前景变得圆滑,以及一些小碎片连接起来 cvPyrUp( pyr, dst, 7 ); stor = cvCreateMemStorage(0); cont = cvCreateSeq(CV_SEQ_ELTYPE_POINT, sizeof(CvSeq), sizeof(CvPoint) , stor);//创序列 cvFindContours( dst, stor, &cont, sizeof(CvContour), CV_RETR_LIST, CV_CHAIN_APPROX_SIMPLE, cvPoint(0,0));//找轮廓及个数 for(;cont;cont = cont->h_next) { CvRect r = ((CvContour*)cont)->rect;//加上矩形框,也就是将前景目标框出来 if(r.height * r.width > CONTOUR_MAX_AERA) { cvRectangle( img, cvPoint(r.x,r.y), cvPoint(r.x + r.width, r.y + r.height), CV_RGB(255,0,0), 1, CV_AA,0); } } cvReleaseMemStorage(&stor); cvReleaseImage( &pyr );} cvReleaseMemStorage(&stor); cvReleaseImage( &pyr );}

你可以到七七计算机毕业论文的毕业设计题目列表中找一份。有完整的论文和源码等,很详细

这种运动目标检测的方法还是很经典的,下面写了一些注释仅作参考,希望对你有所帮助。#include "stdafx.h"#include "cv.h"#include "highgui.h"#include #include #include #include #include const double MHI_DURATION = 0.1;//定义运动跟踪的最大时间const double MAX_TIME_DELTA = 0.5;const double MIN_TIME_DELTA = 0.05;const int N = 3;//定义数组的维度为3const int CONTOUR_MAX_AERA = 10;//定义的阈值IplImage **buf = 0;int last = 0;IplImage *mhi = 0; CvFilter filter = CV_GAUSSIAN_5x5;//高斯卷积滤波CvConnectedComp *cur_comp, min_comp;//定义连通域操作的存储CvConnectedComp comp;//定义连通域操作的存储CvMemStorage *storage;//定义内存分配CvPoint pt[4];//定义点的存储/******************************下面update_mhi函数输入img,输出识别结果dst,阈值diff_threshold*/void update_mhi( IplImage* img, IplImage* dst, int diff_threshold ){ double timestamp = clock()/1.; //返回从“开启这个程序进程”到“程序中调用clock()函数”时之间的CPU时钟计时单元 CvSize size = cvSize(img->width,img->height); //获取图像的宽和高 int i, idx1, idx2; IplImage* silh; IplImage* pyr = cvCreateImage( cvSize((size.width & -2)/2, (size.height & -2)/2), 8, 1 );// CvMemStorage *stor;//申请内存 CvSeq *cont;//定义保存数据的结构 /*先进行数据的初始化*/ if( !mhi || mhi->width != size.width || mhi->height != size.height ) { //分配内存操作:如果buf是空值,则分配存储空间 if( buf == 0 ) { buf = (IplImage**)malloc(N*sizeof(buf[0]));//利用malloc动态分配内存 memset( buf, 0, N*sizeof(buf[0]));//作用是在一段内存块中填充某个给定的值,此处值为0 } //创建通道为N=3,大小为size的图像存储 for( i = 0; i < N; i++ ) { cvReleaseImage( &buf[i] );//释放buf buf[i] = cvCreateImage( size, IPL_DEPTH_8U, 1 );//创建buf[i] cvZero( buf[i] );//初始化为0 } cvReleaseImage( &mhi );//释放变量mhi mhi = cvCreateImage( size, IPL_DEPTH_32F, 1 );//创建mhi,大小为size,深度为IPL_DEPTH_32F,1个通道 cvZero( mhi ); ///初始化为0 } cvCvtColor( img, buf[last], CV_BGR2GRAY );//将RGB图像img转换成gray灰度图像buf idx1 = last;//将last赋值到idx1 idx2 = (last + 1) % N; //计算(last + 1)除以N的余数 last = idx2;//将idx2赋值到last silh = buf[idx2];//将buf[idx2]赋值到silh //下面计算buf[idx1]与buf[idx2]差的绝对值,输出结果存入silh cvAbsDiff( buf[idx1], buf[idx2], silh ); //下面对单通道数组silh应用固定阈值操作,阈值为30,阈值化类型为CV_THRESH_BINARY最大值为255 cvThreshold( silh, silh, 30, 255, CV_THRESH_BINARY ); //去掉影像(silh) 以更新运动历史图像为mhi,当前时间为timestamp,运动跟踪的最大时间为MHI_DURATION=0.1 cvUpdateMotionHistory( silh, mhi, timestamp, MHI_DURATION ); //下面对mhi进行线性变换操作,输出结果存入dst:dst(I)=mhi(I)*第二个参数 + 第三个参数 cvCvtScale( mhi, dst, 255./MHI_DURATION, (MHI_DURATION - timestamp)*255./MHI_DURATION ); cvCvtScale( mhi, dst, 255./MHI_DURATION, 0 ); cvSmooth( dst, dst, CV_MEDIAN, 3, 0, 0, 0 );//对dst进行中值滤波 cvPyrDown( dst, pyr, 7 );//利用卷积滤波器对dst进行下采样 cvDilate( pyr, pyr, 0, 1 );//对图像pyr使用3*3长方形进行膨胀操作 cvPyrUp( pyr, dst, 7 );//利用卷积滤波器对dst进行上采样 stor = cvCreateMemStorage(0);//动态内存存储创建内存块 cont = cvCreateSeq(CV_SEQ_ELTYPE_POINT, sizeof(CvSeq), sizeof(CvPoint) , stor);//创建存储结构 //函数cvFindContours为寻找图像dst的角点,数据存入cont中,其中包含角点的坐标值 cvFindContours( dst, stor, &cont, sizeof(CvContour), CV_RETR_LIST, CV_CHAIN_APPROX_SIMPLE, cvPoint(0,0)); for(;cont;cont = cont->h_next) { CvRect r = ((CvContour*)cont)->rect;//创建矩形区域 if(r.height * r.width > CONTOUR_MAX_AERA) { //下面是在图像Img上绘制红色的矩形框,利用左上点和右下点 cvRectangle( img, cvPoint(r.x,r.y), cvPoint(r.x + r.width, r.y + r.height), CV_RGB(255,0,0), 1, CV_AA,0); } } cvReleaseMemStorage(&stor);//释放内存 cvReleaseImage( &pyr );//释放结构体}int _tmain(int argc, _TCHAR* argv[]){ IplImage* motion = 0; CvCapture* capture = 0; capture = cvCaptureFromFile("D://Capture1.avi");//获取视频文件 if( capture ) cvNamedWindow( "视频分析", 1 );//创建窗口 { for(;;) { IplImage* image; if( !cvGrabFrame( capture ))//如果读取视频失败,则退出 break; image = cvRetrieveFrame( capture );//获取图像 if( image ) { if( !motion ) { motion = cvCreateImage( cvSize(image->width,image->height), 8, 1 ); cvZero( motion ); motion->origin = image->origin; } } update_mhi( image, motion, 60);//运动目标检测,阈值为60 cvShowImage( "视频分析", image );//在窗口中显示图像 if( cvWaitKey(10) >= 0 ) break; } cvReleaseCapture( &capture );//释放 cvDestroyWindow( "视频分析" );//释放窗口 } return 0;}

目标检测与跟踪论文

运动目标检测与跟踪算法研究 视觉是人类感知自身周围复杂环境最直接有效的手段之一, 而在现实生活中 大量有意义的视觉信息都包含在运动中,人眼对运动的物体和目标也更敏感,能 够快速的发现运动目标, 并对目标的运动轨迹进行预测和描绘。 随着计算机技术、 通信技术、图像处理技术的不断发展,计算机视觉己成为目前的热点研究问题之 一。 而运动目标检测与跟踪是计算机视觉研究的核心课题之一, 融合了图像处理、 模式识别、人工智能、自动控制、计算机等众多领域的先进技术,在军事制导、 视觉导航、视频监控、智能交通、医疗诊断、工业产品检测等方面有着重要的实 用价值和广阔的发展前景。 1、国内外研究现状 1.1 运动目标检测 运动目标检测是指从序列图像中将运动的前景目标从背景图像中提取出来。 根据运动目标与摄像机之间的关系, 运动目标检测分为静态背景下的运动目标检 测和动态背景下的运动目标检测。 静态背景下的运动目标检测是指摄像机在整个 监视过程中不发生移动; 动态背景下的运动目标检测是指摄像机在监视过程中发 生了移动,如平动、旋转或多自由度运动等。 静态背景 静态背景下的运动目标检测方法主要有以下几种: (1)背景差分法 背景差分法是目前最常用的一种目标检测方法, 其基本思想就是首先获得一个 背景模型,然后将当前帧与背景模型相减,如果像素差值大于某一阈值,则判断 此像素属于运动目标,否则属于背景图像。利用当前图像与背景图像的差分来检 测运动区域,一般能够提供比较完整的特征数据,但对于动态场景的变化,如光 照和外来无关事件的干扰等特别敏感。 很多研究人员目前都致力于开发不同的背 景模型,以减少动态场景变化对运动目标检测的影响。背景模型的建立与更新、 阴影的去除等对跟踪结果的好坏至关重要。 背景差分法的实现简单,在固定背景下能够完整地精确、快速地分割出运动 对象。不足之处是易受环境光线变化的影响,需要加入背景图像更新机制,且只 对背景已知的运动对象检测比较有效, 不适用于摄像头运动或者背景灰度变化很 大的情况。 (2)帧间差分法 帧间差分法是在连续的图像序列中两个或三个相邻帧间, 采用基于像素的时 间差分并阈值化来提取图像中的运动区域。 帧间差分法对动态环境具有较强的自 适应性,但一般不能完全提取出所有相关的特征像素点,在运动实体内部容易产 生空洞现象。因此在相邻帧间差分法的基础上提出了对称差分法,它是对图像序 列中每连续三帧图像进行对称差分,检测出目标的运动范围,同时利用上一帧分 割出来的模板对检测出来的目标运动范围进行修正, 从而能较好地检测出中间帧 运动目标的形状轮廓。 帧间差分法非常适合于动态变化的环境,因为它只对运动物体敏感。实际上 它只检测相对运动的物体,而且因两幅图像的时间间隔较短,差分图像受光线 变化影响小,检测有效而稳定。该算法简单、速度快,已得到广泛应用。虽然该 方法不能够完整地分割运动对象,只能检测出物体运动变化的区域,但所检测出 的物体运动信息仍可用于进一步的目标分割。 (3)光流法 光流法就充分的利用了图像自身所携带的信息。在空间中,运动可以用运动 场描述,而在一个图像平面上,物体的运动往往是通过图像序列中图像灰度分布 的不同来体现,从而使空间中的运动场转移到图像上就表示为光流场。所谓光流 是指空间中物体被观测面上的像素点运动产生的瞬时速度场, 包含了物体表面结 构和动态行为等重要信息。 基于光流法的运动目标检测采用了运动目标随时间变 化的光流特性,由于光流不仅包含了被观测物体的运动信息,还携带了物体运动 和景物三位结构的丰富信息。 在比较理想的情况下,它能够检测独立运动的对象, 不需要预先知道场景的任何信息,可以很精确地计算出运动物体的速度,并且可 用于动态场景的情况。 但是大多数光流方法的计算相当复杂,对硬件要求比较高, 不适于实时处理,而且对噪声比较敏感,抗噪性差。并且由于遮挡、多光源、透明 性及噪声等原因,使得光流场基本方程——灰度守恒的假设条件无法满足,不能 正确求出光流场,计算方也相当复杂,计算量巨大,不能满足实时的要求。 动态背景 动态背景下的运动目标检测由于存在着目标与摄像机之间复杂的相对运动, 检测方法要比静态背景下的运动目标检测方法复杂。常用的检测方法有匹配法、 光流法以及全局运动估计法等。 2、运动目标跟踪 运动目标跟踪是确定同一物体在图像序列的不同帧中的位置的过程。 近年来 出现了大批运动目标跟踪方法,许多文献对这些方法进行了分类介绍,可将目标 跟踪方法分为四类:基于区域的跟踪、基于特征的跟踪、基于活动轮廓的跟踪、 基于模型的跟踪,这种分类方法概括了目前大多数跟踪方法,下面用这种分类方 法对目前的跟踪方法进行概括介绍。 (1)基于区域的跟踪 基于区域的跟踪方法基本思想是: 首先通过图像分割或预先人为确定提取包 含目标区域的模板,并设定一个相似性度量,然后在序列图像中搜索目标,把度 量取极值时对应的区域作为对应帧中的目标区域。 由于提取的目标模板包含了较 完整的目标信息,该方法在目标未被遮挡时,跟踪精度非常高,跟踪非常稳定, 但通常比较耗时,特别是当目标区域较大时,因此一般应用于跟踪较小的目标或 对比度较差的目标。该方法还可以和多种预测算法结合使用,如卡尔曼预测、粒 子预测等,以估计每帧图像中目标的位置。近年来,对基于区域的跟踪方法关注 较多的是如何处理运动目标姿态变化引起的模板变化时的情况以及目标被严重 遮挡时的情况。 (2)基于特征的跟踪 基于特征的跟踪方法基本思想是:首先提取目标的某个或某些局部特征,然 后利用某种匹配算法在图像序列中进行特征匹配,从而实现对目标的跟踪。该方 法的优点是即使目标部分被遮挡,只要还有一部分特征可以被看到,就可以完成 跟踪任务,另外,该方法还可与卡尔曼滤波器结合使用,实时性较好,因此常用 于复杂场景下对运动目标的实时、 鲁棒跟踪。 用于跟踪的特征很多, 如角点边缘、 形状、纹理、颜色等,如何从众多的特征中选取最具区分性、最稳定的特征是基 于特征的跟踪方法的关键和难点所在。 (3)基于活动轮廓的跟踪 基于活动轮廓的跟踪方法基本思想是:利用封闭的曲线轮廓表达运动目标, 结合图像特征、曲线轮廓构造能量函数,通过求解极小化能量实现曲线轮廓的自 动连续更新,从而实现对目标的跟踪。自Kass在1987年提出Snake模型以来,基 于活动轮廓的方法就开始广泛应用于目标跟踪领域。相对于基于区域的跟踪方 法,轮廓表达有减少复杂度的优点,而且在目标被部分遮挡的情况下也能连续的 进行跟踪,但是该方法的跟踪结果受初始化影响较大,对噪声也较为敏感。 (4)基于模型的跟踪 基于模型的跟踪方法基本思想是: 首先通过一定的先验知识对所跟踪目标建 立模型,然后通过匹配跟踪目标,并进行模型的实时更新。通常利用测量、CAD 工具和计算机视觉技术建立模型。主要有三种形式的模型,即线图模型、二维轮 廓模型和三维立体模型口61,应用较多的是运动目标的三维立体模型,尤其是对 刚体目标如汽车的跟踪。该方法的优点是可以精确分析目标的运动轨迹,即使在 目标姿态变化和部分遮挡的情况下也能够可靠的跟踪, 但跟踪精度取决于模型的 精度,而在现实生活中要获得所有运动目标的精确模型是非常困难的。 目标检测算法,至今已提出了数千种各种类型的算法,而且每年都有上百篇相 关的研究论文或报告发表。尽管人们在目标检测或图像分割等方面做了许多研 究,现己提出的分割算法大都是针对具体问题的,并没有一种适合于所有情况的 通用算法。 目前, 比较经典的运动目标检测算法有: 双帧差分法、 三帧差分法(对 称差分法)、背景差法、光流法等方法,这些方法之间并不是完全独立,而是可 以相互交融的。 目标跟踪的主要目的就是要建立目标运动的时域模型, 其算法的优劣直接影响 着运动目标跟踪的稳定性和精确度, 虽然对运动目标跟踪理论的研究已经进行了 很多年,但至今它仍然是计算机视觉等领域的研究热点问题之一。研究一种鲁棒 性好、精确、高性能的运动目标跟踪方法依然是该研究领域所面临的一个巨大挑 战。基于此目的,系统必须对每个独立的目标进行持续的跟踪。为了实现对复杂 环境中运动目标快速、稳定的跟踪,人们提出了众多算法,但先前的许多算法都 是针对刚体目标,或是将形变较小的非刚体近似为刚体目标进行跟踪,因而这些 算法难以实现对形状变化较大的非刚体目标的正确跟踪。 根据跟踪算法所用的预 测技术来划分,目前主要的跟踪算法有:基于均值漂移的方法、基于遗传算法的 方法、基于Kalman滤波器的方法、基于Monto Carlo的方法以及多假设跟踪的方 法等。 运动检测与目标跟踪算法模块 运动检测与目标跟踪算法模块 与目标跟踪 一、运动检测算法 1.算法效果 算法效果总体来说,对比度高的视频检测效果要优于对比度低的视频。 算法可以比较好地去除目标周围的浅影子,浅影的去除率在 80%以上。去影后目标的 完整性可以得到较好的保持,在 80%以上。在对比度比较高的环境中可以准确地识别较大 的滞留物或盗移物。 从对目标的检测率上来说,对小目标较难进行检测。一般目标小于 40 个像素就会被漏 掉。对于对比度不高的目标会检测不完整。总体上来说,算法在对比度较高的环境中漏检率 都较低,在 0.1%以下,在对比度不高或有小目标的场景下漏检率在 6%以下。 精细运动检测的目的是在较理想的环境下尽量精确地提取目标的轮廓和区域, 以供高层 进行应用。同时在分离距离较近目标和进行其它信息的进一步判断也具有一定的优势。 反映算法优缺点的详细效果如下所示: 去影子和完整性 效果好 公司内视频 左边的为去影前,右边的 为去影后的结果,可以看出在 完整 性和去影率上 都有所 突 出。 这两个视频的共周特点 城市交通 是,影子都是浅影子,视频噪 声不太明显。目标与背景的对 比度比较高。 效果差 这两个视频的特点是影子 都是深影子。虽然影子没有去 掉,但是物体的完整性是比较 高的。主要原因就是场景的对 路口,上午 十点 比度比较高。 滞留物检测和稳定性 效果好 会议室盗移 效果好的原因,一是盗移或 滞留目标与背景对比度较大,二 是目标本身尺寸较大。 另外盗移物或滞留物在保持 各自的状态期间不能受到光照变 化或其它明显运动目标的干扰, 要不然有可能会造成判断的不稳 定。 效果差 会议室 遗留 物 大部分时间内,滞留的判断 都是较稳定的,但是在后期出现 了不稳定。主要原因是目标太小 的原故。 因此在进行滞留物判断时, 大目标,对比度较高的环境有利 于判断的稳定性和准确性。 漏检率 效果好 城市交通 在对比度高的环境下, 目标相对都较大的情况下 (大于 40 个像素) 可以很 , 稳定的检测出目标。 在这种 条件下的漏检率通常都是 非常低的,在 0.1%以下。 效果差 行人-傍晚 和“行人”目录下 的 其 它 昏 暗 条件 下的视频 在对 比度较低的 情况 下,会造成检测结果不稳 定。漏检率较高。主要原因 是由于去影子造成的。 这种 对比度下的漏检率一般在 6%以下。 除了 对比度低是 造成 漏检的原因外, 过小的目标 也会造成漏检,一般是 40 个像素以下的目标都会被 忽略掉。 1.2 算法效率内存消耗(单位:b) .MD_ISRAM_data .MD_ISRAM_bss .MD_SDRAM_data 0x470 0x24 0x348 .MD_SDRAM_bss .MD_text 0x1a8480 0x6d40 速度 ms 运动区域占 2/3 左右时 CPU 占用率 一帧耗时 Max:57% Min:2.8% Avg:37.5% Max:23 Min:1.14 Avg:15 运动区域占 1/3 左右时 Max:45% Min:2.8% Avg:20% Max:18 Min:1.14 Avg:8 1.3 检测参数说明 检测参数说明 检测到的滞留物或盗走物的消失时间目前分别设定在 200 帧和 100 帧, 可以通过参数来 自行调整。 目前目标与背景的差异是根据局部光照强度所决定的, 范围在 4 个像素值以上。 目前参 数设置要求目标大小要在 20 个像素以上才能被检测到,可以通过参数来自行调整。 目标阴影的去除能力是可以调整的, 目前的参数设置可以去除大部分的浅影子和较小的 光照变化。 1.4 适用环境推荐光照条件较好(具有一定的对比度)的室内环境或室外环境。不易用它去检测过小的目 标,比如小于 40 个像素的目标。室外环境不易太复杂。输出目标为精细轮廓目标,可以为 后面高层应用提供良好的信息。 二、目标跟踪 2.1 稳定运行环境要求此版本跟踪算法与运动检测算法紧密结合, 对相机的架设和视频的背景环境和运动目标 数量运动方式有一定要求: 背景要求: 由于运动跟踪是基于运动检测的结果进行的, 所以对背景的要求和运动检测一样, 背景要求: 运动目标相对于背景要有一定反差。 运动目标:由于运动检测中,对较小的目标可能过滤掉。所以运动目标的大小要符合运动检 运动目标: 测的要求。运动目标的速度不能太大,要保证前后帧运动目标的重合面积大于 10 个像素。此阈值可修改(建议不要随意修改,过小,可能把碎片当成原目标分 裂出来的小目标,过大,可能失去跟踪。当然可试着调节以适应不同场景)。该 算法对由于运动检测在地面上产生的碎片抗干扰性比较差, 运动目标和碎片相遇 时,容易发生融合又分离的现象,造成轨迹混乱。消失目标和新生目标很容易当 成同一目标处理,所以可能出现一个新目标继承新生目标的轨迹。 运动方式: 运动目标的最大数量由外部设定。 但运动跟踪对运动目标比较稀疏的场景效果比 运动方式: 较好。 算法对由于运动检测在运动目标上产生的碎片有一定的抗干扰。 算法没对 物体的遮挡进行处理。对于两运动目标之间的遮挡按融合来处理。 拍摄角度: 拍摄角度:拍摄视野比较大,且最好是俯视拍摄。

一种用于三维空间杂波环境机动目标跟踪的数据互联方法,《电子与信息学报》2009年 第4期被动传感器阵列中基于粒子滤波的目标跟踪,《电子与信息学报》2009年 第4期一种新的嵌入式Linux高性能定时器实现方法,《信号处理》2009年 第3期一种新的红外弱小目标检测与跟踪算法,《信号处理》2008年 第6期被动传感器网基于修正Riccati方程的系统优化设计,《信号处理》2008年 第5期基于SIS框架和蚁群算法的非线性多目标跟踪,《电子与信息学报》2008年 第9期基于人类视觉系统的自适应数字水印算法,《上海交通大学学报》2008年 第7期一种基于电子签章的二值图像数字水印算法,《信号处理》2008年 第3期基于身份的网络化制造安全协同商务平台,《计算机工程》2008年 第13期基于Clifford代数传感器网络覆盖理论的路径分析,《电子学报》2007年 第B12期传感器网络高阶模糊覆盖分析,《电子学报》2007年 第B12期传感器网络最佳情况模糊覆盖问题研究,《电子学报》2007年 第B12期一种基于蚁群算法的多目标跟踪数据关联方法,《电子学报》2008年 第3期基于数据仓库的投资决策支持系统设计研究,《微电子学与计算机》2008年 第2期量子球壳聚类,《西安电子科技大学学报》2008年 第1期基于身份的安全邮件认证体系设计与分析,《计算机科学》2008年 第2期异类传感器系统目标快速定位方法,《系统工程与电子技术》2007年 第12期一种基于并行计算熵迁移策略的多分辨DOM数据生成算法,《中国科学技术大学学报》2007年 第12期基于模糊Hough变换的被动传感器系统航迹起始方法,《系统工程与电子技术》2007年 第11期THz信号处理与分析的研究现状和发展展望,《电子学报》2007年 第10期模糊数据互联滤波器及其在机动目标跟踪中的应用,《系统仿真学报》2007年 第20期分布式异类传感器网异步采样下的航迹起始算法,《系统工程与电子技术》2007年 第9期机动目标跟踪中数据互联新方法,《电子与信息学报》2007年 第10期一种新的视界覆盖遗传算法,《西安电子科技大学学报》2007年 第5期基于运动特征的远距离红外目标检测方法,《电子与信息学报》2007年 第8期被动传感器网基于模糊综合贴近度的航迹起始,《电子学报》2007年 第8期基于IBE的跨网络电子公文安全交换平台,《微计算机信息》2007年 第18期一种基于身份的无可信第三方签名方案,《深圳大学学报:理工版》2007年 第3期基于图像梯度场序列的双向GDIM光流计算方法,《电子学报》2007年 第7期一种基于身份的短数字签名方案,《微计算机信息》2007年 第21期分布式异类传感器网Hough变换航迹起始算法,《深圳大学学报:理工版》2007年 第2期基于DWT和DCT域的二值图像数字水印算法,《计算机与数字工程》2007年 第3期基于并行计算熵的同构集群负载均衡算法,《深圳大学学报:理工版》2007年 第1期基于unscented粒子滤波的红外弱小目标跟踪,《系统工程与电子技术》2007年 第1期一种空域DCT与时域DWT相结合的鲁棒视频数字水印算法,《中国体视学与图像分析》2006年 第4期图像插值方法对互信息局部极值的影响分析,《电子与信息学报》2006年 第10期网状被动传感器系统优化设计, 《系统工程与电子技术》2006年 第12期基于小波变换和目标运动特性的红外弱小目标检测, 《红外》2006年 第9期基于小波变换的红外弱小目标检测新方法,《红外技术》2006年 第7期在线CA的安全增强方案研究,《计算机工程》2006年 第11期基于ADSP—BF561车载多媒体系统,《现代电子技术》2006年 第3期空间分析中视界覆盖问题的研究,《系统工程与电子技术》2005年 第11期模糊观测数据的关联和目标跟踪,《信号处理》2005年 第4期从航空影像中自动提取高层建筑物,《计算机学报》2005年 第7期城市航空影像中基于模糊Retinex的阴影消除,《电子学报》2005年 第3期一种新的自适应图像模糊增强算法,《西安电子科技大学学报》2005年 第2期基于OAR模型的航空影像高层建筑自动提取,《深圳大学学报:理工版》2005年 第1期红外热图像序列中基于人体模型的目标头部定位方法,《激光与红外》2005年 第2期直线Snakes及其在建筑物提取中的应用,《西安电子科技大学学报》2005年 第1期网状被动传感器系统视线交叉目标定位方法,《电子与信息学报》2005年 第1期一种新的道路描述子:对称边缘方向直方图,《电子学报》2005年 第1期基于对称边缘方向直方图自动提取主要道路,《中国体视学与图像分析》2005年 第2期分布式被动传感器网异步采样下的机动目标跟踪,《系统仿真学报》2005年 第6期一种基于频带一致性的多模态图像校准算法,《通信学报》2005年 第4期基于模糊熵的自适应图像多层次模糊增强算法,《电子学报》2005年 第4期一种安全增强的基于椭圆曲线可验证门限签名方案,《计算机研究与发展》2005年 第4期密码学与数字水印在电子印章中的应用,《微机发展》2004年 第11期一种安全实用的电子公文系统设计与实现, 《现代电子技术》2004年 第21期基于DSP的PCI图像采集卡设计,《现代电子技术》2004年 第4期基于DSP组建短波电台无线数据传输网络的系统设计,《电子设计应用》2004年 第2期基于直方图的自适应高斯噪声滤波器,《系统工程与电子技术》2004年 第1期短波电台无线数据传输网络的组建,《现代电子技术》2004年 第3期半抑制式模糊C-均值聚类算法,《中国体视学与图像分析》2004年 第2期基于模糊推理的自动多级图像分割,《中国体视学与图像分析》2004年 第1期航空影像中立交桥的自动检测,《中国体视学与图像分析》2004年 第1期网状被动传感器系统航迹初始状态估计,《信号处理》2004年 第6期被动传感器系统分层快速关联算法,《电子学报》2004年 第12期一种基于模糊运算的多目标多传感器跟踪算法,《系统工程与电子技术》2004年 第11期异步被动传感器系统模糊Hough变换航迹起始算法,《系统工程与电子技术》2004年 第11期窗户纹理的时频描述及其在建筑物提取中的应用,《中国图象图形学报:A辑》2004年 第10期基于模糊熵的支撑矢量预选取方法,《复旦学报:自然科学版》2004年 第5期基于物方几何约束提取建筑物垂直边缘,《中国图象图形学报:A辑》2004年 第9期分布式网状被动传感器系统定位误差分析,《西安电子科技大学学报》2004年 第5期分布式网状被动传感器系统量测数据关联,《系统工程与电子技术》2004年 第12期基于核方法的分类型属性数据集模糊聚类算法,《华南理工大学学报:自然科学版》2004年 第9期基于模糊决策的密集多回波环境下航迹起始算法,《雷达与对抗》2004年 第3期红外传感器阵列基于信息冗余性的目标定位,《系统工程与电子技术》2004年 第8期基于核方法的模糊聚类算法,《西安电子科技大学学报》2004年 第4期一种用于模式识别的多色Voronoi图,《系统工程与电子技术》2004年 第7期基于DSP的短波电台无线数据传输网络实现,《深圳大学学报:理工版》2004年 第3期基于直方图的自适应图像去噪滤波器,《电子学报》2004年 第7期自适应模糊Hough变换,《电子学报》2004年 第6期基于主动秘密共享的安全容忍入侵方案,《兰州交通大学学报》2004年 第1期基于模糊熵的多值图像恢复方法,《西安电子科技大学学报》2004年 第2期

目标检测与跟踪技术论文

运动目标检测与跟踪算法研究 视觉是人类感知自身周围复杂环境最直接有效的手段之一, 而在现实生活中 大量有意义的视觉信息都包含在运动中,人眼对运动的物体和目标也更敏感,能 够快速的发现运动目标, 并对目标的运动轨迹进行预测和描绘。 随着计算机技术、 通信技术、图像处理技术的不断发展,计算机视觉己成为目前的热点研究问题之 一。 而运动目标检测与跟踪是计算机视觉研究的核心课题之一, 融合了图像处理、 模式识别、人工智能、自动控制、计算机等众多领域的先进技术,在军事制导、 视觉导航、视频监控、智能交通、医疗诊断、工业产品检测等方面有着重要的实 用价值和广阔的发展前景。 1、国内外研究现状 1.1 运动目标检测 运动目标检测是指从序列图像中将运动的前景目标从背景图像中提取出来。 根据运动目标与摄像机之间的关系, 运动目标检测分为静态背景下的运动目标检 测和动态背景下的运动目标检测。 静态背景下的运动目标检测是指摄像机在整个 监视过程中不发生移动; 动态背景下的运动目标检测是指摄像机在监视过程中发 生了移动,如平动、旋转或多自由度运动等。 静态背景 静态背景下的运动目标检测方法主要有以下几种: (1)背景差分法 背景差分法是目前最常用的一种目标检测方法, 其基本思想就是首先获得一个 背景模型,然后将当前帧与背景模型相减,如果像素差值大于某一阈值,则判断 此像素属于运动目标,否则属于背景图像。利用当前图像与背景图像的差分来检 测运动区域,一般能够提供比较完整的特征数据,但对于动态场景的变化,如光 照和外来无关事件的干扰等特别敏感。 很多研究人员目前都致力于开发不同的背 景模型,以减少动态场景变化对运动目标检测的影响。背景模型的建立与更新、 阴影的去除等对跟踪结果的好坏至关重要。 背景差分法的实现简单,在固定背景下能够完整地精确、快速地分割出运动 对象。不足之处是易受环境光线变化的影响,需要加入背景图像更新机制,且只 对背景已知的运动对象检测比较有效, 不适用于摄像头运动或者背景灰度变化很 大的情况。 (2)帧间差分法 帧间差分法是在连续的图像序列中两个或三个相邻帧间, 采用基于像素的时 间差分并阈值化来提取图像中的运动区域。 帧间差分法对动态环境具有较强的自 适应性,但一般不能完全提取出所有相关的特征像素点,在运动实体内部容易产 生空洞现象。因此在相邻帧间差分法的基础上提出了对称差分法,它是对图像序 列中每连续三帧图像进行对称差分,检测出目标的运动范围,同时利用上一帧分 割出来的模板对检测出来的目标运动范围进行修正, 从而能较好地检测出中间帧 运动目标的形状轮廓。 帧间差分法非常适合于动态变化的环境,因为它只对运动物体敏感。实际上 它只检测相对运动的物体,而且因两幅图像的时间间隔较短,差分图像受光线 变化影响小,检测有效而稳定。该算法简单、速度快,已得到广泛应用。虽然该 方法不能够完整地分割运动对象,只能检测出物体运动变化的区域,但所检测出 的物体运动信息仍可用于进一步的目标分割。 (3)光流法 光流法就充分的利用了图像自身所携带的信息。在空间中,运动可以用运动 场描述,而在一个图像平面上,物体的运动往往是通过图像序列中图像灰度分布 的不同来体现,从而使空间中的运动场转移到图像上就表示为光流场。所谓光流 是指空间中物体被观测面上的像素点运动产生的瞬时速度场, 包含了物体表面结 构和动态行为等重要信息。 基于光流法的运动目标检测采用了运动目标随时间变 化的光流特性,由于光流不仅包含了被观测物体的运动信息,还携带了物体运动 和景物三位结构的丰富信息。 在比较理想的情况下,它能够检测独立运动的对象, 不需要预先知道场景的任何信息,可以很精确地计算出运动物体的速度,并且可 用于动态场景的情况。 但是大多数光流方法的计算相当复杂,对硬件要求比较高, 不适于实时处理,而且对噪声比较敏感,抗噪性差。并且由于遮挡、多光源、透明 性及噪声等原因,使得光流场基本方程——灰度守恒的假设条件无法满足,不能 正确求出光流场,计算方也相当复杂,计算量巨大,不能满足实时的要求。 动态背景 动态背景下的运动目标检测由于存在着目标与摄像机之间复杂的相对运动, 检测方法要比静态背景下的运动目标检测方法复杂。常用的检测方法有匹配法、 光流法以及全局运动估计法等。 2、运动目标跟踪 运动目标跟踪是确定同一物体在图像序列的不同帧中的位置的过程。 近年来 出现了大批运动目标跟踪方法,许多文献对这些方法进行了分类介绍,可将目标 跟踪方法分为四类:基于区域的跟踪、基于特征的跟踪、基于活动轮廓的跟踪、 基于模型的跟踪,这种分类方法概括了目前大多数跟踪方法,下面用这种分类方 法对目前的跟踪方法进行概括介绍。 (1)基于区域的跟踪 基于区域的跟踪方法基本思想是: 首先通过图像分割或预先人为确定提取包 含目标区域的模板,并设定一个相似性度量,然后在序列图像中搜索目标,把度 量取极值时对应的区域作为对应帧中的目标区域。 由于提取的目标模板包含了较 完整的目标信息,该方法在目标未被遮挡时,跟踪精度非常高,跟踪非常稳定, 但通常比较耗时,特别是当目标区域较大时,因此一般应用于跟踪较小的目标或 对比度较差的目标。该方法还可以和多种预测算法结合使用,如卡尔曼预测、粒 子预测等,以估计每帧图像中目标的位置。近年来,对基于区域的跟踪方法关注 较多的是如何处理运动目标姿态变化引起的模板变化时的情况以及目标被严重 遮挡时的情况。 (2)基于特征的跟踪 基于特征的跟踪方法基本思想是:首先提取目标的某个或某些局部特征,然 后利用某种匹配算法在图像序列中进行特征匹配,从而实现对目标的跟踪。该方 法的优点是即使目标部分被遮挡,只要还有一部分特征可以被看到,就可以完成 跟踪任务,另外,该方法还可与卡尔曼滤波器结合使用,实时性较好,因此常用 于复杂场景下对运动目标的实时、 鲁棒跟踪。 用于跟踪的特征很多, 如角点边缘、 形状、纹理、颜色等,如何从众多的特征中选取最具区分性、最稳定的特征是基 于特征的跟踪方法的关键和难点所在。 (3)基于活动轮廓的跟踪 基于活动轮廓的跟踪方法基本思想是:利用封闭的曲线轮廓表达运动目标, 结合图像特征、曲线轮廓构造能量函数,通过求解极小化能量实现曲线轮廓的自 动连续更新,从而实现对目标的跟踪。自Kass在1987年提出Snake模型以来,基 于活动轮廓的方法就开始广泛应用于目标跟踪领域。相对于基于区域的跟踪方 法,轮廓表达有减少复杂度的优点,而且在目标被部分遮挡的情况下也能连续的 进行跟踪,但是该方法的跟踪结果受初始化影响较大,对噪声也较为敏感。 (4)基于模型的跟踪 基于模型的跟踪方法基本思想是: 首先通过一定的先验知识对所跟踪目标建 立模型,然后通过匹配跟踪目标,并进行模型的实时更新。通常利用测量、CAD 工具和计算机视觉技术建立模型。主要有三种形式的模型,即线图模型、二维轮 廓模型和三维立体模型口61,应用较多的是运动目标的三维立体模型,尤其是对 刚体目标如汽车的跟踪。该方法的优点是可以精确分析目标的运动轨迹,即使在 目标姿态变化和部分遮挡的情况下也能够可靠的跟踪, 但跟踪精度取决于模型的 精度,而在现实生活中要获得所有运动目标的精确模型是非常困难的。 目标检测算法,至今已提出了数千种各种类型的算法,而且每年都有上百篇相 关的研究论文或报告发表。尽管人们在目标检测或图像分割等方面做了许多研 究,现己提出的分割算法大都是针对具体问题的,并没有一种适合于所有情况的 通用算法。 目前, 比较经典的运动目标检测算法有: 双帧差分法、 三帧差分法(对 称差分法)、背景差法、光流法等方法,这些方法之间并不是完全独立,而是可 以相互交融的。 目标跟踪的主要目的就是要建立目标运动的时域模型, 其算法的优劣直接影响 着运动目标跟踪的稳定性和精确度, 虽然对运动目标跟踪理论的研究已经进行了 很多年,但至今它仍然是计算机视觉等领域的研究热点问题之一。研究一种鲁棒 性好、精确、高性能的运动目标跟踪方法依然是该研究领域所面临的一个巨大挑 战。基于此目的,系统必须对每个独立的目标进行持续的跟踪。为了实现对复杂 环境中运动目标快速、稳定的跟踪,人们提出了众多算法,但先前的许多算法都 是针对刚体目标,或是将形变较小的非刚体近似为刚体目标进行跟踪,因而这些 算法难以实现对形状变化较大的非刚体目标的正确跟踪。 根据跟踪算法所用的预 测技术来划分,目前主要的跟踪算法有:基于均值漂移的方法、基于遗传算法的 方法、基于Kalman滤波器的方法、基于Monto Carlo的方法以及多假设跟踪的方 法等。 运动检测与目标跟踪算法模块 运动检测与目标跟踪算法模块 与目标跟踪 一、运动检测算法 1.算法效果 算法效果总体来说,对比度高的视频检测效果要优于对比度低的视频。 算法可以比较好地去除目标周围的浅影子,浅影的去除率在 80%以上。去影后目标的 完整性可以得到较好的保持,在 80%以上。在对比度比较高的环境中可以准确地识别较大 的滞留物或盗移物。 从对目标的检测率上来说,对小目标较难进行检测。一般目标小于 40 个像素就会被漏 掉。对于对比度不高的目标会检测不完整。总体上来说,算法在对比度较高的环境中漏检率 都较低,在 0.1%以下,在对比度不高或有小目标的场景下漏检率在 6%以下。 精细运动检测的目的是在较理想的环境下尽量精确地提取目标的轮廓和区域, 以供高层 进行应用。同时在分离距离较近目标和进行其它信息的进一步判断也具有一定的优势。 反映算法优缺点的详细效果如下所示: 去影子和完整性 效果好 公司内视频 左边的为去影前,右边的 为去影后的结果,可以看出在 完整 性和去影率上 都有所 突 出。 这两个视频的共周特点 城市交通 是,影子都是浅影子,视频噪 声不太明显。目标与背景的对 比度比较高。 效果差 这两个视频的特点是影子 都是深影子。虽然影子没有去 掉,但是物体的完整性是比较 高的。主要原因就是场景的对 路口,上午 十点 比度比较高。 滞留物检测和稳定性 效果好 会议室盗移 效果好的原因,一是盗移或 滞留目标与背景对比度较大,二 是目标本身尺寸较大。 另外盗移物或滞留物在保持 各自的状态期间不能受到光照变 化或其它明显运动目标的干扰, 要不然有可能会造成判断的不稳 定。 效果差 会议室 遗留 物 大部分时间内,滞留的判断 都是较稳定的,但是在后期出现 了不稳定。主要原因是目标太小 的原故。 因此在进行滞留物判断时, 大目标,对比度较高的环境有利 于判断的稳定性和准确性。 漏检率 效果好 城市交通 在对比度高的环境下, 目标相对都较大的情况下 (大于 40 个像素) 可以很 , 稳定的检测出目标。 在这种 条件下的漏检率通常都是 非常低的,在 0.1%以下。 效果差 行人-傍晚 和“行人”目录下 的 其 它 昏 暗 条件 下的视频 在对 比度较低的 情况 下,会造成检测结果不稳 定。漏检率较高。主要原因 是由于去影子造成的。 这种 对比度下的漏检率一般在 6%以下。 除了 对比度低是 造成 漏检的原因外, 过小的目标 也会造成漏检,一般是 40 个像素以下的目标都会被 忽略掉。 1.2 算法效率内存消耗(单位:b) .MD_ISRAM_data .MD_ISRAM_bss .MD_SDRAM_data 0x470 0x24 0x348 .MD_SDRAM_bss .MD_text 0x1a8480 0x6d40 速度 ms 运动区域占 2/3 左右时 CPU 占用率 一帧耗时 Max:57% Min:2.8% Avg:37.5% Max:23 Min:1.14 Avg:15 运动区域占 1/3 左右时 Max:45% Min:2.8% Avg:20% Max:18 Min:1.14 Avg:8 1.3 检测参数说明 检测参数说明 检测到的滞留物或盗走物的消失时间目前分别设定在 200 帧和 100 帧, 可以通过参数来 自行调整。 目前目标与背景的差异是根据局部光照强度所决定的, 范围在 4 个像素值以上。 目前参 数设置要求目标大小要在 20 个像素以上才能被检测到,可以通过参数来自行调整。 目标阴影的去除能力是可以调整的, 目前的参数设置可以去除大部分的浅影子和较小的 光照变化。 1.4 适用环境推荐光照条件较好(具有一定的对比度)的室内环境或室外环境。不易用它去检测过小的目 标,比如小于 40 个像素的目标。室外环境不易太复杂。输出目标为精细轮廓目标,可以为 后面高层应用提供良好的信息。 二、目标跟踪 2.1 稳定运行环境要求此版本跟踪算法与运动检测算法紧密结合, 对相机的架设和视频的背景环境和运动目标 数量运动方式有一定要求: 背景要求: 由于运动跟踪是基于运动检测的结果进行的, 所以对背景的要求和运动检测一样, 背景要求: 运动目标相对于背景要有一定反差。 运动目标:由于运动检测中,对较小的目标可能过滤掉。所以运动目标的大小要符合运动检 运动目标: 测的要求。运动目标的速度不能太大,要保证前后帧运动目标的重合面积大于 10 个像素。此阈值可修改(建议不要随意修改,过小,可能把碎片当成原目标分 裂出来的小目标,过大,可能失去跟踪。当然可试着调节以适应不同场景)。该 算法对由于运动检测在地面上产生的碎片抗干扰性比较差, 运动目标和碎片相遇 时,容易发生融合又分离的现象,造成轨迹混乱。消失目标和新生目标很容易当 成同一目标处理,所以可能出现一个新目标继承新生目标的轨迹。 运动方式: 运动目标的最大数量由外部设定。 但运动跟踪对运动目标比较稀疏的场景效果比 运动方式: 较好。 算法对由于运动检测在运动目标上产生的碎片有一定的抗干扰。 算法没对 物体的遮挡进行处理。对于两运动目标之间的遮挡按融合来处理。 拍摄角度: 拍摄角度:拍摄视野比较大,且最好是俯视拍摄。

论文名称:Rich feature hierarchies for accurate object detection and semantic segmentation 提出时间:2014年 论文地址: 针对问题: 从Alexnet提出后,作者等人思考如何利用卷积网络来完成检测任务,即输入一张图,实现图上目标的定位(目标在哪)和分类(目标是什么)两个目标,并最终完成了RCNN网络模型。 创新点: RCNN提出时,检测网络的执行思路还是脱胎于分类网络。也就是深度学习部分仅完成输入图像块的分类工作。那么对检测任务来说如何完成目标的定位呢,作者采用的是Selective Search候选区域提取算法,来获得当前输入图上可能包含目标的不同图像块,再将图像块裁剪到固定的尺寸输入CNN网络来进行当前图像块类别的判断。 参考博客: 。 论文题目:OverFeat: Integrated Recognition, Localization and Detection using Convolutional Networks 提出时间:2014年 论文地址: 针对问题: 该论文讨论了,CNN提取到的特征能够同时用于定位和分类两个任务。也就是在CNN提取到特征以后,在网络后端组织两组卷积或全连接层,一组用于实现定位,输出当前图像上目标的最小外接矩形框坐标,一组用于分类,输出当前图像上目标的类别信息。也是以此为起点,检测网络出现基础主干网络(backbone)+分类头或回归头(定位头)的网络设计模式雏形。 创新点: 在这篇论文中还有两个比较有意思的点,一是作者认为全连接层其实质实现的操作和1x1的卷积是类似的,而且用1x1的卷积核还可以避免FC对输入特征尺寸的限制,那用1x1卷积来替换FC层,是否可行呢?作者在测试时通过将全连接层替换为1x1卷积核证明是可行的;二是提出了offset max-pooling,也就是对池化层输入特征不能整除的情况,通过进行滑动池化并将不同的池化层传递给后续网络层来提高效果。另外作者在论文里提到他的用法是先基于主干网络+分类头训练,然后切换分类头为回归头,再训练回归头的参数,最终完成整个网络的训练。图像的输入作者采用的是直接在输入图上利用卷积核划窗。然后在指定的每个网络层上回归目标的尺度和空间位置。 参考博客: 论文题目:Scalable Object Detection using Deep Neural Networks 提出时间:2014年 论文地址: 针对问题: 既然CNN网络提取的特征可以直接用于检测任务(定位+分类),作者就尝试将目标框(可能包含目标的最小外包矩形框)提取任务放到CNN中进行。也就是直接通过网络完成输入图像上目标的定位工作。 创新点: 本文作者通过将物体检测问题定义为输出多个bounding box的回归问题. 同时每个bounding box会输出关于是否包含目标物体的置信度, 使得模型更加紧凑和高效。先通过聚类获得图像中可能有目标的位置聚类中心,(800个anchor box)然后学习预测不考虑目标类别的二分类网络,背景or前景。用到了多尺度下的检测。 参考博客: 论文题目:DeepBox: Learning Objectness with Convolutional Networks 提出时间:2015年ICCV 论文地址: 主要针对的问题: 本文完成的工作与第三篇类似,都是对目标框提取算法的优化方案,区别是本文首先采用自底而上的方案来提取图像上的疑似目标框,然后再利用CNN网络提取特征对目标框进行是否为前景区域的排序;而第三篇为直接利用CNN网络来回归图像上可能的目标位置。创新点: 本文作者想通过CNN学习输入图像的特征,从而实现对输入网络目标框是否为真实目标的情况进行计算,量化每个输入框的包含目标的可能性值。 参考博客: 论文题目:AttentionNet: AggregatingWeak Directions for Accurate Object Detection 提出时间:2015年ICCV 论文地址: 主要针对的问题: 对检测网络的实现方案进行思考,之前的执行策略是,先确定输入图像中可能包含目标位置的矩形框,再对每个矩形框进行分类和回归从而确定目标的准确位置,参考RCNN。那么能否直接利用回归的思路从图像的四个角点,逐渐得到目标的最小外接矩形框和类别呢? 创新点: 通过从图像的四个角点,逐步迭代的方式,每次计算一个缩小的方向,并缩小指定的距离来使得逐渐逼近目标。作者还提出了针对多目标情况的处理方式。 参考博客: 论文题目:Spatial Pyramid Pooling in Deep Convolutional Networks for Visual Recognition 提出时间:2014年 论文地址: 针对问题: 如RCNN会将输入的目标图像块处理到同一尺寸再输入进CNN网络,在处理过程中就造成了图像块信息的损失。在实际的场景中,输入网络的目标尺寸很难统一,而网络最后的全连接层又要求输入的特征信息为统一维度的向量。作者就尝试进行不同尺寸CNN网络提取到的特征维度进行统一。创新点: 作者提出的SPPnet中,通过使用特征金字塔池化来使得最后的卷积层输出结果可以统一到全连接层需要的尺寸,在训练的时候,池化的操作还是通过滑动窗口完成的,池化的核宽高及步长通过当前层的特征图的宽高计算得到。原论文中的特征金字塔池化操作图示如下。 参考博客 : 论文题目:Object detection via a multi-region & semantic segmentation-aware CNN model 提出时间:2015年 论文地址: 针对问题: 既然第三篇论文multibox算法提出了可以用CNN来实现输入图像中待检测目标的定位,本文作者就尝试增加一些训练时的方法技巧来提高CNN网络最终的定位精度。创新点: 作者通过对输入网络的region进行一定的处理(通过数据增强,使得网络利用目标周围的上下文信息得到更精准的目标框)来增加网络对目标回归框的精度。具体的处理方式包括:扩大输入目标的标签包围框、取输入目标的标签中包围框的一部分等并对不同区域分别回归位置,使得网络对目标的边界更加敏感。这种操作丰富了输入目标的多样性,从而提高了回归框的精度。 参考博客 : 论文题目:Fast-RCNN 提出时间:2015年 论文地址: 针对问题: RCNN中的CNN每输入一个图像块就要执行一次前向计算,这显然是非常耗时的,那么如何优化这部分呢? 创新点: 作者参考了SPPNet(第六篇论文),在网络中实现了ROIpooling来使得输入的图像块不用裁剪到统一尺寸,从而避免了输入的信息丢失。其次是将整张图输入网络得到特征图,再将原图上用Selective Search算法得到的目标框映射到特征图上,避免了特征的重复提取。 参考博客 : 论文题目:DeepProposal: Hunting Objects by Cascading Deep Convolutional Layers 提出时间:2015年 论文地址: 主要针对的问题: 本文的作者观察到CNN可以提取到很棒的对输入图像进行表征的论文,作者尝试通过实验来对CNN网络不同层所产生的特征的作用和情况进行讨论和解析。 创新点: 作者在不同的激活层上以滑动窗口的方式生成了假设,并表明最终的卷积层可以以较高的查全率找到感兴趣的对象,但是由于特征图的粗糙性,定位性很差。相反,网络的第一层可以更好地定位感兴趣的对象,但召回率降低。 论文题目:Faster R-CNN: Towards Real-Time Object Detection with Region Proposal Networks 提出时间:2015年NIPS 论文地址: 主要针对的问题: 由multibox(第三篇)和DeepBox(第四篇)等论文,我们知道,用CNN可以生成目标待检测框,并判定当前框为目标的概率,那能否将该模型整合到目标检测的模型中,从而实现真正输入端为图像,输出为最终检测结果的,全部依赖CNN完成的检测系统呢? 创新点: 将当前输入图目标框提取整合到了检测网络中,依赖一个小的目标框提取网络RPN来替代Selective Search算法,从而实现真正的端到端检测算法。 参考博客 :

机械自动化论文参考文献

文后参考文献的著录来源是被著录的文献本身。专著、连续出版物等可依次按题名页、封面、刊头等著录。缩微制品、录音制品等非书资料可依据题名帧、片头、容器上的标签、附件等著录。下面是我和大家分享的机械自动化论文参考文献,更多内容请关注(www.oh100.com/bylw)。

篇一:参考文献

[1] 王飞,刘洪才,潘立冬. 分层式结构变电站自动化通信系统研究综述[J]. 华北电力大学学报(自然科学版). 2007(01)

[2] 周文瑜,温刚,王钇,苏迪. SCL在变电站自动化系统的应用[J]. 继电器. 2007(15)

[3] 郭嘉,韩力,罗建,高仕红. SCL在变电站智能电子装置通信配置中的应用[J]. 重庆大学学报(自然科学版). 2006(12)

[4] 谢志迅,邓素碧,臧德扬. 数字化变电站通信网络冗余技术[J]. 电力自动化设备. 2011(09)

[5] 刘洋,罗毅,易秀成,涂光瑜,陈维莉,江伟. 变电站综合自动化系统的软件可靠性研究[J]. 继电器. 2006(18)

[6] 唐富华,郭银景,杨阳. 基于IEC61850和嵌入式以太网的变电站网络通信系统[J]. 电气自动化. 2006(03)

[7] 李俊刚,宋小会,狄军峰,魏勇. 基于IEC 62439-3的智能变电站通信网络冗余设计[J]. 电力系统自动化. 2011(10)

[8] 王凤祥,方春恩,李伟. 基于IEC61850的SCL配置研究与工具开发[J]. 电力系统保护与控制. 2010(10)

[9] 于敏,何正友,钱清泉. 基于Markov过程的硬/软件综合系统可靠性分析[J]. 电子学报. 2010(02)

[10] 窦晓波,胡敏强,吴在军,杜炎森,闵涛. 数字化变电站通信网络的组建与冗余方案[J]. 电力自动化设备. 2008(01)

[11] 唐富华,郭银景,杨阳. 基于IEC61850和嵌入式以太网的变电站网络通信系统[J]. 电气自动化. 2006(03)

[12] 张沛超,高翔. 全数字化保护系统的可靠性及元件重要度分析[J]. 中国电机工程学报. 2008(01)

[13] 许铁峰,徐习东. 高可用性无缝环网在数字化变电站通信网络的应用[J]. 电力自动化设备. 2011(10)

[14] 童晓阳,廖晨淞,周立龙,李映川,章力,王晓茹,许克崃. 基于IEC 61850-9-2的变电站通信网络仿真[J]. 电力系统自动化. 2010(02)

[15] 王丽华,马君华,王传启,马长武,江涛,韩明峰,王志华,张丽胜,种惠敏. 变电站配置描述语言SCL的应用研究[J]. 电网技术. 2006(S1)

[16] 陈原子,徐习东. 基于并行冗余网络的数字化变电站通信网络构架[J]. 电力自动化设备. 2011(01)

[17] 方晓洁,季夏轶,卢志刚. 基于OPNET的数字化变电站继电保护通信网络仿真研究[J]. 电力系统保护与控制. 2010(23)

篇二:参考文献

[1] 杜厚鹏. 基于监控视频的`运动车辆检测与违章分析[D]. 南京邮电大学 2014

[2] 尹雪雯. 中波发射台自动化监控系统的实践和完善[J]. 电子技术与软件工程. 2014(16)

[3] 李宗辰. 基于Android的多路视频监控用户平台的研究与实现[D]. 南京邮电大学 2014

[4] 孙娜. 中波发射台自动化监控系统的实践和完善[J]. 视听. 2013(05)

[5] 朱少坡. 视频监控中目标的空间定位优化技术研究[D]. 南京邮电大学 2014

[6] 沈忱. 视频监控中的预处理、目标检测和跟踪方法研究[D]. 南京邮电大学 2014

[7] 高滨,孙长海. 论广播电视发射台自动化监控桌系统[J]. 西部广播电视. 2013(Z2)

[8] 邬雪梅. 广播电视发射台自动化监控系统[J]. 科技传播. 2013(02)

[9] 张琦等编着.数字电视制播技术[M]. 中国广播电视出版社, 2003

[10] 曹金泉. 广播电视发射台站自动化监控系统建设[J]. 电子世界. 2012(19)

[11] 廖楚加. 自动化监控技术在电视发射台系统中的应用研究[J]. 信息通信. 2012(04)

[12] 王涛. 基于OMAP的嵌入式视频监控系统[D]. 南京邮电大学 2014

[13] 朱兴华. 中波发射台实现自动化监控如何解决干扰问题[J]. 内蒙古广播与电视技术. 2011(01)

[14] 刘剑波等编着.有线电视网络[M]. 中国广播电视出版社, 2003

[15] 张红波. 嵌入式系统视频会议控制技术的研究与实现[D]. 南京邮电大学 2014

[16] 李松. 天网高清视频监控存储系统设计与实现[D]. 南昌大学 2015

[17] 刘翔. 城市视频监控系统设计与实现[D]. 南京邮电大学 2013

[18] 李森. 在广播发射台中实现监控自动化设计[J]. 信息通信. 2013(08)

[19] 赵栖平. 监控视频中基于在线学习的车辆跟踪检测算法与实现[D]. 南京邮电大学 2014

篇三:参考文献

[1] 吴莹. 基于Selenium的Web自动化测试框架[J]. 科技传播. 2011(18)

[2] 顾国庆. 移动图书馆的研发与实现[D]. 南昌大学 2015

[3] 高凌琴. 基于STAF的自动化测试框架的研究[J]. 曲阜师范大学学报(自然科学版). 2011(03)

[4] 王玉蓉. 青南村村务信息管理系统的研究与开发[D]. 浙江农林大学 2013

[5] 李斌. 工控软件的层次化设计及应用[D]. 苏州大学 2014

[6] 李首文,何贵兵. 自动技术在软件测试过程中的研究与实施[J]. 科技信息. 2011(15)

[7] 周宁. 移动考勤管理的应用与研究[D]. 南昌大学 2014

[8] 姚砺,束永安. 软件测试自动化关键技术的研究[J]. 安徽大学学报(自然科学版). 2003(04)

[9] 张永梅,陈立潮,马礼,郭韶升. 软件测试技术研究[J]. 测试技术学报. 2002(02)

[10] 吕诚昭,孟洛明. 一个软件测试自动化系统:TSBAG[J]. 北京邮电学院学报. 1993(01)

[11] 徐磊. 烟草行业商零物流在途监管信息系统设计[D]. 南昌大学 2014

[12] 黄彪贤,熊建斌,李振坤. 金融软件功能自动化测试的分析及应用[J]. 计算机工程与设计. 2012(02)

[13] 兰欣. 微信公众平台CMS的设计与实现[D]. 南昌大学 2015

[14] 刘腾. 软件测试技术与自动化测试框架模型的研究与应用[J]. 电脑知识与技术. 2009(26)

[15] 中国农业银行股份有限公司江苏省南通市分行课题组. 银行软件自动化测试技术的应用[J]. 中国金融电脑. 2009(12)

[16] 郭巍,龚兵,张武光. 基于数据操作的自动化测试技术研究与应用[J]. 飞行器测控学报. 2009(04)

[17] 赵杰,张晶,高继森. 基于XML的测试用例复用[J]. 重庆工学院学报(自然科学版). 2007(09)

[18] 刘星,蔡勉,李燕,郭颖. 基于关键字驱动机制的安全操作系统的测评系统[J]. 计算机安全. 2009(10)

[19] 蒋云,赵佳宝. 自动化测试脚本自动生成技术的研究[J]. 计算机技术与发展. 2007(07)

运动物体检测与追踪学士论文

能不能给我发一份呢?

同意一楼,唯一有分歧的是15万,而不是1.5万

运动目标检测与跟踪算法研究 视觉是人类感知自身周围复杂环境最直接有效的手段之一, 而在现实生活中 大量有意义的视觉信息都包含在运动中,人眼对运动的物体和目标也更敏感,能 够快速的发现运动目标, 并对目标的运动轨迹进行预测和描绘。 随着计算机技术、 通信技术、图像处理技术的不断发展,计算机视觉己成为目前的热点研究问题之 一。 而运动目标检测与跟踪是计算机视觉研究的核心课题之一, 融合了图像处理、 模式识别、人工智能、自动控制、计算机等众多领域的先进技术,在军事制导、 视觉导航、视频监控、智能交通、医疗诊断、工业产品检测等方面有着重要的实 用价值和广阔的发展前景。 1、国内外研究现状 1.1 运动目标检测 运动目标检测是指从序列图像中将运动的前景目标从背景图像中提取出来。 根据运动目标与摄像机之间的关系, 运动目标检测分为静态背景下的运动目标检 测和动态背景下的运动目标检测。 静态背景下的运动目标检测是指摄像机在整个 监视过程中不发生移动; 动态背景下的运动目标检测是指摄像机在监视过程中发 生了移动,如平动、旋转或多自由度运动等。 静态背景 静态背景下的运动目标检测方法主要有以下几种: (1)背景差分法 背景差分法是目前最常用的一种目标检测方法, 其基本思想就是首先获得一个 背景模型,然后将当前帧与背景模型相减,如果像素差值大于某一阈值,则判断 此像素属于运动目标,否则属于背景图像。利用当前图像与背景图像的差分来检 测运动区域,一般能够提供比较完整的特征数据,但对于动态场景的变化,如光 照和外来无关事件的干扰等特别敏感。 很多研究人员目前都致力于开发不同的背 景模型,以减少动态场景变化对运动目标检测的影响。背景模型的建立与更新、 阴影的去除等对跟踪结果的好坏至关重要。 背景差分法的实现简单,在固定背景下能够完整地精确、快速地分割出运动 对象。不足之处是易受环境光线变化的影响,需要加入背景图像更新机制,且只 对背景已知的运动对象检测比较有效, 不适用于摄像头运动或者背景灰度变化很 大的情况。 (2)帧间差分法 帧间差分法是在连续的图像序列中两个或三个相邻帧间, 采用基于像素的时 间差分并阈值化来提取图像中的运动区域。 帧间差分法对动态环境具有较强的自 适应性,但一般不能完全提取出所有相关的特征像素点,在运动实体内部容易产 生空洞现象。因此在相邻帧间差分法的基础上提出了对称差分法,它是对图像序 列中每连续三帧图像进行对称差分,检测出目标的运动范围,同时利用上一帧分 割出来的模板对检测出来的目标运动范围进行修正, 从而能较好地检测出中间帧 运动目标的形状轮廓。 帧间差分法非常适合于动态变化的环境,因为它只对运动物体敏感。实际上 它只检测相对运动的物体,而且因两幅图像的时间间隔较短,差分图像受光线 变化影响小,检测有效而稳定。该算法简单、速度快,已得到广泛应用。虽然该 方法不能够完整地分割运动对象,只能检测出物体运动变化的区域,但所检测出 的物体运动信息仍可用于进一步的目标分割。 (3)光流法 光流法就充分的利用了图像自身所携带的信息。在空间中,运动可以用运动 场描述,而在一个图像平面上,物体的运动往往是通过图像序列中图像灰度分布 的不同来体现,从而使空间中的运动场转移到图像上就表示为光流场。所谓光流 是指空间中物体被观测面上的像素点运动产生的瞬时速度场, 包含了物体表面结 构和动态行为等重要信息。 基于光流法的运动目标检测采用了运动目标随时间变 化的光流特性,由于光流不仅包含了被观测物体的运动信息,还携带了物体运动 和景物三位结构的丰富信息。 在比较理想的情况下,它能够检测独立运动的对象, 不需要预先知道场景的任何信息,可以很精确地计算出运动物体的速度,并且可 用于动态场景的情况。 但是大多数光流方法的计算相当复杂,对硬件要求比较高, 不适于实时处理,而且对噪声比较敏感,抗噪性差。并且由于遮挡、多光源、透明 性及噪声等原因,使得光流场基本方程——灰度守恒的假设条件无法满足,不能 正确求出光流场,计算方也相当复杂,计算量巨大,不能满足实时的要求。 动态背景 动态背景下的运动目标检测由于存在着目标与摄像机之间复杂的相对运动, 检测方法要比静态背景下的运动目标检测方法复杂。常用的检测方法有匹配法、 光流法以及全局运动估计法等。 2、运动目标跟踪 运动目标跟踪是确定同一物体在图像序列的不同帧中的位置的过程。 近年来 出现了大批运动目标跟踪方法,许多文献对这些方法进行了分类介绍,可将目标 跟踪方法分为四类:基于区域的跟踪、基于特征的跟踪、基于活动轮廓的跟踪、 基于模型的跟踪,这种分类方法概括了目前大多数跟踪方法,下面用这种分类方 法对目前的跟踪方法进行概括介绍。 (1)基于区域的跟踪 基于区域的跟踪方法基本思想是: 首先通过图像分割或预先人为确定提取包 含目标区域的模板,并设定一个相似性度量,然后在序列图像中搜索目标,把度 量取极值时对应的区域作为对应帧中的目标区域。 由于提取的目标模板包含了较 完整的目标信息,该方法在目标未被遮挡时,跟踪精度非常高,跟踪非常稳定, 但通常比较耗时,特别是当目标区域较大时,因此一般应用于跟踪较小的目标或 对比度较差的目标。该方法还可以和多种预测算法结合使用,如卡尔曼预测、粒 子预测等,以估计每帧图像中目标的位置。近年来,对基于区域的跟踪方法关注 较多的是如何处理运动目标姿态变化引起的模板变化时的情况以及目标被严重 遮挡时的情况。 (2)基于特征的跟踪 基于特征的跟踪方法基本思想是:首先提取目标的某个或某些局部特征,然 后利用某种匹配算法在图像序列中进行特征匹配,从而实现对目标的跟踪。该方 法的优点是即使目标部分被遮挡,只要还有一部分特征可以被看到,就可以完成 跟踪任务,另外,该方法还可与卡尔曼滤波器结合使用,实时性较好,因此常用 于复杂场景下对运动目标的实时、 鲁棒跟踪。 用于跟踪的特征很多, 如角点边缘、 形状、纹理、颜色等,如何从众多的特征中选取最具区分性、最稳定的特征是基 于特征的跟踪方法的关键和难点所在。 (3)基于活动轮廓的跟踪 基于活动轮廓的跟踪方法基本思想是:利用封闭的曲线轮廓表达运动目标, 结合图像特征、曲线轮廓构造能量函数,通过求解极小化能量实现曲线轮廓的自 动连续更新,从而实现对目标的跟踪。自Kass在1987年提出Snake模型以来,基 于活动轮廓的方法就开始广泛应用于目标跟踪领域。相对于基于区域的跟踪方 法,轮廓表达有减少复杂度的优点,而且在目标被部分遮挡的情况下也能连续的 进行跟踪,但是该方法的跟踪结果受初始化影响较大,对噪声也较为敏感。 (4)基于模型的跟踪 基于模型的跟踪方法基本思想是: 首先通过一定的先验知识对所跟踪目标建 立模型,然后通过匹配跟踪目标,并进行模型的实时更新。通常利用测量、CAD 工具和计算机视觉技术建立模型。主要有三种形式的模型,即线图模型、二维轮 廓模型和三维立体模型口61,应用较多的是运动目标的三维立体模型,尤其是对 刚体目标如汽车的跟踪。该方法的优点是可以精确分析目标的运动轨迹,即使在 目标姿态变化和部分遮挡的情况下也能够可靠的跟踪, 但跟踪精度取决于模型的 精度,而在现实生活中要获得所有运动目标的精确模型是非常困难的。 目标检测算法,至今已提出了数千种各种类型的算法,而且每年都有上百篇相 关的研究论文或报告发表。尽管人们在目标检测或图像分割等方面做了许多研 究,现己提出的分割算法大都是针对具体问题的,并没有一种适合于所有情况的 通用算法。 目前, 比较经典的运动目标检测算法有: 双帧差分法、 三帧差分法(对 称差分法)、背景差法、光流法等方法,这些方法之间并不是完全独立,而是可 以相互交融的。 目标跟踪的主要目的就是要建立目标运动的时域模型, 其算法的优劣直接影响 着运动目标跟踪的稳定性和精确度, 虽然对运动目标跟踪理论的研究已经进行了 很多年,但至今它仍然是计算机视觉等领域的研究热点问题之一。研究一种鲁棒 性好、精确、高性能的运动目标跟踪方法依然是该研究领域所面临的一个巨大挑 战。基于此目的,系统必须对每个独立的目标进行持续的跟踪。为了实现对复杂 环境中运动目标快速、稳定的跟踪,人们提出了众多算法,但先前的许多算法都 是针对刚体目标,或是将形变较小的非刚体近似为刚体目标进行跟踪,因而这些 算法难以实现对形状变化较大的非刚体目标的正确跟踪。 根据跟踪算法所用的预 测技术来划分,目前主要的跟踪算法有:基于均值漂移的方法、基于遗传算法的 方法、基于Kalman滤波器的方法、基于Monto Carlo的方法以及多假设跟踪的方 法等。 运动检测与目标跟踪算法模块 运动检测与目标跟踪算法模块 与目标跟踪 一、运动检测算法 1.算法效果 算法效果总体来说,对比度高的视频检测效果要优于对比度低的视频。 算法可以比较好地去除目标周围的浅影子,浅影的去除率在 80%以上。去影后目标的 完整性可以得到较好的保持,在 80%以上。在对比度比较高的环境中可以准确地识别较大 的滞留物或盗移物。 从对目标的检测率上来说,对小目标较难进行检测。一般目标小于 40 个像素就会被漏 掉。对于对比度不高的目标会检测不完整。总体上来说,算法在对比度较高的环境中漏检率 都较低,在 0.1%以下,在对比度不高或有小目标的场景下漏检率在 6%以下。 精细运动检测的目的是在较理想的环境下尽量精确地提取目标的轮廓和区域, 以供高层 进行应用。同时在分离距离较近目标和进行其它信息的进一步判断也具有一定的优势。 反映算法优缺点的详细效果如下所示: 去影子和完整性 效果好 公司内视频 左边的为去影前,右边的 为去影后的结果,可以看出在 完整 性和去影率上 都有所 突 出。 这两个视频的共周特点 城市交通 是,影子都是浅影子,视频噪 声不太明显。目标与背景的对 比度比较高。 效果差 这两个视频的特点是影子 都是深影子。虽然影子没有去 掉,但是物体的完整性是比较 高的。主要原因就是场景的对 路口,上午 十点 比度比较高。 滞留物检测和稳定性 效果好 会议室盗移 效果好的原因,一是盗移或 滞留目标与背景对比度较大,二 是目标本身尺寸较大。 另外盗移物或滞留物在保持 各自的状态期间不能受到光照变 化或其它明显运动目标的干扰, 要不然有可能会造成判断的不稳 定。 效果差 会议室 遗留 物 大部分时间内,滞留的判断 都是较稳定的,但是在后期出现 了不稳定。主要原因是目标太小 的原故。 因此在进行滞留物判断时, 大目标,对比度较高的环境有利 于判断的稳定性和准确性。 漏检率 效果好 城市交通 在对比度高的环境下, 目标相对都较大的情况下 (大于 40 个像素) 可以很 , 稳定的检测出目标。 在这种 条件下的漏检率通常都是 非常低的,在 0.1%以下。 效果差 行人-傍晚 和“行人”目录下 的 其 它 昏 暗 条件 下的视频 在对 比度较低的 情况 下,会造成检测结果不稳 定。漏检率较高。主要原因 是由于去影子造成的。 这种 对比度下的漏检率一般在 6%以下。 除了 对比度低是 造成 漏检的原因外, 过小的目标 也会造成漏检,一般是 40 个像素以下的目标都会被 忽略掉。 1.2 算法效率内存消耗(单位:b) .MD_ISRAM_data .MD_ISRAM_bss .MD_SDRAM_data 0x470 0x24 0x348 .MD_SDRAM_bss .MD_text 0x1a8480 0x6d40 速度 ms 运动区域占 2/3 左右时 CPU 占用率 一帧耗时 Max:57% Min:2.8% Avg:37.5% Max:23 Min:1.14 Avg:15 运动区域占 1/3 左右时 Max:45% Min:2.8% Avg:20% Max:18 Min:1.14 Avg:8 1.3 检测参数说明 检测参数说明 检测到的滞留物或盗走物的消失时间目前分别设定在 200 帧和 100 帧, 可以通过参数来 自行调整。 目前目标与背景的差异是根据局部光照强度所决定的, 范围在 4 个像素值以上。 目前参 数设置要求目标大小要在 20 个像素以上才能被检测到,可以通过参数来自行调整。 目标阴影的去除能力是可以调整的, 目前的参数设置可以去除大部分的浅影子和较小的 光照变化。 1.4 适用环境推荐光照条件较好(具有一定的对比度)的室内环境或室外环境。不易用它去检测过小的目 标,比如小于 40 个像素的目标。室外环境不易太复杂。输出目标为精细轮廓目标,可以为 后面高层应用提供良好的信息。 二、目标跟踪 2.1 稳定运行环境要求此版本跟踪算法与运动检测算法紧密结合, 对相机的架设和视频的背景环境和运动目标 数量运动方式有一定要求: 背景要求: 由于运动跟踪是基于运动检测的结果进行的, 所以对背景的要求和运动检测一样, 背景要求: 运动目标相对于背景要有一定反差。 运动目标:由于运动检测中,对较小的目标可能过滤掉。所以运动目标的大小要符合运动检 运动目标: 测的要求。运动目标的速度不能太大,要保证前后帧运动目标的重合面积大于 10 个像素。此阈值可修改(建议不要随意修改,过小,可能把碎片当成原目标分 裂出来的小目标,过大,可能失去跟踪。当然可试着调节以适应不同场景)。该 算法对由于运动检测在地面上产生的碎片抗干扰性比较差, 运动目标和碎片相遇 时,容易发生融合又分离的现象,造成轨迹混乱。消失目标和新生目标很容易当 成同一目标处理,所以可能出现一个新目标继承新生目标的轨迹。 运动方式: 运动目标的最大数量由外部设定。 但运动跟踪对运动目标比较稀疏的场景效果比 运动方式: 较好。 算法对由于运动检测在运动目标上产生的碎片有一定的抗干扰。 算法没对 物体的遮挡进行处理。对于两运动目标之间的遮挡按融合来处理。 拍摄角度: 拍摄角度:拍摄视野比较大,且最好是俯视拍摄。

在百度找这样的程序,估计可能性不大,给你几个建议吧。你要做这样的程序,首先要研究一下你的硬件设备类型,因为各个品牌的摄像机要用到的SDK是不一样的。然后你就可以到网上下载这个设备的程序DEMO来研究一下,一般取到图像是没有什么问题了。取到视频图像之后,要分析实时图像内容,目前在这方面做得好的,能达到你说的要求的,国内的监控软件还不多见,即使有也不太可能免费或者开源,所以你想要得到具体的程序,真的是有点不太可能。希望你可以找找别的方法~

论文检测源代码

论文查总会检查代码吗?每篇论文都有代码的以上代码,就知道这篇论文是谁写的了

随着打击学术不端行为的加大。随着各种论文查重系统的不断升级,论文的查重检测越来越严格。很多人可能会问:论文中的代码查重吗?paperfree小编下面介绍一下这个内容。 1、 论文中的代码是否再次检测? 1.代码实际上属于论文查重的范畴之一,但如果是word版本,使用WPS公式编辑器,则不会被查重;如果提交PDF版本,代码部分将被查重。 2.另外,有些学科的代码是一样的,也会被查重。毕竟代码属于论文的正文部分,查重是必须的。重复次数超过控制范围后,也会被标记为红色,影响论文的查重率。 3.知网近年来更新非常快。在最新版本的知网查重系统中,新增了源代码库,内容非常完整,可以支持cpp.java.py等源代码的检测和比较。 论文中代码如何降重? 1.对于论文中查重率较高的部分代码,建议大家将其转换成图片,简单的操作就是将原始内容截图,重新插入论文。 2.除了转换成图片,还可以适当删除查重率高的代码,或者以其他形式表达,但要注意代码的书写是否正确。 3.如果引用的代码查重率偏高,很可能是引用部分设置的格式错误造成的,需要调整格式。 4.代码的原创性也很重要,所以要尽量独立编写代码;对于一些重复率高的代码,应该尽量少用。

论文查看并不会查询代码的代码,只是在里面生成以后所使用的,但是你看论文的时候,不会出现。

能查重会查代码吗?我认为分矿下论文查能查重会查代码吗?我认为般情况下,论文查重当然是会查代码的,一般情况下是这样来要求的

  • 索引序列
  • 运动目标检测与跟踪论文与源代码
  • 目标检测与跟踪论文
  • 目标检测与跟踪技术论文
  • 运动物体检测与追踪学士论文
  • 论文检测源代码
  • 返回顶部