运动目标检测与跟踪算法研究 视觉是人类感知自身周围复杂环境最直接有效的手段之一, 而在现实生活中 大量有意义的视觉信息都包含在运动中,人眼对运动的物体和目标也更敏感,能 够快速的发现运动目标, 并对目标的运动轨迹进行预测和描绘。 随着计算机技术、 通信技术、图像处理技术的不断发展,计算机视觉己成为目前的热点研究问题之 一。 而运动目标检测与跟踪是计算机视觉研究的核心课题之一, 融合了图像处理、 模式识别、人工智能、自动控制、计算机等众多领域的先进技术,在军事制导、 视觉导航、视频监控、智能交通、医疗诊断、工业产品检测等方面有着重要的实 用价值和广阔的发展前景。 1、国内外研究现状 运动目标检测 运动目标检测是指从序列图像中将运动的前景目标从背景图像中提取出来。 根据运动目标与摄像机之间的关系, 运动目标检测分为静态背景下的运动目标检 测和动态背景下的运动目标检测。 静态背景下的运动目标检测是指摄像机在整个 监视过程中不发生移动; 动态背景下的运动目标检测是指摄像机在监视过程中发 生了移动,如平动、旋转或多自由度运动等。 静态背景 静态背景下的运动目标检测方法主要有以下几种: (1)背景差分法 背景差分法是目前最常用的一种目标检测方法, 其基本思想就是首先获得一个 背景模型,然后将当前帧与背景模型相减,如果像素差值大于某一阈值,则判断 此像素属于运动目标,否则属于背景图像。利用当前图像与背景图像的差分来检 测运动区域,一般能够提供比较完整的特征数据,但对于动态场景的变化,如光 照和外来无关事件的干扰等特别敏感。 很多研究人员目前都致力于开发不同的背 景模型,以减少动态场景变化对运动目标检测的影响。背景模型的建立与更新、 阴影的去除等对跟踪结果的好坏至关重要。 背景差分法的实现简单,在固定背景下能够完整地精确、快速地分割出运动 对象。不足之处是易受环境光线变化的影响,需要加入背景图像更新机制,且只 对背景已知的运动对象检测比较有效, 不适用于摄像头运动或者背景灰度变化很 大的情况。 (2)帧间差分法 帧间差分法是在连续的图像序列中两个或三个相邻帧间, 采用基于像素的时 间差分并阈值化来提取图像中的运动区域。 帧间差分法对动态环境具有较强的自 适应性,但一般不能完全提取出所有相关的特征像素点,在运动实体内部容易产 生空洞现象。因此在相邻帧间差分法的基础上提出了对称差分法,它是对图像序 列中每连续三帧图像进行对称差分,检测出目标的运动范围,同时利用上一帧分 割出来的模板对检测出来的目标运动范围进行修正, 从而能较好地检测出中间帧 运动目标的形状轮廓。 帧间差分法非常适合于动态变化的环境,因为它只对运动物体敏感。实际上 它只检测相对运动的物体,而且因两幅图像的时间间隔较短,差分图像受光线 变化影响小,检测有效而稳定。该算法简单、速度快,已得到广泛应用。虽然该 方法不能够完整地分割运动对象,只能检测出物体运动变化的区域,但所检测出 的物体运动信息仍可用于进一步的目标分割。 (3)光流法 光流法就充分的利用了图像自身所携带的信息。在空间中,运动可以用运动 场描述,而在一个图像平面上,物体的运动往往是通过图像序列中图像灰度分布 的不同来体现,从而使空间中的运动场转移到图像上就表示为光流场。所谓光流 是指空间中物体被观测面上的像素点运动产生的瞬时速度场, 包含了物体表面结 构和动态行为等重要信息。 基于光流法的运动目标检测采用了运动目标随时间变 化的光流特性,由于光流不仅包含了被观测物体的运动信息,还携带了物体运动 和景物三位结构的丰富信息。 在比较理想的情况下,它能够检测独立运动的对象, 不需要预先知道场景的任何信息,可以很精确地计算出运动物体的速度,并且可 用于动态场景的情况。 但是大多数光流方法的计算相当复杂,对硬件要求比较高, 不适于实时处理,而且对噪声比较敏感,抗噪性差。并且由于遮挡、多光源、透明 性及噪声等原因,使得光流场基本方程——灰度守恒的假设条件无法满足,不能 正确求出光流场,计算方也相当复杂,计算量巨大,不能满足实时的要求。 动态背景 动态背景下的运动目标检测由于存在着目标与摄像机之间复杂的相对运动, 检测方法要比静态背景下的运动目标检测方法复杂。常用的检测方法有匹配法、 光流法以及全局运动估计法等。 2、运动目标跟踪 运动目标跟踪是确定同一物体在图像序列的不同帧中的位置的过程。 近年来 出现了大批运动目标跟踪方法,许多文献对这些方法进行了分类介绍,可将目标 跟踪方法分为四类:基于区域的跟踪、基于特征的跟踪、基于活动轮廓的跟踪、 基于模型的跟踪,这种分类方法概括了目前大多数跟踪方法,下面用这种分类方 法对目前的跟踪方法进行概括介绍。 (1)基于区域的跟踪 基于区域的跟踪方法基本思想是: 首先通过图像分割或预先人为确定提取包 含目标区域的模板,并设定一个相似性度量,然后在序列图像中搜索目标,把度 量取极值时对应的区域作为对应帧中的目标区域。 由于提取的目标模板包含了较 完整的目标信息,该方法在目标未被遮挡时,跟踪精度非常高,跟踪非常稳定, 但通常比较耗时,特别是当目标区域较大时,因此一般应用于跟踪较小的目标或 对比度较差的目标。该方法还可以和多种预测算法结合使用,如卡尔曼预测、粒 子预测等,以估计每帧图像中目标的位置。近年来,对基于区域的跟踪方法关注 较多的是如何处理运动目标姿态变化引起的模板变化时的情况以及目标被严重 遮挡时的情况。 (2)基于特征的跟踪 基于特征的跟踪方法基本思想是:首先提取目标的某个或某些局部特征,然 后利用某种匹配算法在图像序列中进行特征匹配,从而实现对目标的跟踪。该方 法的优点是即使目标部分被遮挡,只要还有一部分特征可以被看到,就可以完成 跟踪任务,另外,该方法还可与卡尔曼滤波器结合使用,实时性较好,因此常用 于复杂场景下对运动目标的实时、 鲁棒跟踪。 用于跟踪的特征很多, 如角点边缘、 形状、纹理、颜色等,如何从众多的特征中选取最具区分性、最稳定的特征是基 于特征的跟踪方法的关键和难点所在。 (3)基于活动轮廓的跟踪 基于活动轮廓的跟踪方法基本思想是:利用封闭的曲线轮廓表达运动目标, 结合图像特征、曲线轮廓构造能量函数,通过求解极小化能量实现曲线轮廓的自 动连续更新,从而实现对目标的跟踪。自Kass在1987年提出Snake模型以来,基 于活动轮廓的方法就开始广泛应用于目标跟踪领域。相对于基于区域的跟踪方 法,轮廓表达有减少复杂度的优点,而且在目标被部分遮挡的情况下也能连续的 进行跟踪,但是该方法的跟踪结果受初始化影响较大,对噪声也较为敏感。 (4)基于模型的跟踪 基于模型的跟踪方法基本思想是: 首先通过一定的先验知识对所跟踪目标建 立模型,然后通过匹配跟踪目标,并进行模型的实时更新。通常利用测量、CAD 工具和计算机视觉技术建立模型。主要有三种形式的模型,即线图模型、二维轮 廓模型和三维立体模型口61,应用较多的是运动目标的三维立体模型,尤其是对 刚体目标如汽车的跟踪。该方法的优点是可以精确分析目标的运动轨迹,即使在 目标姿态变化和部分遮挡的情况下也能够可靠的跟踪, 但跟踪精度取决于模型的 精度,而在现实生活中要获得所有运动目标的精确模型是非常困难的。 目标检测算法,至今已提出了数千种各种类型的算法,而且每年都有上百篇相 关的研究论文或报告发表。尽管人们在目标检测或图像分割等方面做了许多研 究,现己提出的分割算法大都是针对具体问题的,并没有一种适合于所有情况的 通用算法。 目前, 比较经典的运动目标检测算法有: 双帧差分法、 三帧差分法(对 称差分法)、背景差法、光流法等方法,这些方法之间并不是完全独立,而是可 以相互交融的。 目标跟踪的主要目的就是要建立目标运动的时域模型, 其算法的优劣直接影响 着运动目标跟踪的稳定性和精确度, 虽然对运动目标跟踪理论的研究已经进行了 很多年,但至今它仍然是计算机视觉等领域的研究热点问题之一。研究一种鲁棒 性好、精确、高性能的运动目标跟踪方法依然是该研究领域所面临的一个巨大挑 战。基于此目的,系统必须对每个独立的目标进行持续的跟踪。为了实现对复杂 环境中运动目标快速、稳定的跟踪,人们提出了众多算法,但先前的许多算法都 是针对刚体目标,或是将形变较小的非刚体近似为刚体目标进行跟踪,因而这些 算法难以实现对形状变化较大的非刚体目标的正确跟踪。 根据跟踪算法所用的预 测技术来划分,目前主要的跟踪算法有:基于均值漂移的方法、基于遗传算法的 方法、基于Kalman滤波器的方法、基于Monto Carlo的方法以及多假设跟踪的方 法等。 运动检测与目标跟踪算法模块 运动检测与目标跟踪算法模块 与目标跟踪 一、运动检测算法 1.算法效果 算法效果总体来说,对比度高的视频检测效果要优于对比度低的视频。 算法可以比较好地去除目标周围的浅影子,浅影的去除率在 80%以上。去影后目标的 完整性可以得到较好的保持,在 80%以上。在对比度比较高的环境中可以准确地识别较大 的滞留物或盗移物。 从对目标的检测率上来说,对小目标较难进行检测。一般目标小于 40 个像素就会被漏 掉。对于对比度不高的目标会检测不完整。总体上来说,算法在对比度较高的环境中漏检率 都较低,在 以下,在对比度不高或有小目标的场景下漏检率在 6%以下。 精细运动检测的目的是在较理想的环境下尽量精确地提取目标的轮廓和区域, 以供高层 进行应用。同时在分离距离较近目标和进行其它信息的进一步判断也具有一定的优势。 反映算法优缺点的详细效果如下所示: 去影子和完整性 效果好 公司内视频 左边的为去影前,右边的 为去影后的结果,可以看出在 完整 性和去影率上 都有所 突 出。 这两个视频的共周特点 城市交通 是,影子都是浅影子,视频噪 声不太明显。目标与背景的对 比度比较高。 效果差 这两个视频的特点是影子 都是深影子。虽然影子没有去 掉,但是物体的完整性是比较 高的。主要原因就是场景的对 路口,上午 十点 比度比较高。 滞留物检测和稳定性 效果好 会议室盗移 效果好的原因,一是盗移或 滞留目标与背景对比度较大,二 是目标本身尺寸较大。 另外盗移物或滞留物在保持 各自的状态期间不能受到光照变 化或其它明显运动目标的干扰, 要不然有可能会造成判断的不稳 定。 效果差 会议室 遗留 物 大部分时间内,滞留的判断 都是较稳定的,但是在后期出现 了不稳定。主要原因是目标太小 的原故。 因此在进行滞留物判断时, 大目标,对比度较高的环境有利 于判断的稳定性和准确性。 漏检率 效果好 城市交通 在对比度高的环境下, 目标相对都较大的情况下 (大于 40 个像素) 可以很 , 稳定的检测出目标。 在这种 条件下的漏检率通常都是 非常低的,在 以下。 效果差 行人-傍晚 和“行人”目录下 的 其 它 昏 暗 条件 下的视频 在对 比度较低的 情况 下,会造成检测结果不稳 定。漏检率较高。主要原因 是由于去影子造成的。 这种 对比度下的漏检率一般在 6%以下。 除了 对比度低是 造成 漏检的原因外, 过小的目标 也会造成漏检,一般是 40 个像素以下的目标都会被 忽略掉。 算法效率内存消耗(单位:b) .MD_ISRAM_data .MD_ISRAM_bss .MD_SDRAM_data 0x470 0x24 0x348 .MD_SDRAM_bss .MD_text 0x1a8480 0x6d40 速度 ms 运动区域占 2/3 左右时 CPU 占用率 一帧耗时 Max:57% Min: Avg: Max:23 Min: Avg:15 运动区域占 1/3 左右时 Max:45% Min: Avg:20% Max:18 Min: Avg:8 检测参数说明 检测参数说明 检测到的滞留物或盗走物的消失时间目前分别设定在 200 帧和 100 帧, 可以通过参数来 自行调整。 目前目标与背景的差异是根据局部光照强度所决定的, 范围在 4 个像素值以上。 目前参 数设置要求目标大小要在 20 个像素以上才能被检测到,可以通过参数来自行调整。 目标阴影的去除能力是可以调整的, 目前的参数设置可以去除大部分的浅影子和较小的 光照变化。 适用环境推荐光照条件较好(具有一定的对比度)的室内环境或室外环境。不易用它去检测过小的目 标,比如小于 40 个像素的目标。室外环境不易太复杂。输出目标为精细轮廓目标,可以为 后面高层应用提供良好的信息。 二、目标跟踪 稳定运行环境要求此版本跟踪算法与运动检测算法紧密结合, 对相机的架设和视频的背景环境和运动目标 数量运动方式有一定要求: 背景要求: 由于运动跟踪是基于运动检测的结果进行的, 所以对背景的要求和运动检测一样, 背景要求: 运动目标相对于背景要有一定反差。 运动目标:由于运动检测中,对较小的目标可能过滤掉。所以运动目标的大小要符合运动检 运动目标: 测的要求。运动目标的速度不能太大,要保证前后帧运动目标的重合面积大于 10 个像素。此阈值可修改(建议不要随意修改,过小,可能把碎片当成原目标分 裂出来的小目标,过大,可能失去跟踪。当然可试着调节以适应不同场景)。该 算法对由于运动检测在地面上产生的碎片抗干扰性比较差, 运动目标和碎片相遇 时,容易发生融合又分离的现象,造成轨迹混乱。消失目标和新生目标很容易当 成同一目标处理,所以可能出现一个新目标继承新生目标的轨迹。 运动方式: 运动目标的最大数量由外部设定。 但运动跟踪对运动目标比较稀疏的场景效果比 运动方式: 较好。 算法对由于运动检测在运动目标上产生的碎片有一定的抗干扰。 算法没对 物体的遮挡进行处理。对于两运动目标之间的遮挡按融合来处理。 拍摄角度: 拍摄角度:拍摄视野比较大,且最好是俯视拍摄。
运动目标的检测的其主要目的是 获取目标对象的运动参数(位置、速度、加速度等)及运动轨迹 ,通过进一步分析处理,实现对目标行为更高层级上的理解。 运动目标检测技术目的是 从序列图像中将变化区域从背景图像中提取出来 ,常用于视频监视、图像压缩、三维重构、异常检测等。
运动目标检测主流方法有帧差法、背景差法、光流法等。光流法源于 仿生学 思想,更贴近于直觉,大量昆虫的视觉机理便是基于光流法。 二十世纪五十年代心理学家Gibson在他的著作“The Perception of Visual World”中首次提出了以心理学实验为基础的光流法基本概念,而直到八十年代才由Horn、Kanade、Lucash和Schunck创造性地将灰度与二维速度场相联系,引入光流约束方程的算法,对光流计算做了奠基性的工作。
光流(optical flow):由于目标对象或者摄像机的移动造成的图像对象在连续两帧图像中的移动。
通俗说,对于一个图片序列,把每张图像每个像素在连续帧之间的运动速度和方向( 某像素点在连续两帧上的位移矢量 )找出来就是光流场。
第t帧的时A点的位置是(x1, y1),第t+1帧时A点位置是(x2,y2),则像素点A的位移矢量:(ux, vy) = (x2, y2) - (x1,y1)
如何知道第t+1帧的时候A点的位置涉及到不同的光流计算方法,主要有四种:基于梯度的方法、基于匹配的方法、基于能量的方法、基于相位的方法。
光流法依赖于三个假设:
根据所形成的光流场中 二维矢量的疏密程度 ,光流法可分为稠密光流与稀疏光流。
稀疏光流只对有 明显特征的组点 (如角点)进行跟踪,计算开销小。
(1)calcOpticalFlowPyrLK 基于金字塔LK光流算法,计算某些点集的稀疏光流。 参考论文《Pyramidal Implementation of the Lucas Kanade Feature TrackerDescription of the algorithm》 (2)calcOpticalFlowFarneback 基于Gunnar Farneback 的算法计算稠密光流。 参考论文《Two-Frame Motion Estimation Based on PolynomialExpansion》 (3)CalcOpticalFlowBM 通过块匹配的方法来计算光流 (4)CalcOpticalFlowHS 基于Horn-Schunck 的算法计算稠密光流。 参考论文《Determining Optical Flow》 (5)calcOpticalFlowSF 论文《SimpleFlow: A Non-iterative, Sublinear Optical FlowAlgo》的实现
information purposes信息目的;信息用途The interpretive geotechnical report is enclosed within the special conditions of contract for information purposes only.解释性土工技术报告附于合同特别条款之后,仅供参考之用。
在我国经济组成中,汽车产业对促进国民经济发展和社会进步具有重要的战略意义。下面是我为大家精心推荐的关于汽车的科技3000字论文,希望能对大家有所帮助。汽车的科技3000字论文篇一:《试谈汽车超载监测系统》 摘 要: 为了实时识别各种车型的超载车辆,该系统基于开源计算机视觉库(OpenCV),先根据车辆照片库建立车型分类器,然后使用数字摄像机拍摄进入监控区域的车辆,在视频中使用分类器识别车型,根据所识别得到的车型去查询数据库获得该车型的核载,再通过动态称重技术获得车辆的实际载重,及时判别车辆是否超载。此 方法 可避免过去使用统一重量衡量不同车型是否超载的弊端,并可同时免线圈测量车速。测试结果表明系统能快速准确地识别出车型。配合动态称重系统,就能实时得出所通过的车辆是否超载,对公路养护和道路交通安全有相当大的实用意义。 关键词: 超载监测; 视频识别; OpenCV; 动态称重 超载车辆的危害很大,主要表现在加速道路损坏和危害道路交通安全,人们都深知其危害性,所以治理超载一直是公路监管部门的工作重点。传统的自动超载信息系统都是使用统一标准,对所有车辆都应用同一个整车重量划分是否超载,这样会遗漏部分实际上已经超过该车型核载的超载车辆。实际上,这部分车辆对道路交通同样造成严重影响。鉴于此,本系统首先识别出车辆的车型,再查询得到该车型的核载重量,对比实测重量,便得知是否超载。理论上能够适用于所有车型。 利用摄像机较长的视域,附加设计了一个测速系统,能方便地得出超速数据,以便作为超速监测和供给动态称重系统作参考。 1 系统构成 系统方案 系统主要工作过程为:车辆驶入摄像机监视范围,视频流通过以太网传输到后台处理系统,处理系统通过处理视频识别出车辆的车型,然后根据车型从数据库中查出相应的核载重量;同时,安装在地面的动态称重设备测出车辆的实际载重。两个数据对比即可得出车辆是否超载。系统流程如图1所示。 为了加快处理速率,在程序设计过程中多处使用了多线程并行处理。 OpenCV及其分类器介绍 传统的图像处理软件大多为Matlab,用于开发算法最为快捷,但是其处理速度慢,难以跟上视频处理的需求,所以选用了Intel牵头开发的开源计算机视觉库(OpenCV)。新版的OpenCV已经在易用性上已经接近Matlab,再加上其开源性,很多算法均已公开,加快了开发进程。另外,目前OpenCV已经提供C,C++,Python等语言接口,且支持Windows,Linux,Android和IOS等主流平台,资源相当丰富。对于计算机平台,OpenCV支持多线程并行计算和图形处理器(GPU)计算,这将能大大加快计算速率,用其开发本系统的demo是首选。 图1 系统流程图 为了从视频流中识别出车型,需要使用分类器[1]。所谓分类器,是利用样本的特征进行训练,得到一个级联分类器。分类器训练完成后,就可以应用于目标检测。分类器的级联是指最终的分类器是有几个简单分类器级联组成。每个特定的分类器所使用的特征用形状、感兴趣区域中的位置以及比例系数来定义(如图2所示)。 图2 特征分类 首先使用弱分类器分出货车和客车等车型,然后再分出大中小型货车,最后再精确分类,获得准确的车型。新版本的OpenCV已经支持多种特征的分类器,如SVM,LBP,PBM等。因为系统实时性要求较高,这里选取训练和分类速率都较高的LBP特征分类器。 训练分类器 使用分类器的需要首先训练,即让分类器“认识”目标,为了训练分类器,需要准备样本,样本包括正样本和负样本。正样本即包含目标的灰度图片,而且每张图片都要归一化大小,负样本则不要求归一化,只需要比正样本大即可(使得可以在负样本中滑动窗口检索)。 OpenCV提供了专门的工具用以整理训练样本的原始数据,只需准备好正、负样本,归一化然后转成灰度图,再使用两个描述文件分别记录这些样本集合,然后输入程序即可整理出原始数据。为了准备正样本,借助OpenCV提供的HighGUI模块,在此专门编写了一个GUI截图工具,界面如图3所示。为了能从不同角度识别车辆,准本正样本时需要准备从一定角度范围描述车辆的样本。 图3 GUI截图工具界面 接下来就是训练分类器,这部分工作直接关系到系统的鲁棒性。同样,OpenCV提供了专门工具训练分类器,既有旧版也有新版,为了有更多特性,在此选择新版本的训练程序。 由于这是基于统计的方法,要对大量数据进行处理,如果选择Haar特性,训练周期会比较长,不利于系统的搭建,所以选择用LBP特性训练分类器。从机器性能方面考虑训练时间,使用英特尔线程构建模块(TBB)重新编译OpenCV,就能得到多核加速,且有利于接下来的程序性能。分类器分为三级,分别为:货车、客车分类器,大、中、小型货车分类器和具体车型分类器。由于客车按载客数区分是否超载,车辆总重不会对公路造成严重损坏,所以本系统无需对客车作出具体车型区分。但若然具体管理部门需要统计车型信息,可以进一步加上客车车型分类器。实际使用时,由于要应对车辆车身的喷漆变化或者小范围合法改装等情况,分类器的分类除了在系统筹建的时候大规模训练外,在系统运行时也应继续训练分类器,增加统计数据,使得识别结果更加精确。 识别车型及获得核定载重 训练好分类器后,最直观的测试方法是直接输入测试视频,检查识别效果。新版本OpenCV提供一个C++类CascadeClassifier,该类封装了基本的目标识别操作,使得只需要使用该类的实例加载训练好的XML文件,然后逐帧检测即可。若发现目标,结果将会存放在C++标准模板库(STL)容器vector中。但直接对每帧图像使用CascadeClassifier::detectMultiScale方法将会大大加重系统的工作量并且在多车辆的情况下无法区分开各车辆,为此,首先需要发现车辆,然后区分不同的车辆目标,再对每一个目标单独进行分类识别。 具体的主要操作的顺序为: (1) 系列的图像预处理操作,降低图像噪音。 (2) 图像差分,发现车辆轮廓[2],得到运动掩码。图像差分有两种主要方式,分别是帧间差分和背景差分。帧间差分速度快,但容易产生空洞,且无法分离出缓慢运动的车辆;背景差分速度慢,但分离效果好。考虑到如果车辆是缓慢进入测速区,则称重数据可靠性高,而且没有超速,进入识别点的效果好,所以选择帧间差分,这里使用能有效减小前景空洞的三帧差分算法[2]。 (3) 结合运动掩码更新历史运动图像、计算历史运动图像的梯度。 (4) 分割运动目标,得到一辆一辆的车,并跟踪。为区分开图像中的每一辆车,需要对其进行标记,这里使用的方法为: [Mkx,y=ID ifMk-1x,y≠0&k-1≠10 ifMk-1x,y=0 ] 式中:Mk(x,y)为分割出来的单独车辆目标的第k帧感兴趣区域矩形。这种方法虽然鲁棒性较好,但是因为重复计算量大,运算速度有限,所以在确定每辆车的ID后,使用OpenCV提供的更为快速的Camshift算法[3]继续跟踪。 (5) 计算每辆车的运动方向。这部分关系到运动目标筛选,在部分场合,摄像机的视野可能会涉及逆向车道。在这种情况下,可以通过筛选符合主要行驶方向的车辆来排除其他车辆或无关运动目标的干扰。 (6) 车辆进入测速区,开始测速。 (7) 车辆离开测速区,结束测速并计算速度。使用TBB进行并行分类识别车型。由于OpenCV新版矩阵结构Mat的所有操作使用原子操作,大大减轻了多线程编程的工作量,所以这里使用多线程并行操作是最佳选择。 (8) 根据所安装动态称重系统的车速要求,判断是否需要引导车辆到检测站进行检查。 获得实际载重 在视频分析中发现车辆后,对比动态测重模块中测得的实际载重。这里需要把应用场合分为两种情况:高速测重和低速测重,至于高低速的阀值,这根据不同动态称重系统的性能而定[4],在系统安装时根据动态称重系统参数设置即可。由于目前高速测重技术的精度未达到作为证据的要求,所以在高速测重的场合,所得车重数据只能作为初步判断,若初步发现车辆超载,需要进一步引导车辆到大型地磅再次静态测量,并作其他处理。在低速测重场合,测得的动态数据可靠,可直接作为证据使用。所以系统的运行需要测速模块的配合。 无论高速场合与低速场合,本系统都能实现视频测速功能,可以直接用作超速抓拍系统,降低了公路部门的重复投入成本。 测速方法 测速测量车辆通过测速区所用的时间,然后用测速区长度除以时间而粗略估计得到。考虑到摄像机视域限制,设定的测速区域并不长,只有20 m左右,而且速度是用于参考载重信息是否有效的,所以无需太精确,因而可认为车辆是直线经过测速区域的。测速区的长度需在系统安装时手工进行长度映射。另外,确定通过测速区域的时间差使用帧率和帧计数得出,这样在多线程处理的情况下,可以排除系统时钟和处理速率的干扰,得出准确时间差。 2 测量结果 为快速测试系统性能,直接使用测试视频替代摄像机输入。使用微软Visual Studio 2010 MFC + OpenCV 编写一个即时处理程序,界面如图4所示。 图4 运行在Windows平台上的系统 测试使用一台Intel Core i5M处理器(主频 GHz+智能变频技术)、6 GB内存、 操作系统 为Windows 7 64 b的普通 笔记本 计算机,测试代码尚未使用图形处理器(GPU)计算,但代码在识别部分应用了TBB进行多核并行加速计算。 测试视频共两段,分别在两个不同的场景拍摄,第一段只有一辆公交车,场景较为简单;第二段则是多车多人环境,并且有车辆并行的情况,场景较为复杂,干扰较多。 第一段视频主要用于测试系统的极限性能,在测试开始前,先用转码工具把同一段视频转成不同帧率和分辨率的几段视频,其中视频的宽高比不变。输入视频测试后的结果如表1所示。 视频原始长度为6 s,双斜线为该场景的称重和测速区域。 测试结果表明:系统能实时处理标清视频流,但对高清视频还需进一步优化。 第二段视频主要测试系统的车型识别能力,测试数据如图5所示。 表1 输入视频测试后结果 图5 多车并行时能够准确区分 第二段视频夹杂较多无关目标,如行人、抖动的树枝横向行驶的车辆等,其中双白线之间区域为本场景的称重测速区域。 通过测试,可以看出无关目标能被全部排除,体现了车辆筛选很好的鲁棒性。视频中共通过9辆汽车,所有车辆均本正确识别车型。 3 结 语 通过测试数据可以看出,本系统提出的车型识别算法能适应不同场景和一定的环境变化,具有较高的效率和鲁棒性。随着计算机及其他数字信号处理(DSP)设备的信息处理能力不断提高,应用实时视频处理技术促进智能交通的能力将更大更稳定。若本系统能真正应用在智能交通系统上,有望对遏制道路超载超速现象做出贡献。 参考文献 [1] LIENHART Rainer, MAYDT Jochen. An extended set of Haar?like features for rapid object detection [J]. IEEE ICIP, 2002 (1): 900?903. [2] 徐卫星,王兰英,李秀娟.一种基于OpenCV实现的三帧差分运动目标检测算法研究[J].计算机与数字工程,2011(11):141?144. [3] BRADSKI G R. Computer vision face tracking for use in a perceptual user interface [EB/OL]. [2010?12?02]. [4] 张波,鲁新光,邓铁六,等.动态车辆称重物理模型与提高动态称重准确度研究[J].计量学报,2009(5):426?430. [5] 唐双发.基于OpenCV的车辆视频检测技术研究[D].武汉:华中科技大学,2009. [6] 詹群峰.基于OpenCV的视频道路车辆检测与跟踪[D].厦门:厦门大学,2009. [7] 郭旭,张丽杰.运动目标检测视频监控软件的设计与实现[J]. 计算机技术与发展,2010,20(8):200?207. [8] 周品,李晓东.Matlab数字图像处理[M].北京:清华大学出版社,2012. [9] 陈胜勇,刘盛.基于OpenCV的计算机视觉技术实现[M].北京:科学出版社,2008. [10] 刘瑞祯,于仕琪.OpenCV教程基础篇[M].北京:北京航空航天大学出版社,2007. [11] 范伊红,彭海云,张元.基于SVM 的车型识别系统的设计与实现[J].微计算机信息,2007,23(5):296?297. [12] 李庆忠,陈显华,王立红.一种视频运动目标的检测与识别方法[J].模式识别与人工智能,2006,19(2):238?243. [13] [美]REINDERS J, 聂雪军. Intel Threading Building Blocks编程指南[M].北京:机械工业出版社,2009. [14] 刘慧英,王小波.基于OpenCV的车辆轮廓检测[J].科学技术与工程,2010,10(12):2987?2991. 汽车的科技3000字论文篇二:《试谈现代科技在汽车焊接工艺中的应用》 摘 要:随着我国汽车保有量的不断增加,汽车售后市场呈现了井喷式的发展趋势,与汽车相关的售后市场服务行业开始兴起。其中汽车维修是后市场比较火爆的行业,汽车的使用必然会涉及汽车的维修。因此,为了能够更好的实现汽车维修效率,提高汽车维修的质量,应该加强对于汽车维修行业的行业监管以及对汽车维修技术的提升。目前,诸多的现代化技术开始不断的应用到汽车维修之中,其中尤其以焊接工艺为主。因此,本文重点对汽车焊接工艺中现代科技的应用进行分析,从而探讨其未来的发展趋势。 关键词:现代科技;汽车;焊接技术;工艺 引言 汽车加工与制造以及汽车维修领域,都会涉及汽车的焊接技术。目前,随着技术的不断发展,尤其是汽车生产制造业的蓬勃发展,已经可以实现汽车车身以及车辆配件的无缝焊接技术。车身的加工甚至采用模具化加工的形式,从而减少了因为焊接造成的不足。因此,目前,焊接工艺在汽车后市场应用比较广泛,尤其是在汽车的维修市场中,当汽车出现事故的时候,就会采用焊接技术进行维修,从而让汽车能够保证正常的使用。此外,在汽车的加装方面,焊接技术更加的适用,并且通过引进先进的现代科技,从而让焊接效果与质量都更加完善。 一、汽车焊接工艺的应用领域分析 在汽车领域中,由于越来越多的高新技术被应用,是的汽车生活更加丰富。对于我国而言,随着汽车保有量的不断增加,汽车售后市场出现了井喷的状态。在汽车售后市场中,汽车的维修与保养占据着非常重要的地位,也让汽车的服务产业有了较大的发展。对于汽车的焊接工艺而言,最早是应用于汽车的车身焊接。但是,随着技术的发展以及车身制造工艺的发展,汽车车身开始使用模具制作,从而降低了因为焊接而造成的车身问题。那么,下面就对现代化的汽车的焊接工艺主要应用领域进行分析: 1、在汽车的维修领域中有非常广泛的应用;汽车维修属于汽车售后市场领域,由于汽车驾驶的过程中,难免会出现碰撞的现象,从而造成了汽车车身或者是相关配件的损坏。因此,在这种情况下,就可以使用汽车的焊接工艺,将损坏的部分采用焊接的方式,从而进行汽车的维修工艺。 2、人们对于汽车的装饰和改装越来越感兴趣。虽然在汽车检测的过程中,对于擅自改装会进行处罚,但是有车一族们仍然热衷于对于汽车的改装和装饰。其中,对于汽车尾翼的安装非常常见。汽车安装尾翼以后,就显得非常运动动感,有一种非常霸气的感觉。因此,为了让汽车的外观更加个性鲜明,需要对汽车的外观进行相关的改装,从而实现车主所需要的效果。而对于尾翼的加装而言,就一定要采用焊接技术,从而使得汽车的尾翼牢固坚实。因为安装尾翼还是存在一定的风险的,当车速达到一定程度的时候,就需要保证汽车的尾翼的稳定性。 3、对于汽车的车身配件的焊接工艺;汽车在使用的过程中,经常需要在配件方面进行焊接,此外对于在配件之间的结合方面,也需要在适当的情况下使用汽车焊接技术。因此,对于汽车的焊接工艺而言,主要在车身焊接、汽车改装以及汽车配件之间主要进行应用。 二、现代科技在汽车焊接工艺中的应用 随着现代科技的不断发展,汽车焊接工艺中也不断的引入了现代的科技技术。其中最为重要的就是计算机技术,计算机的单片机远程通信技术以及3Dmax等技术开焊接始不断应用到汽车的焊接工艺中。由于人工焊接技术容易在焊接的过程中出现失误,无法实现循迹操作,从而造成焊接的不完美。因此,采用计算机单片机技术,可以进行程序编译,将需要焊接的部分利用3Dma x的进 行仿真,从而保证在焊接的过程中,其能够实现完美的循迹焊接,降低了焊接过程中出现的失误。 此外,在焊接的工艺方面,又引入了一些工艺以及化工技术。传统的高温焊接技术,不仅仅容易造成伤害,更是对操作人员有一定的影响。因此,使用现在的氩弧焊焊接技术,虽然温度更高,但是焊接的质量有所提高。对于焊接的接口以及焊面的平整度,都有了显著的提高。因此,随着现代科技的不断发展,促进了多个行业工艺的提升。对于汽车的焊接工艺而言,引入计算机技术并且实现真正的智能化以及自动化焊接,从而让焊接工艺更加安全方便,有效的提升焊接的效率,保证在焊接的过程中,达到质量的提升以及客户的满意提升。总之,要充分适应时代的发展,让更多的现代科技不断的应用到汽车的焊接工艺之中,从而保证其在不断的发展过程中,符合现有时代的发展理念,满足客户不断提升的硬性要求,实现现代化的汽车焊接工艺。 三、机器人焊接工艺是现代汽车焊接技术的发展前景 汽车焊接最主要的是车身的焊接。在汽车制造公司车身的主要焊接方法为弧焊、点焊、二氧化碳保护焊等。随着社会的发展,人民生活水平的提高,用户个性化需求的日益强烈,对汽车的安全性、美观性与舒适性的要求越来越高,同时汽车制造企业为了追求更大的经济效益,对焊接精度、焊接质量和焊接速度等的要求越来越高,因此建立一条现代化的生产流水线就显得非常重要。而焊接机器人的应用促进了现代化流水线的建立。现代化的焊接流水线主要是满足多车型、多批次的市场需求,提高车身车间生产能力的柔性和弹性。因此现代焊接线必须具有柔性。那么如何才能使焊接线具有柔性呢?普通的焊接线是刚性的,主要由焊接夹具、悬挂点焊机、弧焊机和多点焊机等组成。 这种焊接线一般只能焊接一种车型的车身,那么为了满足市场多元化的需求,就需要重新建立焊接流水线。这对企业来说是非常不利的,企业是追求利润为目的的,并且重新建立流水线造成了财力、人力、物力的浪费。于是建立柔性化焊接生产线摆在了企业面前。机器人的出现与应用满足了汽车企业的现代化的需求,实现了焊接生产线的柔性化。那么在车身焊接线上应用的机器人主要有几种:点焊机器人、弧焊机器人和激光焊机器人。这些机器人的应用,使焊接实现了机器人代替工人工作。 1、点焊机器人:主要进行的是点焊作业,在点与点之间移位时速度比较快,从而减少了移位的时间,通过平稳的动作、长时间的重复工作和准确的定位,取代了笨重、单调、重复的体力劳动,更好地保证了焊点质量,使工作效率得到了很大的提高。它是柔性自动生产系统的重要组成部分,增强了企业应变能力。 2、弧焊机器人:弧焊过程比点焊过程要复杂得多,对焊丝端头的运动轨迹、焊枪姿态、焊接参数都要求精确控制。具有较高的抗干扰能力和高的可靠性。能实现连续轨迹控制,并可以利用直线插补和圆弧插补功能焊接由直线及圆弧所组成的空间焊缝,还应具备不同摆动样式的软件功能,供编程时选用,以便作摆动焊,而且摆动在每一周期中的停顿点处,机器人也应自动停止向前运动,以满足工艺要求。此外,还应有接触寻位、自动寻找焊缝起点位置、电弧跟踪及自动再引弧功能等。 3、激光焊接机器人:激光焊接是与传统焊接本质不同的一种焊接方法,是将两块钢板的分子进行了重新组合,使两块钢板融为了一体变为一块钢板,从而提升了车身结构强度。同时在焊接过程中焊接工件变形非常小,一点连接间隙都没有,焊接深度/宽度比高,焊接质量高。从而提升了车身的结合精度。可见机器人的应用,实现了焊接流水线的智能化,实现了焊接生产线的自动化与现代化。 结束语 汽车维修行业中的汽车焊接行业,其技术要求相对较高,并且直接影响着汽车的维修效果。焊接技术,一般是针对出现重大事故或者是问题车辆等进行焊接。为了让焊接的痕迹最小化,实际上就是为了能够更好的实现高精度焊接,需要不断引入现代科技技术。计算机技术的引入,让焊接工艺能够以一种循迹的方式进行,从而避免了焊接过程中出现的认为失误。此外,在汽车的生产以及制造的过程中,依然需要不断的引入高新科学技术,让焊接工艺更加精湛,从而实现汽车的高精度和高密度,实现汽车质量的全面提升。 参考文献 [1]刘鸣斌.煤层气发动机爆震的检测与控制[J].内燃机与动力装置,2011(02):45-46. [2]吴扬帆.汽油发动机爆震分析与控制[J].传动技术,2010(13):36-38. [3]高玉明.点燃式发动机临界爆震控制及其特性[J].吉林大学学报,2012(14):77-79. >>>下一页更多精彩的“汽
基于Python的SIFT和KCF的运动目标匹配与跟踪 毕业论文+项目源码基于Python决策树算法的学生学习行为数据分析 设计报告+代码及数据基于Sring+bootstrap+MySQL的住房公积金管理系统 课程报告+项目源码及数据库文件基于C++的即时通信软件设计 毕业论文+项目源码
课程论文一般是在某一课程结束后,授课教师会根据本学期课程内容给大家一些指定的话题,让学生选择其中一个,通过查阅相关文献来写一篇小论文。这类课程论文多限于本科生的选修课和大多数研究生课程!并且课程论文都是综述类论文,不涉及具体的实验!课程论文在此一定程度上锻炼学生的写作能力。课程论文的目的就是检验大家对课程的学习状况!
相比之下,毕业论文基本上都为研究论文,在一定实验结果基础之上,通过查阅文献来完成一个毕业论文的写作,毕业论文较课程论文,要求更高,要求工作量、内容创新性等各个方面!毕业论文是检验一个学生是否达到毕业要求的标准之一。
首先,体育类论文研究的事例和切入点还是比较容易寻找的。体育领域的大学生大多是专业术科出身,在从小的训练,竞赛中,形成了对于所从事的项目的深刻印象,容易注意到一些外界不容易注意到的问题,且根据自身的不同情况,会形成独特的视角。其次,竞技体育的技战术手段,赛事的组织形式,体育产业的构成等领域发展更新越来越迅速,在此过程中,就会产生很多的问题可供研究,而这些讨论本身又会推动体育的发展,因此,作为实用型学科的体育类的论文还是比较容易形成的。
专业不同这个真心不太懂!作为写过毕业论文的人稍稍说一下自己的心得吧。个人感觉像物理、化学等专业只能依据参考文献和自己的实际操作才能写出。至于体育类专业毕业论文应该偏文科一些吧。如果个人对这个专业有兴趣,学习中不自觉的就会有很多心得,要想写出个万八千字的论文肯定不是问题。如果没有太大兴趣,就要多多的看文献,自己有意识的去体验总结。写大学论文毕竟是每个大学生顺理成章的事情,所以写出论文并不是一件非常难的事情!
图像处理是利用计算机对图像信息进行加工以满足人的视觉心理或者应用需求的行为,应用广泛,多用于测绘学、大气科学、天文学、美图、使图像提高辨识等。学术堂在这里为大家整理了一些图像处理本科毕业论文题目,希望对你有用。1、基于模糊分析的图像处理方法及其在无损检测中的应用研究2、数字图像处理与识别系统的开发3、关于数字图像处理在运动目标检测和医学检验中若干应用的研究4、基于ARM和DSP的嵌入式实时图像处理系统设计与研究5、基于图像处理技术的齿轮参数测量研究6、图像处理技术在玻璃缺陷检测中的应用研究7、图像处理技术在机械零件检测系统中的应用8、基于MATLAB的X光图像处理方法9、基于图像处理技术的自动报靶系统研究10、多小波变换及其在数字图像处理中的应用11、基于图像处理的检测系统的研究与设计12、基于DSP的图像处理系统的设计13、医学超声图像处理研究14、基于DSP的视频图像处理系统设计15、基于FPGA的图像处理算法的研究与硬件设计
毕业论文要根据相关论文要求,翻阅参考文献,同时要根据运动所修专业,结合实际实践情况综合阐述,并且要注意字数的把控。
这是一个工程,别说150分, 就是万,也未必有人愿意做。不要想的那么简单。
篮球教会我的不只是篮球NBA教会我的不只是篮球阐述篮球带来的快乐。。最主要的是篮球的某种精神例如:有个镜头我永远都忘不了2001年总决赛第三场球完了后,小艾和科比在快进更衣室门口相遇,当时小艾的眼神足以杀死人,科比抬着高傲的头颅看都不看小艾一眼,小艾主动上去和科比握手,科比装作没看见,头也不回地走了,那一刻小艾显得多么无奈。—— 从那一刻起,科比已经输了,不是输在球技上,而是输在做人上. 。科比可以拿着三枚总冠军戒指 81分记录向小艾炫耀, 但是,小艾的精神境界是科比一世都无法企及的。他教会我一件事:“只要认为是对的,即便是对抗全世界,不要被那些舆论所影响、击倒,要有勇气战斗下去。他教会我只要坚持做自己,即便是被人认为是「叛逆」,也要战斗下去。你说他是我的神也好,佛也好,我服膺的是他这种精神,这是一种信仰。有个人站在你面前,他就是这麼做著,他始终忠於他的信念。所谓「武士精神」,亦不过如此,而这正是我所信奉的。我看NBA十多年,不曾带给我这种感动。这种「我要打十个」的气魄,不是只有「英雄主义」而已,而是战斗到底的决心。那些酸AI的人们,他们不懂,因为他们不会、也不敢有这种体验,他们更不会了解,许许多多喜欢.的人,到底为什麼喜欢他?这不是靠长得帅就可以得到的拥护。”2004年 一个18岁的男孩(凯文 约翰逊)在街上被一群16-20岁的人围住 抢劫 他们抢走凯文身上财务 然后命令凯文脱掉身上穿的艾弗森3号球衣 凯文誓死不从紧紧保护着球衣不让他们抢走 那群歹徒拿出手枪 凯文依旧不让他们把艾的球衣从身上抢走 一声枪响 凯文被后面一个歹徒击中脖子 球衣还是让那伙歹徒抢走 两年过去 一天报纸披露 一个孩子的妈妈让医院使用安乐死 结束她孩子的生命 那个孩子就凯文约翰逊 就这样 这件事被媒体报道出来 艾弗森也知道这件事 他很震惊 他亲自去那座医院 随后艾给凯文安排葬礼 后来凯文母亲说 凯文下葬的时候是穿着艾弗森送的崭新球衣入土的 别人问 你儿子这样做不值得 凯文妈妈说 这是我儿子的选择 你们不知道凯文多么爱艾弗森 我不反对我儿子去追艾弗森 在艾弗森身上 我儿子学到的比我们教的更多
运动目标的检测的其主要目的是 获取目标对象的运动参数(位置、速度、加速度等)及运动轨迹 ,通过进一步分析处理,实现对目标行为更高层级上的理解。 运动目标检测技术目的是 从序列图像中将变化区域从背景图像中提取出来 ,常用于视频监视、图像压缩、三维重构、异常检测等。
运动目标检测主流方法有帧差法、背景差法、光流法等。光流法源于 仿生学 思想,更贴近于直觉,大量昆虫的视觉机理便是基于光流法。 二十世纪五十年代心理学家Gibson在他的著作“The Perception of Visual World”中首次提出了以心理学实验为基础的光流法基本概念,而直到八十年代才由Horn、Kanade、Lucash和Schunck创造性地将灰度与二维速度场相联系,引入光流约束方程的算法,对光流计算做了奠基性的工作。
光流(optical flow):由于目标对象或者摄像机的移动造成的图像对象在连续两帧图像中的移动。
通俗说,对于一个图片序列,把每张图像每个像素在连续帧之间的运动速度和方向( 某像素点在连续两帧上的位移矢量 )找出来就是光流场。
第t帧的时A点的位置是(x1, y1),第t+1帧时A点位置是(x2,y2),则像素点A的位移矢量:(ux, vy) = (x2, y2) - (x1,y1)
如何知道第t+1帧的时候A点的位置涉及到不同的光流计算方法,主要有四种:基于梯度的方法、基于匹配的方法、基于能量的方法、基于相位的方法。
光流法依赖于三个假设:
根据所形成的光流场中 二维矢量的疏密程度 ,光流法可分为稠密光流与稀疏光流。
稀疏光流只对有 明显特征的组点 (如角点)进行跟踪,计算开销小。
(1)calcOpticalFlowPyrLK 基于金字塔LK光流算法,计算某些点集的稀疏光流。 参考论文《Pyramidal Implementation of the Lucas Kanade Feature TrackerDescription of the algorithm》 (2)calcOpticalFlowFarneback 基于Gunnar Farneback 的算法计算稠密光流。 参考论文《Two-Frame Motion Estimation Based on PolynomialExpansion》 (3)CalcOpticalFlowBM 通过块匹配的方法来计算光流 (4)CalcOpticalFlowHS 基于Horn-Schunck 的算法计算稠密光流。 参考论文《Determining Optical Flow》 (5)calcOpticalFlowSF 论文《SimpleFlow: A Non-iterative, Sublinear Optical FlowAlgo》的实现
同意一楼,唯一有分歧的是15万,而不是万
你可以到七七计算机毕业论文的毕业设计题目列表中找一份。有完整的论文和源码等,很详细
Matrix Laboratory
教育背景2005年2月,获哈尔滨工业大学计算机应用技术专业工学博士学位 (一级学科)1997-1999,在哈尔滨工业大学攻读计算机应用技术专业工学硕士学位(综合成绩排名第1)1993-1997,在山西大学攻读计算机应用专业理学学士学位(综合成绩排名第1)工作经历至今,上海交通大学软件学院1999,微软中国研究院网络多媒体组实习获奖情况微软亚洲研究院首届“微软学者”奖学金(全国11人获奖)黑龙江省首届优秀硕士学位论文奖哈尔滨工业大学优秀硕士学位论文奖哈尔滨工业大学优秀硕士毕业生哈尔滨工业大学一等人民奖学金山西省第三届“兴晋杯”高校青年师生学术科技作品竞赛发明制作类二等奖山西大学第四届“创新杯”学生课外学术科技作品竞赛发明制作类一等奖山西大学“十佳学术科研标兵”科研情况主持了上海交通大学&Hitachi数字家电实验室项目“数字电视节目智能推荐系统”的研发独立承担了国家自然科学基金项目“最优小波自适应图像压缩的关键技术研究”()的立项、前期研究及申请书撰写工作国家自然科学基金项目“基于小波变换与Kalman滤波的主动轮廓线跟踪”(No. 60075010) 主要参与者作为主要软件开发人员设计了“汉语文本切词与词性标注软件评测系统”,获山西省科技进步应用二等奖主持了“烟囱自动识别系统”的研制(已在哈尔滨市环保局获得应用)论文著作吴江华,张田文. 离散小波变换的最优Lifting分解方法. 电子学报. 2004, 32(11): 1910~1914 (EI Indexed)吴江华,张田文. DWT Lifting分解理论及其在图像压缩中的应用. 计算机学报. 2005, 28 (11):1831~1842 (EI Indexed)吴江华,张田文. 最优子带编码器理论、设计及其应用. 信号处理. 2005,21 (6):628~638博士学位论文:小波图像压缩中滤波器组的优化设计与实现,2005年2月硕士学位论文:自然环境下运动目标的自动检测与跟踪技术研究,1999年7月
计算机毕业设计 基于Python的SIFT和KCF的运动目标匹配与跟踪 毕业论文+项目源码 基于Python决策树算法的学生学习行为数据分析 设计报告+代码及数据 基于Sring+bootstrap+MySQL的住房公积金管理系统 课程报告+项目源码及数据库文件 基于C++的即时通信软件设计 毕业论文+项目源码 基于JavaWeb+MySQL的图书管理系统 课程报告+项目源码及数据库文件 基于Android Studio+Android SDK的手机通讯录管理软件设计 课程报告+项目源码 基于JSP+MySQL的校园网上订餐系统 毕业论文+项目源码及数据库文件 基于AndroidStudio的花艺分享平台APP设计 报告+源码及APK文件 基于Python的酒店评论情感分析 课程报告+答辩PPT+项目源码 基于QT的教务选课管理系统设计与实现 毕业论文+项目源码 基于Android+Springboot+Mybatis+Mysql的个人生活APP设计 说明书+项目源码 基于的Web3D宇宙空间数据可视化系统 设计报告+前后端源码及数据 基于java+android+SQLite的保健型果饮在线销售APP设计 毕业论文+源码数据库及APK文件 基于的高校综合资源发布分享社交二手平台 毕业论文+项目源码及数据库文件+演示视频 基于Delphi+MySQL的大学生竞赛发布及组队系统 设计报告+源码数据库及可执行文件+使用说明书 基于Android的名片信息管理系统设计与实现 毕业论文+任务书+外文翻译及原文+演示视频+项目源码 基于Python的电影数据可视化分析系统 设计报告+答辩PPT+项目源码 基于JavaWeb的企业公司管理系统设计与实现 毕业论文+答辩PPT+演示视频+项目源码 高校成绩管理数据库系统的设计与实现 毕业论文+项目源码 基于JavaWeb的家庭食谱管理系统设计与实现 毕业论文+项目源码及数据库文件 基于Python+SQLSERVER的快递业务管理系统的设计与实现 毕业论文+项目源码及数据库文件 基于Python的语音词频提取云平台 设计报告+设计源码 在推荐系统中引入 Serendipity 的算法研究 毕业论文+参考文献+项目源码 基于Html+Python+Django+Sqlite的机票预订系统 毕业论文+项目源码及数据库文件 基于Python的卷积神经网络的猫狗图像识别系统 课程报告+项目源码 基于C++的云安全主动防御系统客户端服务端设计 毕业论文+项目源码 基于JavaSSM的学生成绩管理APP系统设计与实现 毕业论文+答辩PPT+前后台源码及APK文件 基于JavaSwing+MySQL的清朝古代名人数据管理系统设计 毕业论文+任务书+项目源码及数据库文件 基于Python_Django的社会实践活动管理系统设计与实现 毕业论文 基于Servlet WebSocket MySQL实现的网络在线考试系统 毕业论文+项目源码 基于JavaWEB+MySQL的学生成绩综合管理系统 毕业论文+项目源码及数据库文件 基于SpringBoot+Vue和MySQL+Redis的网络课程平台设计与实现 毕业论文+任务书+开题报告+中期报告+初稿+前后台项目源码 基于Java的毕业设计题目收集系统 课程报告+项目源码 基于Java+Python+html的生产者与消费者算法模拟 毕业论文+任务书+项目源码 基于JavaWeb+MySQL的学院党费缴费系统 毕业论文+项目源码及数据库文件 基于Java+MySQL的学生成绩管理系统 毕业论文+任务书+答辩PPT+项目源码及数据库文件 基于Java+MySQL的学生和客户信息管理系统 课程报告+项目源码及数据库文件 基于Java的长整数加减法算法设计 毕业论文+项目源码 基于vue+MySQL的毕业设计网上选题系统 毕业论文+项目源码 基于背景建模和FasterR-CNN的视频前景和目标检测 毕业论文+答辩PPT+项目源码 基于Python的智能视频分析之人数统计的多种实现 毕业论文+答辩PPT+项目源码 基于C#+SQL server的校园卡消费信息管理系统 毕业论文+项目源码及数据库文件
论文名称:Rich feature hierarchies for accurate object detection and semantic segmentation 提出时间:2014年 论文地址: 针对问题: 从Alexnet提出后,作者等人思考如何利用卷积网络来完成检测任务,即输入一张图,实现图上目标的定位(目标在哪)和分类(目标是什么)两个目标,并最终完成了RCNN网络模型。 创新点: RCNN提出时,检测网络的执行思路还是脱胎于分类网络。也就是深度学习部分仅完成输入图像块的分类工作。那么对检测任务来说如何完成目标的定位呢,作者采用的是Selective Search候选区域提取算法,来获得当前输入图上可能包含目标的不同图像块,再将图像块裁剪到固定的尺寸输入CNN网络来进行当前图像块类别的判断。 参考博客: 。 论文题目:OverFeat: Integrated Recognition, Localization and Detection using Convolutional Networks 提出时间:2014年 论文地址: 针对问题: 该论文讨论了,CNN提取到的特征能够同时用于定位和分类两个任务。也就是在CNN提取到特征以后,在网络后端组织两组卷积或全连接层,一组用于实现定位,输出当前图像上目标的最小外接矩形框坐标,一组用于分类,输出当前图像上目标的类别信息。也是以此为起点,检测网络出现基础主干网络(backbone)+分类头或回归头(定位头)的网络设计模式雏形。 创新点: 在这篇论文中还有两个比较有意思的点,一是作者认为全连接层其实质实现的操作和1x1的卷积是类似的,而且用1x1的卷积核还可以避免FC对输入特征尺寸的限制,那用1x1卷积来替换FC层,是否可行呢?作者在测试时通过将全连接层替换为1x1卷积核证明是可行的;二是提出了offset max-pooling,也就是对池化层输入特征不能整除的情况,通过进行滑动池化并将不同的池化层传递给后续网络层来提高效果。另外作者在论文里提到他的用法是先基于主干网络+分类头训练,然后切换分类头为回归头,再训练回归头的参数,最终完成整个网络的训练。图像的输入作者采用的是直接在输入图上利用卷积核划窗。然后在指定的每个网络层上回归目标的尺度和空间位置。 参考博客: 论文题目:Scalable Object Detection using Deep Neural Networks 提出时间:2014年 论文地址: 针对问题: 既然CNN网络提取的特征可以直接用于检测任务(定位+分类),作者就尝试将目标框(可能包含目标的最小外包矩形框)提取任务放到CNN中进行。也就是直接通过网络完成输入图像上目标的定位工作。 创新点: 本文作者通过将物体检测问题定义为输出多个bounding box的回归问题. 同时每个bounding box会输出关于是否包含目标物体的置信度, 使得模型更加紧凑和高效。先通过聚类获得图像中可能有目标的位置聚类中心,(800个anchor box)然后学习预测不考虑目标类别的二分类网络,背景or前景。用到了多尺度下的检测。 参考博客: 论文题目:DeepBox: Learning Objectness with Convolutional Networks 提出时间:2015年ICCV 论文地址: 主要针对的问题: 本文完成的工作与第三篇类似,都是对目标框提取算法的优化方案,区别是本文首先采用自底而上的方案来提取图像上的疑似目标框,然后再利用CNN网络提取特征对目标框进行是否为前景区域的排序;而第三篇为直接利用CNN网络来回归图像上可能的目标位置。创新点: 本文作者想通过CNN学习输入图像的特征,从而实现对输入网络目标框是否为真实目标的情况进行计算,量化每个输入框的包含目标的可能性值。 参考博客: 论文题目:AttentionNet: AggregatingWeak Directions for Accurate Object Detection 提出时间:2015年ICCV 论文地址: 主要针对的问题: 对检测网络的实现方案进行思考,之前的执行策略是,先确定输入图像中可能包含目标位置的矩形框,再对每个矩形框进行分类和回归从而确定目标的准确位置,参考RCNN。那么能否直接利用回归的思路从图像的四个角点,逐渐得到目标的最小外接矩形框和类别呢? 创新点: 通过从图像的四个角点,逐步迭代的方式,每次计算一个缩小的方向,并缩小指定的距离来使得逐渐逼近目标。作者还提出了针对多目标情况的处理方式。 参考博客: 论文题目:Spatial Pyramid Pooling in Deep Convolutional Networks for Visual Recognition 提出时间:2014年 论文地址: 针对问题: 如RCNN会将输入的目标图像块处理到同一尺寸再输入进CNN网络,在处理过程中就造成了图像块信息的损失。在实际的场景中,输入网络的目标尺寸很难统一,而网络最后的全连接层又要求输入的特征信息为统一维度的向量。作者就尝试进行不同尺寸CNN网络提取到的特征维度进行统一。创新点: 作者提出的SPPnet中,通过使用特征金字塔池化来使得最后的卷积层输出结果可以统一到全连接层需要的尺寸,在训练的时候,池化的操作还是通过滑动窗口完成的,池化的核宽高及步长通过当前层的特征图的宽高计算得到。原论文中的特征金字塔池化操作图示如下。 参考博客 : 论文题目:Object detection via a multi-region & semantic segmentation-aware CNN model 提出时间:2015年 论文地址: 针对问题: 既然第三篇论文multibox算法提出了可以用CNN来实现输入图像中待检测目标的定位,本文作者就尝试增加一些训练时的方法技巧来提高CNN网络最终的定位精度。创新点: 作者通过对输入网络的region进行一定的处理(通过数据增强,使得网络利用目标周围的上下文信息得到更精准的目标框)来增加网络对目标回归框的精度。具体的处理方式包括:扩大输入目标的标签包围框、取输入目标的标签中包围框的一部分等并对不同区域分别回归位置,使得网络对目标的边界更加敏感。这种操作丰富了输入目标的多样性,从而提高了回归框的精度。 参考博客 : 论文题目:Fast-RCNN 提出时间:2015年 论文地址: 针对问题: RCNN中的CNN每输入一个图像块就要执行一次前向计算,这显然是非常耗时的,那么如何优化这部分呢? 创新点: 作者参考了SPPNet(第六篇论文),在网络中实现了ROIpooling来使得输入的图像块不用裁剪到统一尺寸,从而避免了输入的信息丢失。其次是将整张图输入网络得到特征图,再将原图上用Selective Search算法得到的目标框映射到特征图上,避免了特征的重复提取。 参考博客 : 论文题目:DeepProposal: Hunting Objects by Cascading Deep Convolutional Layers 提出时间:2015年 论文地址: 主要针对的问题: 本文的作者观察到CNN可以提取到很棒的对输入图像进行表征的论文,作者尝试通过实验来对CNN网络不同层所产生的特征的作用和情况进行讨论和解析。 创新点: 作者在不同的激活层上以滑动窗口的方式生成了假设,并表明最终的卷积层可以以较高的查全率找到感兴趣的对象,但是由于特征图的粗糙性,定位性很差。相反,网络的第一层可以更好地定位感兴趣的对象,但召回率降低。 论文题目:Faster R-CNN: Towards Real-Time Object Detection with Region Proposal Networks 提出时间:2015年NIPS 论文地址: 主要针对的问题: 由multibox(第三篇)和DeepBox(第四篇)等论文,我们知道,用CNN可以生成目标待检测框,并判定当前框为目标的概率,那能否将该模型整合到目标检测的模型中,从而实现真正输入端为图像,输出为最终检测结果的,全部依赖CNN完成的检测系统呢? 创新点: 将当前输入图目标框提取整合到了检测网络中,依赖一个小的目标框提取网络RPN来替代Selective Search算法,从而实现真正的端到端检测算法。 参考博客 :
原文: Scalable Object Detection using Deep Neural Networks——学术范 最近,深度卷积神经网络在许多图像识别基准上取得了最先进的性能,包括ImageNet大规模视觉识别挑战(ILSVRC-2012)。在定位子任务中获胜的模型是一个网络,它预测了图像中每个对象类别的单个边界框和置信度得分。这样的模型捕获了围绕对象的整幅图像上下文,但如果不天真地复制每个实例的输出数量,就无法处理图像中同一对象的多个实例。在这篇论文中提出了一个显著性启发的神经网络检测模型,它预测了一组与类无关的边界框,每个框有一个分数,对应于它包含任何感兴趣的对象的可能性。该模型自然地为每个类处理数量可变的实例,并允许在网络的最高级别上进行跨类泛化。 目标检测是计算机视觉的基本任务之一。一个解决这个问题的通用范例是训练在子图像上操作的对象检测器,并在所有的场所和尺度上以详尽的方式应用这些检测器。这一范例被成功地应用于经过区别训练的可变形零件模型(DPM)中,以实现检测任务的最新结果。对所有可能位置和尺度的穷举搜索带来了计算上的挑战。随着类数量的增加,这个挑战变得更加困难,因为大多数方法都训练每个类单独的检测器。为了解决这个问题,人们提出了多种方法,从检测器级联到使用分割提出少量的对象假设。 关于对象检测的文献非常多,在本节中,我们将重点讨论利用类不可知思想和解决可伸缩性的方法。 许多提出的检测方法都是基于基于部件的模型,最近由于有区别学习和精心设计的特征,已经取得了令人印象深刻的性能。然而,这些方法依赖于在多个尺度上详尽地应用零件模板,这是非常昂贵的。此外,它们在类的数量上是可伸缩的,这对像ImageNet这样的现代数据集来说是一个挑战。 为了解决前一个问题,Lampert等人使用分支绑定策略来避免计算所有可能的对象位置。为了解决后一个问题,Song et al.使用了一个低维部件基,在所有对象类中共享。基于哈希算法的零件检测也取得了良好的结果。 另一种不同的工作,与我们的工作更接近,是基于对象可以本地化的想法,而不必知道它们的类。其中一些方法建立在自底向上无阶级分割[9]的基础上。通过这种方式得到的片段可以使用自上而下的反馈进行评分。基于同样的动机,Alexe等人使用一种廉价的分类器对对象假设是否为对象进行评分,并以这种方式减少了后续检测步骤的位置数量。这些方法可以被认为是多层模型,分割作为第一层,分割分类作为后续层。尽管它们编码了已证明的感知原理,但我们将表明,有更深入的模型,充分学习可以导致更好的结果。 最后,我们利用了DeepLearning的最新进展,最引人注目的是Krizhevsky等人的工作。我们将他们的边界盒回归检测方法扩展到以可扩展的方式处理多个对象的情况。然而,基于dnn的回归已经被Szegedy等人应用到对象掩模中。最后一种方法实现了最先进的检测性能,但由于单个掩模回归的成本,不能扩展到多个类。 我们的目标是通过预测一组表示潜在对象的边界盒来实现一种与类无关的可扩展对象检测。更准确地说,我们使用了深度神经网络(DNN),它输出固定数量的包围盒。此外,它为每个盒子输出一个分数,表示这个盒子包含一个对象的网络信任度。 为了形式化上述思想,我们将i-thobject框及其相关的置信度编码为最后一网层的节点值: Bounding box: 我们将每个框的左上角和右下角坐标编码为四个节点值,可以写成vectorli∈R4。这些坐标是归一化的w. r. t.图像尺寸,以实现图像绝对尺寸的不变性。每个归一化坐标是由最后一层的线性变换产生的。 Confidence: 置信度:包含一个对象的盒子的置信度得分被编码为单个节点valueci∈[0,1]。这个值是通过最后一个隐藏层的线性变换产生的,后面跟着一个sigmoid。 我们可以组合边界盒位置sli,i∈{1,…K}为一个线性层。同样,我们可以将所有置信区间ci,i∈{1,…K}作为一个s型层的输出。这两个输出层都连接到最后一个隐藏层 在推理时,我们的算法生成kbound盒。在我们的实验中,我们使用ek = 100和K= 200。如果需要,我们可以使用置信分数和非最大抑制在推理时获得较少数量的高置信框。这些盒子应该代表对象。因此,它们可以通过后续的分类器进行分类,实现目标检测。由于盒子的数量非常少,我们可以提供强大的分类器。在我们的实验中,我们使用另一个dnn进行分类。 我们训练一个DNN来预测每个训练图像的边界框及其置信度得分,以便得分最高的框与图像的groundtruth对象框很好地匹配。假设对于一个特定的训练例子,对象被标记为boundingboxesgj,j∈{1,…,M}。在实践中,pre- dictionary的数量远远大于groundtruthboxm的数量。因此,我们试图只优化与地面真实最匹配的预测框子集。我们优化他们的位置,以提高他们的匹配度,最大化他们的信心。与此同时,我们将剩余预测的置信度最小化,这被认为不能很好地定位真实对象。为了达到上述目的,我们为每个训练实例制定一个分配问题。Wexij∈{0,1}表示赋值:xij= 1,如果第i个预测被赋值给第j个真对象。这项任务的目标可以表示为 其中,我们使用标准化边界框坐标之间的el2距离来量化边界框之间的不同。此外,我们希望根据分配x优化盒子的可信度。最大化指定预测的置信度可以表示为 最终的损失目标结合了匹配损失和信心损失 受式1的约束。α平衡了不同损失条款的贡献。 对于每个训练例子,我们通过解决一个最佳的赋值x*的预测到真实的盒子 约束执行赋值解决方案。这是二部匹配的一种变体,是一种多项式复杂度匹配。在我们的应用程序中,匹配是非常便宜的——每幅图像中标记的对象的数量少于一打,而且在大多数情况下只有很少的对象被标记。然后,通过反向传播优化网络参数。例如,反向传播算法的一阶导数计算w、r、t、l和c 尽管上述定义的损失在原则上是足够的,但三次修改使其有可能更快地达到更好的准确性。第一个修改是对地面真实位置进行聚类,并找到这样的聚类/质心,我们可以使用这些聚类/质心作为每个预测位置的先验。因此,鼓励学习算法为每个预测位置学习一个残差到一个先验。 第二个修改涉及到在匹配过程中使用这些先验:不是将N个groundtruth位置与K个预测进行匹配,而是在K个先验和groundtruth之间找到最佳匹配。一旦匹配完成,就会像之前一样计算目标的置信度。此外,位置预测损失也不变:对于任何一对匹配的(目标,预测)位置,其损失定义为groundtruth和对应于匹配先验的坐标之间的差值。我们把使用先验匹配称为先验匹配,并假设它促进了预测的多样化。 需要注意的是,尽管我们以一种与类无关的方式定义了我们的方法,但我们可以将它应用于预测特定类的对象盒。要做到这一点,我们只需要在类的边框上训练我们的模型。此外,我们可以预测每个类的kbox。不幸的是,这个模型的参数数量会随着类的数量线性增长。此外,在一个典型的设置中,给定类的对象数量相对较少,这些参数中的大多数会看到很少有相应梯度贡献的训练示例。因此,我们认为我们的两步过程——首先本地化,然后识别——是一个更好的选择,因为它允许使用少量参数利用同一图像中多个对象类型的数据 我们使用的本地化和分类模型的网络架构与[10]使用的网络架构相同。我们使用Adagrad来控制学习速率衰减,128的小批量,以及使用多个相同的网络副本进行并行分布式训练,从而实现更快的收敛。如前所述,我们在定位损失中使用先验——这些是使用训练集上的均值来计算的。我们还使用α = 来平衡局部化和置信度损失。定位器可以输出用于推断的种植区以外的坐标。坐标被映射和截断到最后的图像区域。另外,使用非最大抑制对盒进行修剪,Jaccard相似度阈值为。然后,我们的第二个模型将每个边界框分类为感兴趣的对象或“背景”。为了训练我们的定位器网络,我们从训练集中生成了大约3000万幅图像,并对训练集中的每幅图像应用以下步骤。最后,样品被打乱。为了训练我们的本地化网络,我们通过对训练集中的每一幅图像应用以下步骤,从训练集中生成了大约3000万幅图像。对于每幅图像,我们生成相同数量的平方样本,使样本总数大约为1000万。对于每幅图像,样本被桶状填充,这样,对于0 - 5%、5 - 15%、15 - 50%、50 - 100%范围内的每个比例,都有相同数量的样本,其中被包围框覆盖的比例在给定范围内。训练集和我们大多数超参数的选择是基于过去使用非公开数据集的经验。在下面的实验中,我们没有探索任何非标准数据生成或正则化选项。在所有的实验中,所有的超参数都是通过对训练集。 Pascal Visual Object Classes (VOC)挑战是最常用的对象检测算法基准。它主要由复杂的场景图像组成,其中包含了20种不同的对象类别的边界框。在我们的评估中,我们关注的是2007版VOC,为此发布了一个测试集。我们通过培训VOC 2012展示了结果,其中包含了大约。11000张图片。我们训练了一个100框的定位器和一个基于深度网络的分类器。 我们在一个由1000万作物组成的数据集上训练分类器,该数据集重叠的对象至少为 jaccard重叠相似度。这些作物被标记为20个VOC对象类中的一个。•2000万负作物与任何物体盒最多有个Jaccard相似度。这些作物被贴上特殊的“背景”类标签。体系结构和超参数的选择遵循。 在第一轮中,定位器模型应用于图像中最大-最小中心方形作物。作物的大小调整到网络输入大小is220×220。单次通过这个网络,我们就可以得到上百个候选日期框。在对重叠阈值为的非最大抑制后,保留评分最高的前10个检测项,并通过21路分类器模型分别通过网络进行分类。最终的检测分数是给定盒子的定位分数乘以分类器在作物周围的最大方形区域上评估的分数的乘积。这些分数通过评估,并用于计算精确查全曲线。 首先,我们分析了本地化器在隔离状态下的性能。我们给出了被检测对象的数量,正如Pascal检测标准所定义的那样,与生成的包围框的数量相对比。在图1中,我们展示了使用VOC2012进行训练所获得的结果。此外,我们通过使用图像的最大中心面积(max-center square crop)作为输入以及使用两个尺度(second scale)来给出结果:最大中心面积(max-center crop)的第二个尺度(select3×3windows的大小为图像大小的60%)正如我们所看到的,当使用10个边界框的预算时,我们可以用第一个模型本地化的对象,用第二个模型本地化48%的对象。这显示出比其他报告的结果更好的性能,例如对象度算法达到42%[1]。此外,这个图表显示了在不同分辨率下观察图像的重要性。虽然我们的算法通过使用最大中心作物获得了大量的对象,但当使用更高分辨率的图像作物时,我们获得了额外的提升。进一步,我们用21-way分类器对生成的包围盒进行分类,如上所述。表1列出了VOC 2007的平均精度(APs)。达到的平均AP是,与先进水平相当。注意,我们的运行时间复杂度非常低——我们只使用top10框。示例检测和全精度召回曲线分别如图2和图3所示。值得注意的是,可视化检测是通过仅使用最大中心方形图像裁剪,即使用全图像获得的。然而,我们设法获得了相对较小的对象,例如第二行和第二列的船,以及第三行和第三列的羊。 在本工作中,我们提出了一种新的方法来定位图像中的对象,该方法可以预测多个边界框的时间。该方法使用深度卷积神经网络作为基本特征提取和学习模型。它制定了一个能够利用可变数量的groundtruth位置的多箱定位成本。在“一个类一个箱”方法的情况下,对1000个盒子进行非max-suppression,使用与给定图像中感兴趣的DeepMulti-Box方法相同的准则,并学习在未见图像中预测这些位置。 我们在VOC2007和ILSVRC-2012这两个具有挑战性的基准上给出了结果,在这两个基准上,所提出的方法具有竞争力。此外,该方法能够很好地预测后续分类器将探测到的位置。我们的结果表明,deepmultibox的方法是可扩展的,甚至可以在两个数据集之间泛化,就能够预测感兴趣的定位,甚至对于它没有训练的类别。此外,它能够捕获同一类物体的多种情况,这是旨在更好地理解图像的算法的一个重要特征。 在未来,我们希望能够将定位和识别路径折叠到一个单一的网络中,这样我们就能够在一个通过网络的一次性前馈中提取位置和类标签信息。即使在其当前状态下,双通道过程(本地化网络之后是分类网络)也会产生5-10个网络评估,每个评估的速度大约为1个CPU-sec(现代机器)。重要的是,这个数字并不与要识别的类的数量成线性关系,这使得所提出的方法与类似dpm的方法非常有竞争力。