• 回答数

    3

  • 浏览数

    116

yangwenmoney
首页 > 期刊论文 > 深度学习目标检测论文课题

3个回答 默认排序
  • 默认排序
  • 按时间排序

淡咖啡生活

已采纳

之前也是为论文苦恼了半天,网上的范文和能搜到的资料,大都不全面,一般能有个正文就不错了,而且抄袭的东西肯定不行的,关键是没有数据和分析部分,我好不容易搞出来一篇,结果还过不了审。 还好后来找到文方网,直接让专业人士帮忙,效率很高,核心的部分帮我搞定了,也给了很多参考文献资料。哎,专业的事还是要找专业的人来做啊,建议有问题参考下文方网吧 下面是之前文方网王老师发给我的题目,分享给大家: 基于深度学习的无人机地面小目标算法研究 基于视觉的智能汽车面向前方车辆的运动轨迹预测技术研究 模拟射击训练弹着点检测定位技术研究 基于深度卷积神经网络的空中目标识别算法的研究 基于可见光图像的飞行器多目标识别及位置估计 无人驾驶车辆手势指令识别研究与实现 车载毫米波雷达目标检测技术研究 基于多传感融合的四足机器人建图方法 中老年人群跌倒风险评估的数据采集系统 基于深度学习的视觉SLAM闭环检测方法研究 真实图片比较视觉搜索任务的年龄效应及对策研究 室内复杂场景下的视觉SLAM系统构建与研究 基于双目内窥镜的软组织图像三维重建 学习资源画面色彩表征影响学习注意的研究 毫米波雷达与机器视觉双模探测关键技术的研究 语义地图及其关键技术研究 多重影响因素下的语音识别系统研究 基于卷积神经网络的自主空中加油识别测量技术研究 基于视觉语义的深度估计、实例分割与重建 重复视觉危险刺激——本能恐惧反应的“二态型”调控机制研究 低成本视觉下的三维物体识别与位姿估计 面向非规则目标的3D视觉引导抓取方法及系统研究 基于物体识别地理配准的跨视频行人检测定位技术研究 基于结构光的非刚体目标快速三维重建关键技术研究 基于机器视觉的动物交互行为与认知状态分析系统 关于单目视觉实时定位与建图中的优化算法研究 动态场景下无人机SLAM在智慧城市中的关键技术研究 面向视觉SLAM的联合特征匹配和跟踪算法研究 基于深度学习的显著物体检测 基于平面波的三维超声成像方法与灵长类动物脑成像应用研究 基于物体检测和地理匹配的室内融合定位技术研究 基于多模态信息融合的人体动作识别方法研究 基于视觉惯性里程计的SLAM系统研究 基于语义信息的图像/点云配准与三维重建 基于种子点选取的点云分割算法研究 基于深度学习的场景文字检测与识别方法研究 基于运动上下文信息学习的室内视频烟雾预警算法研究 基于深度学习的垃圾分类系统设计与实现 面向手机部件的目标区域检测算法的设计与实现 电路板自动光照检测系统的设计与实现 基于机器视觉的工件识别与定位系统的设计与实现 基于深度学习的物件识别定位系统的设计与实现 基于视觉四旋翼无人机编队系统设计及实现 基于视觉惯导融合的四旋翼自主导航系统设计与实现 面向城市智能汽车的认知地图车道层生成系统 基于深度学习的智能化无人机视觉系统的设计与仿真 基于知识库的视觉问答技术研究 基于深度学习的火灾视频实时智能检测研究 结构化道路车道线检测方法研究 基于机器视觉的带式输送机动态煤量计量研究 基于深度学习的小目标检测算法研究 基于三维激光与视觉信息融合的地点检索算法研究 动态环境下仿人机器人视觉定位与运动规划方法研究 瓷砖铺贴机器人瓷砖空间定位系统研究 城市街景影像中行人车辆检测实现 基于无线信号的身份识别技术研究 基于移动机器人的目标检测方法研究 基于深度学习的机器人三维环境对象感知 基于特征表示的扩展目标跟踪技术研究 基于深度学习的目标检测方法研究 基于深度学习的复杂背景下目标检测与跟踪 动态扩展目标的高精度特征定位跟踪技术研究 掩模缺陷检测仪的图像处理系统设计 复杂场景下相关滤波跟踪算法研究 基于多层级联网络的多光谱图像显著性检测研究 基于深度结构特征表示学习的视觉跟踪研究 基于深度网络的显著目标检测方法研究 基于深度学习的电气设备检测方法研究 复杂交通场景下的视频目标检测 基于多图学习的多模态图像显著性检测算法研究 基于面部视频的非接触式心率检测研究 单幅图像协同显著性检测方法研究 轻量级人脸关键点检测算法研究 基于决策树和最佳特征选择的神经网络钓鱼网站检测研究 基于深度学习的场景文本检测方法研究 RGB-D图像显著及协同显著区域检测算法研究 多模态融合的RGB-D图像显著目标检测研究 基于协同排序模型的RGBT显著性检测研究 基于最小障碍距离的视觉跟踪研究 基于协同图学习的RGB-T图像显著性检测研究 基于图学习与标签传播优化模型的图像协同显著性目标检测 姿态和遮挡鲁棒的人脸关键点检测算法研究 基于多模态和多任务学习的显著目标检测方法研究 基于深度学习的交通场景视觉显著性区域目标检测 基于生物视觉机制的视频显著目标检测算法研究 基于场景结构的视觉显著性计算方法研究 精神分裂症患者初级视觉网络的磁共振研究 基于fMRI与TMS技术研究腹侧视觉通路中结构优势效应的加工 脑机接口游戏神经可塑性研究 基于YOLOV3算法的FL-YOLO多目标检测系统 基于深度与宽度神经网络显著性检测方法研究 基于深度学习的零件识别系统设计与研究 基于对抗神经网络的图像超分辨算法研究 基于深度学习复杂场景下停车管理视觉算法的研究与实现 镍电解状态视觉检测与分析方法研究 跨界训练对提升舞者静态平衡能力的理论与方法研究 施工现场人员类型识别方法的研究与实现 基于深度学习的自然场景文字检测方法研究 基于嵌入式的交通标志识别器的设计 基于视觉感知特性与图像特征的图像质量评价

358 评论

luclmars明尼苏达

论文原文:

YOLO(you only look once)是继RCNN、faster-RCNN之后,又一里程碑式的目标检测算法。yolo在保持不错的准确度的情况下,解决了当时基于深度学习的检测中的痛点---速度问题。下图是各目标检测系统的检测性能对比:

如果说faster-RCNN是真正实现了完全基于深度学习的端到端的检测,那么yolo则是更进一步,将 目标区域预测 与 目标类别判断 整合到单个神经网络模型中。各检测算法结构见下图:

每个网格要预测B个bounding box,每个bounding box除了要回归自身的位置之外,还要附带预测一个confidence值。这个confidence代表了所预测的box中含有object的置信度和这个box预测的有多准两重信息,其值是这样计算的:

其中如果有object落在一个grid cell里,第一项取1,否则取0。第二项是预测的bounding box和实际的groundtruth之间的IoU值。

每个bounding box要预测(x, y, w, h)和confidence共5个值,每个网格还要预测一个类别信息,记为C类。即SxS个网格,每个网格除了要预测B个bounding box外,还要预测C个categories。输出就是S x S x (5*B+C)的一个tensor。(注意:class信息是针对每个网格的,即一个网格只预测一组类别而不管里面有多少个bounding box,而confidence信息是针对每个bounding box的。)

举例说明: 在PASCAL VOC中,图像输入为448x448,取S=7,B=2,一共有20个类别(C=20)。则输出就是7x7x30的一个tensor。整个网络结构如下图所示:

在test的时候,每个网格预测的class信息和bounding box预测的confidence信息相乘,就得到每个bounding box的class-specific confidence score:

等式左边第一项就是每个网格预测的类别信息,第二三项就是每个bounding box预测的confidence。这个乘积即encode了预测的box属于某一类的概率,也有该box准确度的信息。

得到每个box的class-specific confidence score以后,设置阈值,滤掉得分低的boxes,对保留的boxes进行NMS(非极大值抑制non-maximum suppresssion)处理,就得到最终的检测结果。

1、每个grid因为预测两个bounding box有30维(30=2*5+20),这30维中,8维是回归box的坐标,2维是box的confidence,还有20维是类别。其中坐标的x,y用bounding box相对grid的offset归一化到0-1之间,w,h除以图像的width和height也归一化到0-1之间。

2、对不同大小的box预测中,相比于大box预测偏一点,小box预测偏一点肯定更不能被忍受的。而sum-square error loss中对同样的偏移loss是一样。为了缓和这个问题,作者用了一个比较取巧的办法,就是将box的width和height取平方根代替原本的height和width。这个参考下面的图很容易理解,小box的横轴值较小,发生偏移时,反应到y轴上相比大box要大。其实就是让算法对小box预测的偏移更加敏感。

3、一个网格预测多个box,希望的是每个box predictor专门负责预测某个object。具体做法就是看当前预测的box与ground truth box中哪个IoU大,就负责哪个。这种做法称作box predictor的specialization。

4、损失函数公式见下图:

在实现中,最主要的就是怎么设计损失函数,坐标(x,y,w,h),confidence,classification 让这个三个方面得到很好的平衡。简单的全部采用sum-squared error loss来做这件事会有以下不足:

解决方法:

只有当某个网格中有object的时候才对classification error进行惩罚。只有当某个box predictor对某个ground truth box负责的时候,才会对box的coordinate error进行惩罚,而对哪个ground truth box负责就看其预测值和ground truth box的IoU是不是在那个cell的所有box中最大。

作者采用ImageNet 1000-class 数据集来预训练卷积层。预训练阶段,采用网络中的前20卷积层,外加average-pooling层和全连接层。模型训练了一周,获得了top-5 accuracy为(ImageNet2012 validation set),与GoogleNet模型准确率相当。

然后,将模型转换为检测模型。作者向预训练模型中加入了4个卷积层和两层全连接层,提高了模型输入分辨率(224×224->448×448)。顶层预测类别概率和bounding box协调值。bounding box的宽和高通过输入图像宽和高归一化到0-1区间。顶层采用linear activation,其它层使用 leaky rectified linear。

作者采用sum-squared error为目标函数来优化,增加bounding box loss权重,减少置信度权重,实验中,设定为\lambda _{coord} =5 and\lambda _{noobj}= 。

作者在PASCAL VOC2007和PASCAL VOC2012数据集上进行了训练和测试。训练135轮,batch size为64,动量为,学习速率延迟为。Learning schedule为:第一轮,学习速率从缓慢增加到(因为如果初始为高学习速率,会导致模型发散);保持速率到75轮;然后在后30轮中,下降到;最后30轮,学习速率为。

作者还采用了dropout和 data augmentation来预防过拟合。dropout值为;data augmentation包括:random scaling,translation,adjust exposure和saturation。

YOLO模型相对于之前的物体检测方法有多个优点:

1、 YOLO检测物体非常快

因为没有复杂的检测流程,只需要将图像输入到神经网络就可以得到检测结果,YOLO可以非常快的完成物体检测任务。标准版本的YOLO在Titan X 的 GPU 上能达到45 FPS。更快的Fast YOLO检测速度可以达到155 FPS。而且,YOLO的mAP是之前其他实时物体检测系统的两倍以上。

2、 YOLO可以很好的避免背景错误,产生false positives

不像其他物体检测系统使用了滑窗或region proposal,分类器只能得到图像的局部信息。YOLO在训练和测试时都能够看到一整张图像的信息,因此YOLO在检测物体时能很好的利用上下文信息,从而不容易在背景上预测出错误的物体信息。和Fast-R-CNN相比,YOLO的背景错误不到Fast-R-CNN的一半。

3、 YOLO可以学到物体的泛化特征

当YOLO在自然图像上做训练,在艺术作品上做测试时,YOLO表现的性能比DPM、R-CNN等之前的物体检测系统要好很多。因为YOLO可以学习到高度泛化的特征,从而迁移到其他领域。

尽管YOLO有这些优点,它也有一些缺点:

1、YOLO的物体检测精度低于其他state-of-the-art的物体检测系统。

2、YOLO容易产生物体的定位错误。

3、YOLO对小物体的检测效果不好(尤其是密集的小物体,因为一个栅格只能预测2个物体)。

165 评论

丫丫King

Since we combine region proposals   with CNNs, we call our method R-CNN: Regions with CNN features. 下面先介绍R-CNN和Fast R-CNN中所用到的边框回归方法。 为什么要做Bounding-box regression? 如上图所示,绿色的框为飞机的Ground Truth,红色的框是提取的Region Proposal。那么即便红色的框被分类器识别为飞机,但是由于红色的框定位不准(IoU<),那么这张图相当于没有正确的检测出飞机。如果我们能对红色的框进行微调,使得经过微调后的窗口跟Ground Truth更接近,这样岂不是定位会更准确。确实,Bounding-box regression 就是用来微调这个窗口的。 那么经过何种变换才能从图11中的窗口P变为窗口呢?比较简单的思路就是: 注意:只有当Proposal和Ground Truth比较接近时(线性问题),我们才能将其作为训练样本训练我们的线性回归模型,否则会导致训练的回归模型不work(当Proposal跟GT离得较远,就是复杂的非线性问题了,此时用线性回归建模显然不合理)。这个也是G-CNN: an Iterative Grid Based Object Detector多次迭代实现目标准确定位的关键。 PASCAL VOC为图像识别和分类提供了一整套标准化的优秀的数据集,从2005年到2012年每年都会举行一场图像识别challenge。模型详解 RCNN全程就是Regions with CNN features,从名字也可以看出,RCNN的检测算法是基于传统方法来找出一些可能是物体的区域,再把该区域的尺寸归一化成卷积网络输入的尺寸,最后判断该区域到底是不是物体,是哪个物体,以及对是物体的区域进行进一步回归的微微调整(与深度学习里的finetune去分开,我想表达的就只是对框的位置进行微微调整)学习,使得框的更加准确。        正如上面所说的,RCNN的核心思想就是把图片区域内容送给深度网络,然后提取出深度网络某层的特征,并用这个特征来判断是什么物体(文章把背景也当成一种类别,故如果是判断是不是20个物体时,实际上在实现是判断21个类。),最后再对是物体的区域进行微微调整。实际上文章内容也说过用我之前所说的方法(先学习分类器,然后sliding windows),不过论文用了更直观的方式来说明这样的消耗非常大。它说一个深度网络(alexNet)在conv5上的感受野是195×195,按照我的理解,就是195×195的区域经过五层卷积后,才变成一个点,所以想在conv5上有一个区域性的大小(7×7)则需要原图为227×227,这样的滑窗每次都要对这么大尺度的内容进行计算,消耗可想而知,故论文得下结论,不能用sliding windows的方式去做检测(消耗一次用的不恰当,望各位看官能说个更加准确的词)。不过论文也没有提为什么作者会使用先找可能区域,再进行判断这种方式,只是说他们根据09年的另一篇论文[1],而做的。这也算是大神们与常人不同的积累量吧。中间的深度网络通过ILSVRC分类问题来进行训练,即利用训练图片和训练的分类监督信号,来学习出这个网络,再根据这个网络提取的特征,来训练21个分类器和其相应的回归器,不过分类器和回归器可以放在网络中学习,R-CNN 模型如果要拟人化比喻,那 R-CNN 肯定是 Faster R-CNN 的祖父了。换句话说,R-CNN 是一切的开端。 R-CNN,或称 Region-based Convolutional Neural Network,其工作包含了三个步骤: 1.借助一个可以生成约 2000 个 region proposal 的「选择性搜索」(Selective Search)算法,R-CNN 可以对输入图像进行扫描,来获取可能出现的目标。 2.在每个 region proposal 上都运行一个卷积神经网络(CNN)。 3.将每个 CNN 的输出都输入进:a)一个支持向量机(SVM),以对上述区域进行分类。b)一个线性回归器,以收缩目标周围的边界框,前提是这样的目标存在。 下图具体描绘了上述 3 个步骤:Abstract :                  R-CNN的两个贡献:卷积层的能力很强,可以遍历候选区域达到精确的定位。2.当有标签的数据很少的时候,我们可以事前进行有标签(别的数据集上?)的预训练作为辅助任务,然后对特定的区域进行微调。Introduction:                 这篇文章最开始是在PASCAL VOC上在图像分类和目标检测方面取得了很好的效果。                为了达到很好的效果,文章主要关注了两个问题:1.用深层网络进行目标的定位。2.如何用少量的带标签的检测数据来训练模型                 对于 对一个问题目标定位 ,通常有两个思路可以走:                      1.把定位看成回归问题。效果不是很好。                      2.建立划窗检测器。                 CNN一直采用建立划窗这个方式,但是也只是局限于人脸和行人的检测问题上。               本文使用了五个卷积层(感受野食195*195),在输入时移动步长是32*32。               除此之外,对于定位问题,我们采用区域识别的策略。                在测试阶段,本文的方法产生了大约2000个类别独立的候选区域作为cnn的输入。然           后得到一个修正后的特征向量。然后对于特定的类别用线性SVM分类器分类。我们用简             单的方法(放射图像变形)来将候选区域变成固定大小。                   对于第二个缺少标签数据的问题                     目前有一个思路就是无监督的预训练,然后再加入有监督的微调。                    作为本文最大的贡献之二:在ILSVRC数据集上,我们先进行有监督的预训练。然                  后我们在PASCAL这个小数据集上我们进行特定区域的微调。在我们的实验中,微调                  可以提升8%的mAP。                     本文的贡献;效率高                      仅仅是特别类别的计算是合乎情理的矩阵运算,和非极大值抑制算法。他们共享权                值,并且都是低维特征向量。相比于直接将区域向量作为输入,维数更低。                本文方法处理能实现目标检测,还以为实现语义分割。 2.用R-CNN进行目标检测:             有3个Model:            (1)产生独立的候选区域。            (2)CNN产生固定长度的特征向量。             (3)针对特别类别的一群svm分类器。 模块的设计 候选区域:                   之前有大量的文章都提过如果产生候选区域。本文采用SS(selective search )方法。参考文献【34】+【36】 特征抽取:                 对于每个候选区域,我们采用cnn之后得到4096维向量。 测试阶段的检测               在测试阶段,我们用选择性搜素的方式在测试图片上选取了2000个候选区域,如上图所示的步骤进行。 运行时间分析: 总之当时相比很快。 训练模型 有监督的预训练: 我们使用了大量的ILSVRC的数据集来进行预训练CNN,但是这个标签是图片层的。换句话说没有带边界这样的标签。 特定区域的微调: 我们调整VOC数据集的候选区域的大小,并且我们把ImageNet上午1000类,变成了21类(20个类别+1个背景)。我们把候选区域(和真实区域重叠的)大于的标记为正数,其他的标记为负数。然后用32个正窗口和96个负窗口组成128的mini-batch。 目标类别分类器:         对于区域紧紧的包括着目标的时候,这肯定就是正样本。对于区域里面全部都是背景的,这也十分好区分就是负样本。但是某个区域里面既有目标也有背景的时候,我们不知道如歌标记。本文为了解决这个,提出了一个阈值:IoU覆盖阈值,小于这个阈值,我们标记为负样本。大于这个阈值的我们标记为正样本。我们设置为。这个是一个超参数优化问题。我们使用验证集的方法来优化这个参数。然而这个参数对于我们的最后的性能有很大的帮助。         一旦,我们得到特征向量。因为训练数据太大了。我们采用standard hard negative mining method(标准难分样本的挖掘)。这个策略也是的收敛更快。 Results on PASCAL VOC 201012 . Visualization, ablation, and modes of error . Visualizing learned features      提出了一个非参数的方法,直接展现出我们的网络学习到了什么。这个想法是将一个特定的单元(特性)放在其中使用它,就好像它自己是一个对象检测器正确的。具体方法就是:我们在大量候选区域中,计算每个单元的激励函数。按从最高到最低排序激活输出,执行非最大值抑制,然后显示得分最高的区域。我们的方法让选定的单元“为自己说话”通过显示它所触发的输入。我们避免平均为了看到不同的视觉模式和获得洞察力为单位计算的不变性。我们可以看到来着第五个maxpooling返回的区域。第五层输出的每一个单元的接受野对应输出227*227的其中的195*195的像素区域。所以中心那个点单元有全局的视觉。. Ablation studies 实际上ablation study就是为了研究模型中所提出的一些结构是否有效而设计的实验。比如你提出了某某结构,但是要想确定这个结构是否有利于最终的效果,那就要将去掉该结构的网络与加上该结构的网络所得到的结果进行对比,这就是ablation study。 Performance layer-by-layer, without fine-tuning. 我们只观察了最后三层Performance layer-by-layer, with fine-tuning. 微调之后,fc6和fc7的性能要比pool5大得多。从ImageNet中学习的pool5特性是一般的,而且大部分的提升都是从在它们之上的特定领域的非线性分类器学习中获得的。Comparison to recent feature learning methods.              见上图 . Detection error analysis           CNN的特征比HOG更加有区分。. Bounding box regression 有了对错误的分析,我们加入了一种方法来减少我们的定位错误。我们训练了一个线性的回归模型HOG和SIFT很慢。但是我们可以由此得到启发,利用有顺序等级和多阶段的处理方式,来实现特征的计算。生物启发的等级和移不变性,本文采用。但是缺少有监督学习的算法。使得卷积训练变得有效率。第一层的卷积层可以可视化。 【23】本文采用这个模型,来得到特征向量  ImageNet Large Scale Visual Recognition Competition用了非线性的激励函数,以及dropout的方法。【34】直接将区域向量作为输入,维数较高。IoU覆盖阈值=,而本文设置为,能提高5个百分点。产生候选区域的方式:selective search 也是本文所采取的方式是结合【34】+【36】。【5】产生候选区域的方式为:限制参数最小割bounding box regression HOG-based DPM文章中的对比试验。缩略图概率。[18][26][28]文章中的对比试验。

105 评论

相关问答

  • 跳动度检测机论文题目

    工程机械论文题目 机械工程是一门涉及利用物理定律为机械系统作分析、设计、制造及维修的工程学科。机械工程是以有关的自然科学和技术科学为理论基础,结合生产实践中的技

    油炸妹子 2人参与回答 2023-12-08
  • 深度学习图像处理研究方向论文

    无可奈何需要

    大旺财爱小旺财 5人参与回答 2023-12-06
  • 论文深度学习模板

    如何开启深度学习之旅?这三大类125篇论文为你导航(附资源下载) 如果你现在还是个深度学习的新手,那么你问的第一个问题可能是「我应该从哪篇文章开始读呢?在 G上

    虎呆呆漫步 3人参与回答 2023-12-06
  • 最新乳癌检测深度学习论文

    很多,没有明确数量。计算机视觉数据集1.MNIST2.ImageNet3.CIFAR4.COCO5.PASCALVOC6.FDDB。自然语言处理数据集1.SQu

    有多久没见你 2人参与回答 2023-12-07
  • 论文小学生数学深度学习研究

    小学深度就是奥数了,这个要看学生接受能力

    智慧女神美美 4人参与回答 2023-12-11