首页 > 学术发表知识库 > 目标检测论文百度云

目标检测论文百度云

发布时间:

目标检测论文百度云

cornerNer论文链接: github: CenterNet论文链接: github: CornerNe-Lite论文链接: github: 所谓基于关键点进行目标检测,其实就是使用one-stage网络将目标边界框检测为一对关键点(即边界框的左上角和右下角)。通过将目标检测为成对关键点,就可消除现有的one-stage检测网络中对一组anchors的需要,这个最近火热的anchor-free也是不谋而合。接下来,先简单介绍下CornetNet和CenterNet这两个基于特征点的目标检测网络。最后对CornerNet-Squeeze做个简单介绍! CornerNet网络的整体思路是,首先通过Hourglass Network网络进行特征提取,紧接着将网络得到的特征输入到两个模块: Top-left Corner pooling 和 Bottom-right Corner pooling 提取关键点的特征,对于每个Corner Pooling模块都会进行目标框的左上角关键点和右下角关键点的类别分类( Heatmaps ),并找到每个目标的一对关键点( Embeddings ),以及减少基于坐标回算目标目标位置时的偏置( offsets )。网络的整体结构图如下: 很显然,CornerNet的核心是四个部分: 最终,如下图所示,上半支路的网络结果如下所示,网络最终是由两条支路组成的。 CenterNet网络主要是基于CornerNet网络存在的问题,而提出的基于关键点目标检测的网络。其实现了目前为止在one-stage系类算法中最高的MAP。CenterNet的作者发现,CornerNet是通过检测物体的左上角点和右下角点来确定目标,但在此过程中CornetNet使用corner pooling仅仅能够提取到目标边缘的特征,而导致CornetNet会产生很多的误检。基于此,CenterNet利用关键点 三元组 即 中心点、左上角关键点和右下角关键点 三个关键点而不是两个点来确定一个目标,使得网络能够获取到目标内部的特征。而CornerNet在论文中也说道了,约束其网络性能最重要的部分是关键点的提取,因此CenterNet提出了 Center Pooling 和 cascade corner Pooling 用来更好的提取本文提出的三个关键点。 作者基于Corner Pooling的系列思想,提出了Center Pooling的思想,使得网络提取到的中心点特征能够更好的表征目标物体。 最终,CenterNet在CornerNet的基础上增加了中心点的预测,以及修改了关键点特征的提取方式,大大减小了网络的误检,并且实现了one-stage系列算法中的最好效果。 普林斯顿大学在4月19号提出了两种更高效的基于关键点的目标检测算法,分别为: CornetNet-Saccade 和 CornetNet-Squeeze ,若将两种策略结合则称为 CornerNet-Lite 。以下是Cver对这两个网络的介绍,个人感觉写的很好,我就不造轮子了: 最终我最感兴趣的网络CornerNet-Squeeze和YOLOv3进行对比,达到了如下图所示的效果。 然而,就在我学习并总结这篇文章的过程中,我发现CornerNet-Squeeze是基于CornerNet改进的,但正如上文中介绍CenterNet的时候提到过的CornerNet所具有的那些弊端,我总觉得CornerNet-Squeeze在误检的部分不一定会很优秀,所以接下来就是看源码阶段了,希望CornerNet-Squeeze能够不负我望哈~

对于目标检测方向并不是特别熟悉,本文记录一下RCNN, fast-RCNN, faster-RCNN, mask-RCNN这4篇有关目标检测的论文笔记和学习心得。

R-CNN的意思就是Region based,主要思路就是根据一张图像,提取多个region,再将每个Region输入CNN来进行特征的提取。因此RCNN就可以分为 Region proposals , Feature extraction 两个主要部分,提取的特征就可以输入任意一个分类器来进行分类。 模型的流程图如下:

在训练的时候,首先使用的是已经训练好的CNN网络作为特征提取器,但是由于预训练是在分类数据集上,因此在应用到检测之前要做finetune。也就是说,为了将用ImageNet数据集训练的网络应用到新的任务(检测),新的数据集(region)上,作者将原来的CNN最后的1000类的fc层,更改为了 层, 代表待检测的物体的类别数。然后,对于所有的region,如果它和ground truth的重叠率大于0.5,就认为是正类。 对于分类器的训练,作者发现选择多大的IoU来区分正类和负类非常关键。并且,对于每一类,都会训练一个分类器。

框的回归非常重要,在对每一个region proposal使用分类器进行打分评价之后,作者使用一个回归器来预测一个新的框作为结果。这个回归器使用的特征是从CNN中提取的特征。回归器的训练中,输入是 region proposal 的 和ground truth的 ,目标是学习一种变换,使得region proposal通过该变换能够接近ground truth。同时,希望这种变换拥有尺度不变性,也就是说尺度变化的话,变换不会改变。 如下图所示,每一个regressor会学习一组参数,特征输入是pool 5的特征输出,拟合的目标是 。

Fast-RCNN 主要解决的问题是在RCNN中对于每一个region proposal都进行特征提取,会产生非常多的冗余计算,因此可以先对一张图像进行特征提取,再根据region proposal在相应的特征上进行划分得到对应region的特征(映射关系)。 这样便可以实现共享计算提高速度,但是与SPPnets不同,SPPnets在一副图像得到对应的特征后,从这张图像的特征上proposal对应的部分,采用空间金字塔池化,如下图:

RoI pooling的方法很简单,类似于空间金字塔pooling,它将proposal部分对应卷积层输出的特征(称之为RoI,因为用于做pooling的特征是 region of interest,也就是我们感兴趣的区域)划分成 块,然后对每一块求最大值,最终得到了一个 的特征图。可以看出,它只是空间金字塔pooling的一部分。 但是SPP-nets的空间金字塔也是可以求导的,那么它到底不好在哪里呢?因为当每一个RoI都可能来源于不同的图像的时候(R-CNN和SPPnets的训练策略是从一个batch的不同图像中,分别挑选一个proposal region),SPPNets的训练非常地低效,这种低效来源于在SPPnets的训练中,每个RoI的感受野都非常地大,很可能对应了原图的整个图像,因此,得到的特征也几乎对应了整张图像,所以输入的图像也就很大。 为了提高效率,Fast-RCNN首先选取 个图像,再从每个图像上选择 个RoI,这样的效率就比从每个图像提取一个RoI提高了 倍。

为了将分类和框回归结合起来,作者采用了多任务的loss,来进行联合的训练。具体来说就是将分类的loss和框回归的loss结合起来。网络的设计上非常直接,就是将RoI得到的特征接几个FC层后,分别接不同的输出层。对应于分类部分,特征会接一个softmax输出,用于分类,对于框回归部分,会接一个输出4维特征的输出层,然后分别计算loss,用于反向传播。loss的公式如下:

回归的target可以参考前面的R-CNN部分。

notes

为什么比fast还fast呢?主要原因是在这篇论文中提出了一个新的层:RPN(region proposal networks)用于替代之前的selective search。这个层还可以在GPU上运算来提高速度。 RPN的目的:

为了能够进行region proposal,作者使用了一个小的网络,在基础的卷积层输出的特征上进行滑动,这个网络输入大小为 ,输入后会映射(用 的卷积)为一个固定长度的特征向量,然后接两个并联的fc层(用 的卷积层代替),这两个fc层,一个为box-regressoin,一个为box-classification。如下图:

在每一个滑动窗口(可以参考 ),为了考虑到尽可能多的框的情况,作者设计了anchors来作为region proposal。anchors就是对于每一个滑动窗口的中心位置,在该位置对应的原图位置的基础上,按照不同的尺度,长宽比例框出 个不同的区域。然后根据这些anchors对应的原始图像位置以及区域,和ground truth,就可以给每一个滑动窗口的每一个anchor进行标记,也就是赋予label,满足一定条件标记为正类(比如和ground truth重叠大于一个值),一定条件为负类。对于正类,就可以根据ground truth和该anchor对应的原图的区域之间的变换关系(参考前面的R-CNN的框回归),得到回归器中的目标,用于训练。也就是论文中的loss function部分:

自然地,也就要求RPN的两个并联的FC层一个输出2k个值用于表示这k个anchor对应的区域的正类,负类的概率,另一个输出4k个值,用于表示框回归的变换的预测值。

对于整个网络的训练,作者采用了一种叫做 4-step Alternating Training 的方法。具体可以参考论文。

与之前的检测任务稍有不同,mask r-cnn的任务是做instance segmentation。因此,它需要对每一个像素点进行分类。 与Faster R-CNN不同,Faster R-CNN对每一个候选框产生两个输出,一个是类别,一个是bounding box的offset。Mask R-CNN新增加了一个输出,作为物体的mask。这个mask类似于ps中的蒙版。

与Faster R-CNN类似的是,Mask R-CNN同样采用RPN来进行Region Proposal。但是在之后,对于每一个RoI,mask r-cnn还输出了一个二值化的mask。

不像类别,框回归,输出都可以是一个向量,mask必须保持一定的空间信息。因此,作者采用FCN来从每个RoI中预测一个 的mask。

由于属于像素级别的预测问题,就需要RoI能够在进行特征提取的时候保持住空间信息,至少在像素级别上能够对应起来。因此,传统的取最大值的方法就显得不合适。 RoI Pooling,经历了两个量化的过程: 第一个:从roi proposal到feature map的映射过程。 第二个:从feature map划分成7*7的bin,每个bin使用max pooling。

为此,作者使用了RoIAlign。如下图

为了避免上面提到的量化过程

可以参考

作者使用ResNet作为基础的特征提取的网络。 对于预测类别,回归框,mask的网络使用如下图结构:

整体看完这几篇大佬的论文,虽说没有弄清楚每一个实现细节,但是大体上了解了算法的思路。可以看出,出发点都源于深度神经网络在特征提取上的卓越能力,因此一众大神试图将这种能力应用在检测问题中。从R-CNN中简单地用于特征提取,到为了提高速度减少计算的Fast R-CNN,再到为了将region proposal集成进入整个模型中,并且利用GPU加速的RPN,也就是Faster R-CNN。再到为了应用于instance segmentation任务中,设计的RoIAlign和mask。包括bounding box regression,pooling层的设计,训练方法的选择,loss的设计等等细节,无一不体现了大师们的思考和创造力。 可能在我们这些“拿来”者的眼中,这些方法都显得“理所应当”和巧妙,好用,但是,它们背后隐藏的选择和这些选择的思考却更值得我们学习。 以及,对待每一个问题,如何设计出合理的解决方案,以及方案的效率,通用性,更是应该我们努力的方向。

目标检测论文精度

原文: Scalable Object Detection using Deep Neural Networks——学术范 最近,深度卷积神经网络在许多图像识别基准上取得了最先进的性能,包括ImageNet大规模视觉识别挑战(ILSVRC-2012)。在定位子任务中获胜的模型是一个网络,它预测了图像中每个对象类别的单个边界框和置信度得分。这样的模型捕获了围绕对象的整幅图像上下文,但如果不天真地复制每个实例的输出数量,就无法处理图像中同一对象的多个实例。在这篇论文中提出了一个显著性启发的神经网络检测模型,它预测了一组与类无关的边界框,每个框有一个分数,对应于它包含任何感兴趣的对象的可能性。该模型自然地为每个类处理数量可变的实例,并允许在网络的最高级别上进行跨类泛化。 目标检测是计算机视觉的基本任务之一。一个解决这个问题的通用范例是训练在子图像上操作的对象检测器,并在所有的场所和尺度上以详尽的方式应用这些检测器。这一范例被成功地应用于经过区别训练的可变形零件模型(DPM)中,以实现检测任务的最新结果。对所有可能位置和尺度的穷举搜索带来了计算上的挑战。随着类数量的增加,这个挑战变得更加困难,因为大多数方法都训练每个类单独的检测器。为了解决这个问题,人们提出了多种方法,从检测器级联到使用分割提出少量的对象假设。 关于对象检测的文献非常多,在本节中,我们将重点讨论利用类不可知思想和解决可伸缩性的方法。 许多提出的检测方法都是基于基于部件的模型,最近由于有区别学习和精心设计的特征,已经取得了令人印象深刻的性能。然而,这些方法依赖于在多个尺度上详尽地应用零件模板,这是非常昂贵的。此外,它们在类的数量上是可伸缩的,这对像ImageNet这样的现代数据集来说是一个挑战。 为了解决前一个问题,Lampert等人使用分支绑定策略来避免计算所有可能的对象位置。为了解决后一个问题,Song et al.使用了一个低维部件基,在所有对象类中共享。基于哈希算法的零件检测也取得了良好的结果。 另一种不同的工作,与我们的工作更接近,是基于对象可以本地化的想法,而不必知道它们的类。其中一些方法建立在自底向上无阶级分割[9]的基础上。通过这种方式得到的片段可以使用自上而下的反馈进行评分。基于同样的动机,Alexe等人使用一种廉价的分类器对对象假设是否为对象进行评分,并以这种方式减少了后续检测步骤的位置数量。这些方法可以被认为是多层模型,分割作为第一层,分割分类作为后续层。尽管它们编码了已证明的感知原理,但我们将表明,有更深入的模型,充分学习可以导致更好的结果。 最后,我们利用了DeepLearning的最新进展,最引人注目的是Krizhevsky等人的工作。我们将他们的边界盒回归检测方法扩展到以可扩展的方式处理多个对象的情况。然而,基于dnn的回归已经被Szegedy等人应用到对象掩模中。最后一种方法实现了最先进的检测性能,但由于单个掩模回归的成本,不能扩展到多个类。 我们的目标是通过预测一组表示潜在对象的边界盒来实现一种与类无关的可扩展对象检测。更准确地说,我们使用了深度神经网络(DNN),它输出固定数量的包围盒。此外,它为每个盒子输出一个分数,表示这个盒子包含一个对象的网络信任度。 为了形式化上述思想,我们将i-thobject框及其相关的置信度编码为最后一网层的节点值: Bounding box: 我们将每个框的左上角和右下角坐标编码为四个节点值,可以写成vectorli∈R4。这些坐标是归一化的w. r. t.图像尺寸,以实现图像绝对尺寸的不变性。每个归一化坐标是由最后一层的线性变换产生的。 Confidence: 置信度:包含一个对象的盒子的置信度得分被编码为单个节点valueci∈[0,1]。这个值是通过最后一个隐藏层的线性变换产生的,后面跟着一个sigmoid。 我们可以组合边界盒位置sli,i∈{1,…K}为一个线性层。同样,我们可以将所有置信区间ci,i∈{1,…K}作为一个s型层的输出。这两个输出层都连接到最后一个隐藏层 在推理时,我们的算法生成kbound盒。在我们的实验中,我们使用ek = 100和K= 200。如果需要,我们可以使用置信分数和非最大抑制在推理时获得较少数量的高置信框。这些盒子应该代表对象。因此,它们可以通过后续的分类器进行分类,实现目标检测。由于盒子的数量非常少,我们可以提供强大的分类器。在我们的实验中,我们使用另一个dnn进行分类。 我们训练一个DNN来预测每个训练图像的边界框及其置信度得分,以便得分最高的框与图像的groundtruth对象框很好地匹配。假设对于一个特定的训练例子,对象被标记为boundingboxesgj,j∈{1,…,M}。在实践中,pre- dictionary的数量远远大于groundtruthboxm的数量。因此,我们试图只优化与地面真实最匹配的预测框子集。我们优化他们的位置,以提高他们的匹配度,最大化他们的信心。与此同时,我们将剩余预测的置信度最小化,这被认为不能很好地定位真实对象。为了达到上述目的,我们为每个训练实例制定一个分配问题。Wexij∈{0,1}表示赋值:xij= 1,如果第i个预测被赋值给第j个真对象。这项任务的目标可以表示为 其中,我们使用标准化边界框坐标之间的el2距离来量化边界框之间的不同。此外,我们希望根据分配x优化盒子的可信度。最大化指定预测的置信度可以表示为  最终的损失目标结合了匹配损失和信心损失 受式1的约束。α平衡了不同损失条款的贡献。 对于每个训练例子,我们通过解决一个最佳的赋值x*的预测到真实的盒子 约束执行赋值解决方案。这是二部匹配的一种变体,是一种多项式复杂度匹配。在我们的应用程序中,匹配是非常便宜的——每幅图像中标记的对象的数量少于一打,而且在大多数情况下只有很少的对象被标记。然后,通过反向传播优化网络参数。例如,反向传播算法的一阶导数计算w、r、t、l和c 尽管上述定义的损失在原则上是足够的,但三次修改使其有可能更快地达到更好的准确性。第一个修改是对地面真实位置进行聚类,并找到这样的聚类/质心,我们可以使用这些聚类/质心作为每个预测位置的先验。因此,鼓励学习算法为每个预测位置学习一个残差到一个先验。 第二个修改涉及到在匹配过程中使用这些先验:不是将N个groundtruth位置与K个预测进行匹配,而是在K个先验和groundtruth之间找到最佳匹配。一旦匹配完成,就会像之前一样计算目标的置信度。此外,位置预测损失也不变:对于任何一对匹配的(目标,预测)位置,其损失定义为groundtruth和对应于匹配先验的坐标之间的差值。我们把使用先验匹配称为先验匹配,并假设它促进了预测的多样化。  需要注意的是,尽管我们以一种与类无关的方式定义了我们的方法,但我们可以将它应用于预测特定类的对象盒。要做到这一点,我们只需要在类的边框上训练我们的模型。此外,我们可以预测每个类的kbox。不幸的是,这个模型的参数数量会随着类的数量线性增长。此外,在一个典型的设置中,给定类的对象数量相对较少,这些参数中的大多数会看到很少有相应梯度贡献的训练示例。因此,我们认为我们的两步过程——首先本地化,然后识别——是一个更好的选择,因为它允许使用少量参数利用同一图像中多个对象类型的数据 我们使用的本地化和分类模型的网络架构与[10]使用的网络架构相同。我们使用Adagrad来控制学习速率衰减,128的小批量,以及使用多个相同的网络副本进行并行分布式训练,从而实现更快的收敛。如前所述,我们在定位损失中使用先验——这些是使用训练集上的均值来计算的。我们还使用α = 0.3来平衡局部化和置信度损失。定位器可以输出用于推断的种植区以外的坐标。坐标被映射和截断到最后的图像区域。另外,使用非最大抑制对盒进行修剪,Jaccard相似度阈值为0.5。然后,我们的第二个模型将每个边界框分类为感兴趣的对象或“背景”。为了训练我们的定位器网络,我们从训练集中生成了大约3000万幅图像,并对训练集中的每幅图像应用以下步骤。最后,样品被打乱。为了训练我们的本地化网络,我们通过对训练集中的每一幅图像应用以下步骤,从训练集中生成了大约3000万幅图像。对于每幅图像,我们生成相同数量的平方样本,使样本总数大约为1000万。对于每幅图像,样本被桶状填充,这样,对于0 - 5%、5 - 15%、15 - 50%、50 - 100%范围内的每个比例,都有相同数量的样本,其中被包围框覆盖的比例在给定范围内。训练集和我们大多数超参数的选择是基于过去使用非公开数据集的经验。在下面的实验中,我们没有探索任何非标准数据生成或正则化选项。在所有的实验中,所有的超参数都是通过对训练集。 Pascal Visual Object Classes (VOC)挑战是最常用的对象检测算法基准。它主要由复杂的场景图像组成,其中包含了20种不同的对象类别的边界框。在我们的评估中,我们关注的是2007版VOC,为此发布了一个测试集。我们通过培训VOC 2012展示了结果,其中包含了大约。11000张图片。我们训练了一个100框的定位器和一个基于深度网络的分类器。 我们在一个由1000万作物组成的数据集上训练分类器,该数据集重叠的对象至少为0.5 jaccard重叠相似度。这些作物被标记为20个VOC对象类中的一个。•2000万负作物与任何物体盒最多有0.2个Jaccard相似度。这些作物被贴上特殊的“背景”类标签。体系结构和超参数的选择遵循。 在第一轮中,定位器模型应用于图像中最大-最小中心方形作物。作物的大小调整到网络输入大小is220×220。单次通过这个网络,我们就可以得到上百个候选日期框。在对重叠阈值为0.5的非最大抑制后,保留评分最高的前10个检测项,并通过21路分类器模型分别通过网络进行分类。最终的检测分数是给定盒子的定位分数乘以分类器在作物周围的最大方形区域上评估的分数的乘积。这些分数通过评估,并用于计算精确查全曲线。 首先,我们分析了本地化器在隔离状态下的性能。我们给出了被检测对象的数量,正如Pascal检测标准所定义的那样,与生成的包围框的数量相对比。在图1中,我们展示了使用VOC2012进行训练所获得的结果。此外,我们通过使用图像的最大中心面积(max-center square crop)作为输入以及使用两个尺度(second scale)来给出结果:最大中心面积(max-center crop)的第二个尺度(select3×3windows的大小为图像大小的60%)正如我们所看到的,当使用10个边界框的预算时,我们可以用第一个模型本地化45.3%的对象,用第二个模型本地化48%的对象。这显示出比其他报告的结果更好的性能,例如对象度算法达到42%[1]。此外,这个图表显示了在不同分辨率下观察图像的重要性。虽然我们的算法通过使用最大中心作物获得了大量的对象,但当使用更高分辨率的图像作物时,我们获得了额外的提升。进一步,我们用21-way分类器对生成的包围盒进行分类,如上所述。表1列出了VOC 2007的平均精度(APs)。达到的平均AP是0.29,与先进水平相当。注意,我们的运行时间复杂度非常低——我们只使用top10框。示例检测和全精度召回曲线分别如图2和图3所示。值得注意的是,可视化检测是通过仅使用最大中心方形图像裁剪,即使用全图像获得的。然而,我们设法获得了相对较小的对象,例如第二行和第二列的船,以及第三行和第三列的羊。 在本工作中,我们提出了一种新的方法来定位图像中的对象,该方法可以预测多个边界框的时间。该方法使用深度卷积神经网络作为基本特征提取和学习模型。它制定了一个能够利用可变数量的groundtruth位置的多箱定位成本。在“一个类一个箱”方法的情况下,对1000个盒子进行非max-suppression,使用与给定图像中感兴趣的DeepMulti-Box方法相同的准则,并学习在未见图像中预测这些位置。 我们在VOC2007和ILSVRC-2012这两个具有挑战性的基准上给出了结果,在这两个基准上,所提出的方法具有竞争力。此外,该方法能够很好地预测后续分类器将探测到的位置。我们的结果表明,deepmultibox的方法是可扩展的,甚至可以在两个数据集之间泛化,就能够预测感兴趣的定位,甚至对于它没有训练的类别。此外,它能够捕获同一类物体的多种情况,这是旨在更好地理解图像的算法的一个重要特征。 在未来,我们希望能够将定位和识别路径折叠到一个单一的网络中,这样我们就能够在一个通过网络的一次性前馈中提取位置和类标签信息。即使在其当前状态下,双通道过程(本地化网络之后是分类网络)也会产生5-10个网络评估,每个评估的速度大约为1个CPU-sec(现代机器)。重要的是,这个数字并不与要识别的类的数量成线性关系,这使得所提出的方法与类似dpm的方法非常有竞争力。

论文: EfficientDet: Scalable and Efficient Object Detection

目前目标检测领域,高精度的模型通常需要很大的参数量和计算量,而轻量级的网络则一般都会牺牲精度。因此,论文希望建立一个可伸缩的高精度且高性能的检测框架。论文基于one-stage的检测网络范式,进行了多种主干网络、特征融合和class/box预测的结构尝试,主要面临两个挑战:

FPN是目前最广泛的多尺度融合方法,最近也有PANet和NAS-FPN一类跨尺度特征融合方法。对于融合不同的特征,最初的方法都只是简单地直接相加,然而由于不同的特征是不同的分辨率,对融合输出特征的共享应该是不相等的。为了解决这一问题,论文提出简单但高效加权的bi-directional feature pyramid network(BiFPN),该方法使用可学习的权重来学习不同特征的重要性,同时反复地进行top-down和bottom-up的多尺度融合

论文认为除了缩放主干网络和输入图片的分辨率,特征网络(feature network)和box/class预测网络的缩放对准确率和性能也是很重要的。作者借鉴EfficientNet,提出针对检测网络的混合缩放方法(compound scaling method),同时对主干网络,特征网络和box/class预测网络的分辨率/深度/宽度进行缩放

最后,论文将EfficientNet作为主干,结合BiFPN和混合缩放,提出新的检测系列EfficientDet,精度高且轻量,COCO上的结果如图1,论文的贡献有以下3点:

定义多尺寸特征 ,论文的目标是找到变化函数 来高效融合不同的特征,输出新特征 。具体地,图2a展示了top-down FPN网络结构,一般FPN只有一层,这里应该为了对比写了repeat形式。FPN获取3-7层的输入 , 代表一个分辨率为 的特征层

top-down FPN操作如上所示, 为上采用或下采样来对齐分辨率, 通常是特征处理的卷积操作

top-down FPN受限于单向的信息流,为了解决这一问题,PANet(图2b)增加了额外的bottom-up路径的融合网络,NAS_FPN(图2c)使用神经架构搜索来获取更好的跨尺度特征网络的拓扑结构,但需要大量资源进行搜索。其中准确率最高的是PANet,但是其需要太多的参数和计算量,为了提高性能,论文对跨尺寸连接做了几点改进:

大多的特征融合方法都将输入特征平等对待,而论文观察到不同分辨率的输入对融合输出的特征的贡献应该是不同的。为了解决这一问题,论文提出在融合时对输入特征添加额外的权重预测,主要有以下方法:

, 是可学习的权重,可以是标量(per-feature),也可以是向量(per-channel),或者是多维tensor(per-pixel)。论文发现标量形式已经足够提高准确率,且不增加计算量,但是由于标量是无限制的,容易造成训练不稳定,因此,要对其进行归一化限制

,利用softmax来归一化所有的权重,但softmax操作会导致GPU性能的下降,后面会详细说明

,Relu保证 , 保证数值稳定。这样,归一化的权重也落在 ,由于没有softmax操作,效率更高,大约加速30%

BiFPN集合了双向跨尺寸的连接和快速归一化融合,level 6的融合操作如上, 为top-down路径的中间特征, 是bottom-up路径的输出特征,其它层的特征也是类似的构造方法。为了进一步提高效率,论文特征融合时采用depthwise spearable convolution,并在每个卷积后面添加batch normalization和activation

EfficientDet的结构如图3所示,基于one-stage检测器的范式,将ImageNet-pretrained的EfficientNet作为主干,BiFPN将主干的3-7层特征作为输入,然后重复进行top-down和bottom-up的双向特征融合,所有层共享class和box网络

之前检测算法的缩放都是针对单一维度的,从EfficientNet得到启发,论文提出检测网络的新混合缩放方法,该方法使用混合因子 来同时缩放主干网络的宽度和深度、BiFPN网络、class/box网络和分辨率。由于缩放的维度过多,EfficientNet使用的网格搜索效率太慢,论文改用heuristic-based的缩放方法来同时缩放网络的所有维度

EfficientDet重复使用EfficientNet的宽度和深度因子,EfficinetNet-B0至EfficientNet-B6

论文以指数形式来缩放BiFPN宽度 (#channels),而以线性形式增加深度 (#layers),因为深度需要限制在较小的数字

box/class预测网络的宽度固定与BiFPN的宽度一致,而用公式2线性增加深度(#layers)

因为BiFPN使用3-7层的特征,因此输入图片的分辨率必需能被 整除,所以使用公式3线性增加分辨率

结合公式1-3和不同的 ,论文提出EfficientDet-D0到EfficientDet-D6,具体参数如Table 1,EfficientDet-D7没有使用 ,而是在D6的基础上增大输入分辨率

模型训练使用momentum=0.9和weight decay=4e-5的SGD优化器,在初始的5%warm up阶段,学习率线性从0增加到0.008,之后使用余弦衰减规律(cosine decay rule)下降,每个卷积后面都添加Batch normalization,batch norm decay=0.997,epsilon=1e-4,梯度使用指数滑动平均,decay=0.9998,采用 和 的focal loss,bbox的长宽比为 ,32块GPU,batch size=128,D0-D4采用RetinaNet的预处理方法,D5-D7采用NAS-FPN的增强方法

Table 2展示了EfficientDet与其它算法的对比结果,EfficientDet准确率更高且性能更好。在低准确率区域,Efficient-D0跟YOLOv3的相同准确率但是只用了1/28的计算量。而与RetianaNet和Mask-RCNN对比,相同的准确率只使用了1/8参数和1/25的计算量。在高准确率区域,EfficientDet-D7达到了51.0mAP,比NAS-FPN少使用4x参数量和9.3x计算量,而anchor也仅使用3x3,非9x9

论文在实际的机器上对模型的推理速度进行了对比,结果如图4所示,EfficientDet在GPU和CPU上分别有3.2x和8.1x加速

论文对主干网络和BiFPN的具体贡献进行了实验对比,结果表明主干网络和BiFPN都是很重要的。这里要注意的是,第一个模型应该是RetinaNet-R50(640),第二和第三个模型应该是896输入,所以准确率的提升有一部分是这个原因。另外使用BiFPN后模型精简了很多,主要得益于channel的降低,FPN的channel都是256和512的,而BiFPN只使用160维,这里应该没有repeat

Table 4展示了Figure 2中同一网络使用不同跨尺寸连接的准确率和复杂度,BiFPN在准确率和复杂度上都是相当不错的

Table 5展示了不同model size下两种加权方法的对比,在精度损失不大的情况下,论文提出的fast normalized fusion能提升26%-31%的速度

figure 5展示了两种方法在训练时的权重变化过程,fast normalizaed fusion的变化过程与softmax方法十分相似。另外,可以看到权重的变化十分快速,这证明不同的特征的确贡献是不同的,

论文对比了混合缩放方法与其它方法,尽管开始的时候相差不多,但是随着模型的增大,混合精度的作用越来越明显

论文提出BiFPN这一轻量级的跨尺寸FPN以及定制的检测版混合缩放方法,基于这些优化,推出了EfficientDet系列算法,既保持高精度也保持了高性能,EfficientDet-D7达到了SOTA。整体而言,论文的idea基于之前的EfficientNet,创新点可能没有之前那么惊艳,但是从实验来看,论文推出的新检测框架十分实用,期待作者的开源

论文检测百度经验

操作方法如下:

操作设备:戴尔笔记本电脑

操作系统:win10

操作程序:百度浏览器v8.2、中国知网

1、首先找到知网官方网站,如下图所示:

2、找到“学术不端文件检索系统“,如下图所示:

3、在新的网页中,选择需要查重的类型,如下图所示:

4、根据需求选择入口途径,如下图所示:

5、在登录页面根据个人身份信息进行输入账户密码,如下图所示:

6、接着根据页面提示操作,如下图所示:

7、按照提示,输入论文标题,作者姓名提交检测,如下图所示:

8、最后等待结果,下载查重报告单即可,如下图所示:

毕业论文写作和毕业论文查重对应届毕业生来说是非常重要的一件事情,因此,这也让很多毕业生感到压力山大。下面小编来给大家讲一讲大家困惑的论文查重,查重应该怎么检测呢?

1、选择合适的论文查重系统

通过互联网可以搜索到很多的论文查重系统,因此大家在选择检测系统时,需要擦亮眼睛,避免选择到不靠谱的论文查重系统,然后导致论文出现被他人盗用的情况。

2、选择对应论文查重入口

在选择论文查重系统之前,大家需要确定好自己的论文是属于哪一种类型,高校要求使用哪种论文查重系统确定好之后在进行检测。

3、填写信息并上传论文

学生选择好论文查重系统后,按照检测系统提示进行操作,将论文标题、作者姓名填写正确,然后将论文上传即可。

4、支付论文检测费用

在论文上传之后,根据系统提示支付检测费用,等待检测报告。大家可以关闭页面去做其他的事情,查重系统会自行检测,并出具检测报告。

5、下载查重报告

查重系统在检测完成论文之后,重复率结果会在查重报告页面显示出来,大家找到查重报告下载即可。

二、给大家推荐papertime查重系统

papertime查重系统是有很多学生在进行使用的,适用于初稿查重,拥有在线改重,实时查重功能,能够同步出具检测报告,大家完全可以放心地使用。papertime论文查重系统可以检测中英文以及小语种,查重准确。

1.首先,百度进入天天论文查重网2.填写【论文标题】,【论文作者】,把需要检测的论文内容复制到【论文内容】里面的文本框里面,然后点击下一步;3.输入订单号,订单号查找的办法是:我的淘宝——已买到的宝贝;4.检测报告下载,一般是10分钟左右即可下载报告,高峰期会有所廷迟;

以paperfree官网举例,微信扫码登录,提交检测报告,等论文检测完成时候,点击“查看报告”,在报告列表找到要打开的论文,点击右侧“查看报告”。

百度必过论文检测

1、论文查重就是为了检测论文的重复率,首先选择一个靠谱的论文查重网站,这里可以选择自己熟悉的,也可以根据学长或者老师的推荐进行选择,最好是用和学校一样的论文查重系统。

检测论文初稿的话可以使用PaperPP论文查重系统,查重报告能够给自己的论文修改提供很好的参考意见,并且查重费用很便宜且有机会可以不花钱;检测论文初稿的话,大家可以使用知网论文查重系统,知网查重质量很高,很多高校都是以知网查重结果作为成绩来判定大家的论文能否通过论文查重。

2、进入论文查重网站之后,根据自己的论文类型选择适合的论文查重入口,拿知网查重系统来说,本科论文适合通过知网pmlc论文查重入口检测,硕博论文适合通过知网VIP5.3论文查重入口检测。然后上传论文提交支付查重费用等待检测完成即可。

3、检测完成之后即可下载论文查重报告。

参考资料:《毕业论文查重流程》

简单讲,查重即为文字匹配的过程,是以句为单位,如果一句话重复13个字了,就很容易判定重复了。O(∩_∩)~目前学校对本硕博查多采用的是中国知网CNKI学位论文检测系统TMLC/VIP。其运作模式是将论文电子版输入电子数据库,然后数据库会根据现有的所有存在的知网的或者网络上的电子数据进行匹配,软件检测到如果有13个相同的字,就认为是雷同。现在的查重吖五花八门,说不好什么是最好的,简单粗暴的讲,学校用啥系统咱就用啥系统。建议:一般高校用的都是知网检测,考虑知网检测价格较高,可以先用其他系统做前期修改,最后在用知网检测做最终定稿。知网因为不对个人开放,学校又不提前给学生检测,为了查重安全,也为了平复自己内心,我自己是找的一个信誉高的店,和学校的结果倒是一样,也没有造成论文泄露。当然网上有很多种查重渠道可以帮助你修改有内容重复风险的文章。大致罗列,我用过的直接介绍,最后一栏没用过的系统您根据个人情况来:(1)万方检测,全称为万方论文检测。我本科毕业的时候,刚开始初稿用的就是知网,但是隔得时间太久了,实在找不到检测地方,抱歉。。整体讲论文提交后是由万方数据网站所收录的文献资源,进行的不断检测。这个系统称之为万方论文检测系统。其特点是费用低,检测速度快,但是包含的系统不全面,只适合最初期的检测。(2)paperright论文检测 这个我本科前期和中期修改的时候都用过。paperright的比对指纹数据库库由超过5000万的学术期刊和学位论文,以及一个超过10亿数量的互联网网页数据库组成。检测费用相比较便宜,1元/千字,有8000字检测免费活动。适合广大的本科生、硕士研究生。山寨的各种paper太多了,给出官网检测地址吧(3)知网检测,全称为中国知网论文检测。它包括知网VIP硕博检测、AMLC、PMLC(期刊论文检测)、VIP分解论文检测等多个检测系统,店里都有介绍,我不多说。它的特点是权威性高,国内机构多以其为主。不过费用太高。我个人的经验是,一篇论文,如果CNKI查出来的的重复率在15%的话,万方通常在3%,paperright通常在25%。至于具体选择哪种,你可以自己决定。(4)最近今年还出现了paper的一系列如paper test、paperfree等系统,我个人没用过,不做评价。

可以运用PaperPass论文重复率检测软件检测论文重复率。

降低论文的重复率有两种,分别是人工降重方法和机器人降重方法。

人工降重方法又分为两种:

1、将重复的语句用自己的语言进行解释。

2、把论文机翻成英文再机翻回中文,然后理清逻辑、修改语病、通顺上下文。

机器降重的方法:

1、机器虽不能完全取代人工,但在使用上,其较人工方法更为快捷简便这点是毋庸置疑的。机器智能降重,其通过大量学术论文数据语料训练,能够快捷智能地将原有重复率高的语句进行替换,并搭载于PaperTime查重软件上,实现了边查重边降重的功能,大大节省了用户的时间成本。

2、且机器降重效率高、速度快,几万字的相似内容不超过10秒就可以降重完成,真正意义上达到了快速降低论文重复率的要求。

3、人工智能并不能完全取代人工,因此机器人降重也不是万能的。机器人降重后有些语句还需人工进行再调整,这样才能够保障论文逻辑通顺。在进行机器人降重后千万要自己再顺一遍文章结构,以免出现纰漏以至于无法毕业。

降低论文重复率的方法:

1、运用自己的语句进行解释。

这种方法最为老实也最有底气,毕竟是自己真刀真枪写出来的。这种方法遇到前人写过很多遍了的论题就会被克得死死的,因为能想得到的句子,再怎么白话和通俗都有可能已经被他人写过,查重降重了无数次,重复率依然高得让人头疼。2、把论文翻译成英文再机翻译回中文,然后理清逻辑、修改语病、通顺上下文。

写邦科技于2017年自主研发了线上自动降重工具——机器人智能降重,其通过大量学术论文数据语料训练,能够快捷智能地将原有重复率高的语句进行替换,并搭载于PaperTime查重软件上,实现了边查重边降重的功能,大大节省了用户的时间成本。

PaperTime(查重软件)--降低论文重复率

1、先找一个靠谱的论文查重系统,一般学校会有1-2次免费查重的机会,主要是在知网上查重;2、如果担心学校给的查重次数不够用,可以自己到维普、万方、paperpp上进行查重;3、网上找到的知网查重有些也可以查,查重报告要支持知网官方验证才行;4、开始查重前先注册好账号并牢记密码,如果怕忘记可以用手机验证码或者QQ登录注册;5、如果有免费获取查重字数的活动,可以参加一下,一般就是关注或者分享;6、然后在指定的菜单下提交论文,注意文档格式和平台要求;7、一般等待10-30分钟就可以出查重结果,具体以查重系统说明为准。

lens杂志百度云

有两个适合文艺青年阅读的杂志:《Lens》和《人物杂志》,前者是财经的美术总监法满主编的一本人文艺术杂志,出人意料地好,很多选题引发我强烈的阅读欲。

《人物》不必细说了,李海鹏主编后,质量急剧提升。这两本是近年来最令人惊讶、崛起速度最快的精彩杂志。

阅读杂志的好处:

书籍是人类进步的阶梯,其实,读书就是将人类浓缩几千年的科技、文化快速习得的最佳方式,读书能够让你在极短的时间内,掌握大量的科学文化知识,摆脱愚昧和迷信,你不再是一个空白的人,而是通过读书赋予了自己丰富的知识色彩。

读书能帮你树立正确的三观,通过阅读,你能够与先贤们博古烁今,你能够与文人骚客们煮酒论歌,你能够从无数正反面的故事中,吸取教训,增长见识,去粗取精,形成具有正面导向性的三观。读书能帮你开拓视野,你不再局限与小小生活中的一隅,你可以无拘无束地畅游古今中外,学识遍布四海,随着读书范围的扩大,你也会练就出广博的心胸与远大的理想和信念。读书能帮你结识朋友,扩大社交圈子,通过读书,你能找到志同道合的朋友,你们可以在一起谈天论地,开怀舒心,那何尝不是一种莫大的好处。读书可以提高你的层次,提升你的综合素质,通过阅读,你不仅可以学会解决实际生活中问题的方法,也能在无形中为自己增加一抹书卷文艺的气息,让你的气质更加出众。

首先推荐 “轻芒阅读” 这个强大APP号称:一个页面看尽 500 多款热门应用内内容 现在还能关注微信公众号意思就是可以在一个应用中看完所有感兴趣的应用,这大大节省了空间和时间 如果你手机空间小的话那就下个这个吧 足矣~因为我是安卓系统 有的好看的APP只有IOS版的 有了这个豌豆荚一览 我就可以在安卓系统里看了 哈哈我自己一口气关注了近百个应用··· 挺有意思的比如:国家地理,好奇心日报,一个,片刻,眼界,医学时间,艺术狗,艺术新闻,艺术头条,艺术图库,VART,ARTAND,译言,知乎日报,足迹,最美应用【每日都会推荐些好玩的APP】,理想家,artstack,Lens杂志,TED,Light,NASA,阅读时间,想去,视觉艺术,良仓,单读,500px,界面,V电影 ,Medium,小红书,LOFTER,优阁,站酷,气质大自然,十个,堆糖哈哈 真是一网打尽! 特别是关于艺术的APP 关注这几个足够了~好了 介绍到此结束!再见! 感觉就装这个应用来看足够了···第二个就是很火的“开眼视频”每天更新5个全球精选的高清短视频【周末会另外加5个】 内容包罗万象 虽然豌豆荚一览里面也能关注 但我还是喜欢单独下载下来看~ 赞一个今天看了个全息投影技术的短片 不错不错~ 微投下一步就是全息了第三个是 猫弄“MONO”高质量内容文化社区 很文艺啊 类似于微信公众号 自己也可以建站我一口气关注了90多个 大多是艺术的 找你自己感兴趣的小组吧 界面清爽 一目了然 应有尽有啊第四个 “移动天文台” 【中文破解版】随便玩玩 虽然下过其他关于天文的APP 但就是这个APP适合我系统第五个:“VART”私人美术馆 虽然豌豆荚一览里也有 但我想与别人交流交流 注册了 挺好

《安藤忠雄》(Lens)电子书网盘下载免费在线阅读

资源链接:

链接:

书名:安藤忠雄

作者:Lens

豆瓣评分:8.8

出版社:中信出版集团

出版年份:2017-12

页数:392

内容简介:

《安藤忠雄:建造属于自己的世界》,全面记录了安藤忠雄50年来代表性的建筑作品和人生的关键时刻。他著文总结了他在建筑中浓缩的思考,并在和 Lens 的对话中呈现了他对当下社会的看法,以及对年轻人的建议。

他以“挑战”和“自由”展开自己人生的讲述,以“住宅•原点”“光与影”“留白的空间”“解读场所”“旧物生新”和“培育”来分析自己对建筑和生活的看法。他说,“人心是很难居住在这个数字时代的,我想建造的是那种能让人心居住、扎根的地方……”

安藤忠雄为本书手写了全部的小标题和说明文字,他与Lens深度协作完成了392页的书稿,并评价为:“这本书和一般的建筑书籍不一样,非常特别,非常有趣。”

编辑推荐:

◎建筑大师安藤忠雄“代表作品+人生关键时刻”全纪录,由安藤和Lens联手撰稿和编排。

◎近400页精装图集+10万文字,总结了安藤在建筑中浓缩的思考,以及对当下社会对年轻人的看法。

◎安藤忠雄说:“这本书和一般的建筑书籍不一样,非常特别,非常有趣。”

◎“自由”和“挑战”,是安藤一生的主题,也是本书藏在建筑图集后的精神主线。

◎“有自由,人才真正叫活着;活着,身体中就应该充满生命力……”安藤说,“如果没有自由的话,我们的世界观是无法扩展的……”

◎内文使用艺术类超感纸,纸色淡雅,四色全彩印刷,硬壳精装,提供高具性价比的画册品质,值得收藏的价值体验。

◎基于Lens从杂志开始十余年的积累,品质从未打折。

作者简介:

关于安藤忠雄:

安藤忠雄,日本著名建筑师,1941年出生于大阪,1995 年获得普利兹克建筑奖。安藤并非科班出身,但他以劣势为优势,钟爱自由和挑战。他以清水混凝土和简约的几何 构成为代表性语言,完成了住吉的长屋、光之教堂等名作。

关于Lens:

Lens是一个发现创造与美、探索生活价值、传递人性温暖的文化平台,旗下涵盖出版、 新媒体、“重逢岛”视频产品、空间展览以及儿童美学教育等。

Lens自2005年创刊至今,持续且稳定地刊登优质影像阅读内容,拥有超过76万微博粉丝、超过80万微信粉丝、超过21万知乎粉丝,其中包括诸多领域的精英和意见领袖。Lens已被公认为中国极富品质的影像阅读品牌。

Lens自2015年起推出了两个系列的MOOK读物:《目客》系列,聚焦于单一主题阅读;《视觉》系列,侧重于多元影像阅读。《目客》和《视觉》在世界范围内采集富有个性的内容,聚焦人性、情感、生活,营造视觉、思维、想象力被充分调动的纸上阅读新体验。

内容太繁琐,不能直奔主题。在新闻、观点、体育、文化、生活方式等大类后面有个更多,隐藏着一些不那么重要的频道,图片频道就在更多里,再点两次才会看到影像故事ThePictureEssay的合集页面。Lens是一本以影像为阅读方式的出版物,以图文结合的叙述方式,关注不断变化的现实,永恒不变的人性,人文艺术和生活美学,主题是营造最具影像冲击力的品质生活。

  • 索引序列
  • 目标检测论文百度云
  • 目标检测论文精度
  • 论文检测百度经验
  • 百度必过论文检测
  • lens杂志百度云
  • 返回顶部