这两天在公司做PM实习,主要是自学一些CV的知识,以了解产品在解决一些在图像识别、图像搜索方面的问题,学习的主要方式是在知网检索了篇国内近3年计算机视觉和物体识别的硕博士论文。由于时间关系,后面还会继续更新图片相似度计算(以图搜图)等方面的学习成果 将这两天的学习成果在这里总结一下。你将会看到计算机视觉在解决特定物体识别问题(主要是卷积神经网络CNNs)的基础过程和原理,但这里不会深入到技术的实现层面。
计算机视觉(Computer vision)是一门研究如何使机器“看”的科学,更进一步的说,就是指用摄影机和计算机代替人眼对目标进行识别、跟踪和测量等机器视觉,并进一步做图像处理,用计算机处理成为更适合人眼观察或传送给仪器检测的图像。 ————维基百科 通常而言,计算机视觉的研究包括三个层次: (1)底层特征的研究: 这一层次的研究主要聚焦如何高效提取出图像对象具有判别性能的特征,具体的研究内容通常包括:物体识别、字符识别等 (2)中层语义特征的研究: 该层次的研究在于在识别出对象的基础上,对其位置、边缘等信息能够准确区分。现在比较热门的:图像分割;语义分割;场景标注等,都属于该领域的范畴 (3)高层语义理解: 这一层次建立在前两层的基础上,其核心在于“理解”一词。 目标在于对复杂图像中的各个对象完成语义级别的理解。这一层次的研究常常应用于:场景识别、图像摘要生成及图像语义回答等。 而我研究的问题主要隶属于底层特征和中层语义特征研究中的物体识别和场景标注问题。
人类的视觉工作模式是这样的: 首先,我们大脑中的神经元接收到大量的信息微粒,但我们的大脑还并不能处理它们。 于是接着神经元与神经元之间交互将大量的微粒信息整合成一条又一条的线。 接着,无数条线又整合成一个个轮廓。 最后多个轮廓累加终于聚合我们现在眼前看到的样子。 计算机科学受到神经科学的启发,也采用了类似的工作方式。具体而言,图像识别问题一般都遵循下面几个流程
(1)获取底层信息。获取充分且清洁的高质量数据往往是图像识别工作能否成功的关键所在 (2)数据预处理工作,在图像识别领域主要包括四个方面的技术:去噪处理(提升信噪比)、图像增强和图像修复(主要针对不够清晰或有破损缺失的图像);归一化处理(一方面是为了减少开销、提高算法的性能,另一方面则是为了能成功使用深度学习等算法,这类算法必须使用归一化数据)。 (3)特征提取,这一点是该领域的核心,也是本文的核心。图像识别的基础是能够提取出足够高质量,能体现图像独特性和区分度的特征。 过去在10年代之前我们主要还是更多的使用传统的人工特征提取方法,如PCA\LCA等来提取一些人工设计的特征,主要的方法有(HOG、LBP以及十分著名的SIFT算法)。但是这些方法普遍存在(a)一般基于图像的一些提层特征信息(如色彩、纹理等)难以表达复杂的图像高层语义,故泛化能力普遍比较弱。(b)这些方法一般都针对特定领域的特定应用设计,泛化能力和迁移的能力大多比较弱。 另外一种思路是使用BP方法,但是毕竟BP方法是一个全连接的神经网络。这以为这我们非常容易发生过拟合问题(每个元素都要负责底层的所有参数),另外也不能根据样本对训练过程进行优化,实在是费时又费力。 因此,一些研究者开始尝试把诸如神经网络、深度学习等方法运用到特征提取的过程中,以十几年前深度学习方法在业界最重要的比赛ImageNet中第一次战胜了SIFT算法为分界线,由于其使用权重共享和特征降采样,充分利用了数据的特征。几乎每次比赛的冠军和主流都被深度学习算法及其各自改进型所占领。其中,目前使用较多又最为主流的是CNN算法,在第四部分主要也研究CNN方法的机理。
上图是一个简易的神经网络,只有一层隐含层,而且是全连接的(如图,上一层的每个节点都要对下一层的每个节点负责。)具体神经元与神经元的作用过程可见下图。
在诸多传统的神经网络中,BP算法可能是性能最好、应用最广泛的算法之一了。其核心思想是:导入训练样本、计算期望值和实际值之间的差值,不断地调整权重,使得误差减少的规定值的范围内。其具体过程如下图:
一般来说,机器学习又分成浅层学习和深度学习。传统的机器学习算法,如SVM、贝叶斯、神经网络等都属于浅层模型,其特点是只有一个隐含层。逻辑简单易懂、但是其存在理论上缺乏深度、训练时间较长、参数很大程度上依赖经验和运气等问题。 如果是有多个隐含层的多层神经网络(一般定义为大于5层),那么我们将把这个模型称为深度学习,其往往也和分层训练配套使用。这也是目前AI最火的领域之一了。如果是浅层模型的问题在于对一个复杂函数的表示能力不够,特别是在复杂问题分类情况上容易出现分类不足的弊端,深度网络的优势则在于其多层的架构可以分层表示逻辑,这样就可以用简单的方法表示出复杂的问题,一个简单的例子是: 如果我们想计算sin(cos(log(exp(x)))), 那么深度学习则可分层表示为exp(x)—>log(x)—>cos(x)—>sin(x)
图像识别问题是物体识别的一个子问题,其鲁棒性往往是解决该类问题一个非常重要的指标,该指标是指分类结果对于传入数据中的一些转化和扭曲具有保持不变的特性。这些转化和扭曲具体主要包括了: (1)噪音(2)尺度变化(3)旋转(4)光线变化(5)位移
该部分具体的内容,想要快速理解原理的话推荐看[知乎相关文章] ( ), 特别是其中有些高赞回答中都有很多动图和动画,非常有助于理解。 但核心而言,CNN的核心优势在于 共享权重 以及 感受野 ,减少了网络的参数,实现了更快的训练速度和同样预测结果下更少的训练样本,而且相对于人工方法,一般使用深度学习实现的CNN算法使用无监督学习,其也不需要手工提取特征。
CNN算法的过程给我的感觉,个人很像一个“擦玻璃”的过程。其技术主要包括了三个特性:局部感知、权重共享和池化。
CNN中的神经元主要分成了两种: (a)用于特征提取的S元,它们一起组成了卷积层,用于对于图片中的每一个特征首先局部感知。其又包含很关键的阈值参数(控制输出对输入的反映敏感度)和感受野参数(决定了从输入层中提取多大的空间进行输入,可以简单理解为擦玻璃的抹布有多大) (b)抗形变的C元,它们一起组成了池化层,也被称为欠采样或下采样。主要用于特征降维,压缩数据和参数的数量,减小过拟合,同时提高模型的容错性。 (c*)激活函数,及卷积层输出的结果要经过一次激励函数才会映射到池化层中,主要的激活函数有Sigmoid函数、Tanh函数、ReLU、Leaky ReLU、ELU、Maxout等。
也许你会抱有疑问,CNN算法和传统的BP算法等究竟有什么区别呢。这就会引出区域感受野的概念。在前面我们提到,一个全连接中,较高一层的每个神经元要对低层的每一个神经元负责,从而导致了过拟合和维度灾难的问题。但是有了区域感受野和,每个神经元只需要记录一个小区域,而高层会把这些信息综合起来,从而解决了全连接的问题。
了解区域感受野后,你也许会想,区域感受野的底层神经元具体是怎么聚合信息映射到上一层的神经元呢,这就要提到重要的卷积核的概念。这个过程非常像上面曾提到的“神经元与神经元的联系”一图,下面给大家一个很直观的理解。
上面的这个过程就被称为一个卷积核。在实际应用中,单特征不足以被系统学习分类,因此我们往往会使用多个滤波器,每个滤波器对应1个卷积核,也对应了一个不同的特征。比如:我们现在有一个人脸识别应用,我们使用一个卷积核提取出眼睛的特征,然后使用另一个卷积核提取出鼻子的特征,再用一个卷积核提取出嘴巴的特征,最后高层把这些信息聚合起来,就形成了分辨一个人与另一个人不同的判断特征。
现在我们已经有了区域感受野,也已经了解了卷积核的概念。但你会发现在实际应用中还是有问题: 给一个100 100的参数空间,假设我们的感受野大小是10 10,那么一共有squar(1000-10+1)个,即10的六次方个感受野。每个感受野中就有100个参数特征,及时每个感受野只对应一个卷积核,那么空间内也会有10的八次方个次数,,更何况我们常常使用很多个卷积核。巨大的参数要求我们还需要进一步减少权重参数,这就引出了权重共享的概念。 用一句话概括就是,对同一个特征图,每个感受野的卷积核是一样的,如这样操作后上例只需要100个参数。
池化是CNN技术的最后一个特性,其基本思想是: 一块区域有用的图像特征,在另一块相似的区域中很可能仍然有用。即我们通过卷积得到了大量的边缘EDGE数据,但往往相邻的边缘具有相似的特性,就好像我们已经得到了一个强边缘,再拥有大量相似的次边缘特征其实是没有太大增量价值的,因为这样会使得系统里充斥大量冗余信息消耗计算资源。 具体而言,池化层把语义上相似的特征合并起来,通过池化操作减少卷积层输出的特征向量,减少了参数,缓解了过拟合问题。常见的池化操作主要包括3种: 分别是最大值池化(保留了图像的纹理特征)、均值池化(保留了图像的整体特征)和随机值池化。该技术的弊端是容易过快减小数据尺寸,目前趋势是用其他方法代替池化的作用,比如胶囊网络推荐采用动态路由来代替传统池化方法,原因是池化会带来一定程度上表征的位移不变性,传统观点认为这是一个优势,但是胶囊网络的作者Hinton et al.认为图像中位置信息是应该保留的有价值信息,利用特别的聚类评分算法和动态路由的方式可以学习到更高级且灵活的表征,有望冲破目前卷积网络构架的瓶颈。
CNN总体来说是一种结构,其包含了多种网络模型结构,数目繁多的的网络模型结构决定了数据拟合能力和泛化能力的差异。其中的复杂性对用户的技术能力有较高的要求。此外,CNN仍然没有很好的解决过拟合问题和计算速度较慢的问题。
该部分的核心参考文献: 《深度学习在图像识别中的应用研究综述》郑远攀,李广阳,李晔.[J].计算机工程与应用,2019,55(12):20-36. 深度学习技术在计算机图像识别方面的领域应用研究是目前以及可预见的未来的主流趋势,在这里首先对深度学习的基本概念作一简介,其次对深度学习常用的结构模型进行概述说明,主要简述了深度信念网络(DBN)、卷积神经网络(CNN)、循环神经网络(RNN)、生成式对抗网络(GAN)、胶囊网络(CapsNet)以及对各个深度模型的改进模型做一对比分析。
深度学习按照学习架构可分为生成架构、判别架构及混合架构。 其生成架构模型主要包括: 受限波尔兹曼机、自编码器、深层信念网络等。判别架构模型主要包括:深层前馈网络、卷积神经网络等。混合架构模型则是这两种架构的集合。深度学习按数据是否具有标签可分为非监督学习与监督学习。非监督学习方法主要包括:受限玻尔兹曼机、自动编码器、深层信念网络、深层玻尔兹曼机等。 监督学习方法主要包括:深层感知器、深层前馈网络、卷积神经网络、深层堆叠网络、循环神经网络等。大量实验研究表明,监督学习与非监督学习之间无明确的界限,如:深度信念网络在训练过程中既用到监督学习方法又涉及非监督学习方法。
[1]周彬. 多视图视觉检测关键技术及其应用研究[D].浙江大学,2019. [2]郑远攀,李广阳,李晔.深度学习在图像识别中的应用研究综述[J].计算机工程与应用,2019,55(12):20-36. [3]逄淑超. 深度学习在计算机视觉领域的若干关键技术研究[D].吉林大学,2017. [4]段萌. 基于卷积神经网络的图像识别方法研究[D].郑州大学,2017. [5]李彦冬. 基于卷积神经网络的计算机视觉关键技术研究[D].电子科技大学,2017. [6]李卫. 深度学习在图像识别中的研究及应用[D].武汉理工大学,2014. [7]许可. 卷积神经网络在图像识别上的应用的研究[D].浙江大学,2012. [8]CSDN、知乎、机器之心、维基百科
沈雨娇写的论文有撵炉胶,春夜喜雨等论文。沈雨娇的很多偏关于社会学的论文,发表在人才杂志上,引起很大反向。
1.《基于深度学习的自然语言处理技术研究》2.《基于深度学习的计算机视觉技术研究》3.《基于深度学习的语音识别技术研究》4.《基于深度学习的机器翻译技术研究》5.《基于深度学习的自动驾驶技术研究》6.《基于深度学习的智能家居技术研究》7.《基于深度学习的智能机器人技术研究》8.《基于深度学习的智能推荐系统技术研究》9.《基于深度学习的自然语言理解技术研究》10.《基于深度学习的智能安全技术研究》
沈雨娇为我院2012级英语专业本科学生,2017年考上上海外国语大学英语语言文学专业研究生,研究方向为跨文化交际,师从上外跨文化中心主任顾力行教授(Steve J. Kulich)和复旦大学人类社会学博士张晓佳老师。2021年1月获得日本早稻田大学的博士录取通知书,6月获得国家留学基金委员会公派奖学金,将于2022年4月赴日进行为期三年的博士学习,专业为国际文化与交流,研究方向为视觉文化,师从早稻田大学国际文化与交流学院主任吉本光弘教授。
Automatic Pixel-Level Crack Detection on Dam Surface Using Deep Convolutional Network 论文笔记 论文:Automatic Pixel-Level Crack Detection on Dam Surface Using Deep Convolutional Network Received: 大多数坝面裂缝检测只能实现裂缝分类及粗略的定位。像素级语义分割检测可以提供更加精确直观的检测结果。作者提出一种基于深度卷积网络的坝面裂缝检测算法。首先使用无人机进行数据采集,然后对采集到的图像进行预处理(包括裁剪、手动标注),最后对设计好的CDDS 网络结构进行训练、验证和测试。 与ResNet152-based SegNet U-Net FCN 进行了比较。 大坝是水电站的重要水利建筑物。大坝的安全运行对于水电站有着重要的意义。由于结构变形、地震、水流引起的裂缝对大坝坝体产生严重的影响并威胁到水电站的安全运行。因此,对大坝结构的定期健康评估,特别是对大坝裂缝的检测任务变得尤为重要。 根据大坝裂缝的结构特征以及裂缝强度,人们可以对大坝的结构健康进行评估和监测。传统的大坝裂缝的巡检任务通常基于人工进行检测,但是效率低下、耗时费力,浪费了大量的人工成本,因此对裂缝的自动高效检测是非常必要的。 基于计算机视觉的裂缝检测算法得到了广泛的研究。这些方法大多采用传统的图像处理技术和机器学习方法,以识别出一些简单的结构损伤。这些方法利用手工提取的特征从图像中提取特征,然后评估提取的特征是否表示缺陷。然而,上述方法的结果不可避免地受到主观因素的影响 卷积神经网络(CNN)在图像分类和识别领域取得很大的进步,基于CNN的裂缝检测算法也展示出更优异的表现。大坝裂缝的特点: 修补痕迹、噪声大、背景纹理复杂、非结构化的、分布不均匀、裂缝位置随机、背景模糊等缺点 提出了一种像素级的大坝表面裂缝检测方法,利用深卷积网络进行特征提取。利用浅卷积层的定位特征和深卷积层的抽象特征,进行 多尺度卷积级联融合和多维损失值计算 ,实现裂纹缺陷像素级分割,并以高精度、高效率等优点解决了坝面明显裂缝检测问题,消除了可能存在的安全隐患,确保了坝面安全。实验结果表明,该方法对大坝表面像素级裂缝的检测是最优的。 语义分割 PSPNet [42],ICNet [43], Deeplabv3[44],UNet [45] and SegNet [46] 语义分割网络通常分为编码网络和解码网络。 编码网络: 卷积层:用于提取输入图像的特征 池化层:减小feature map的规模,减轻计算负担。 解码网络: 反卷积层(反褶积层):上采样还原feature map大小与输入图像相同,并输出预测结果。 编解码网络结构高度对称:同时利用稀疏feature map和稠密feature map。 为了融合sparse 和 dense feature ,采用跳跃模块以连接编解码网络。编码网络: 15 卷积层:3*3 步长1 4 池化层: 2*2 步长2 解码网络: 15 反卷积层 1*1 4池化层 采用dropout和BN防止过拟合。 Skip branch 4个,1*1卷积和反卷积 每个branch计算 branch loss,4个branch loss级联为总损失的一部分。 Skip branch 的输入输出图像大小不变。卷积核的通道数必须等于输入张量的通道数。降采样 取矩阵最大值 卷积核大小 2*2 步长为2。反褶积也叫做转置卷积 通过上采样还原feature map与输入图像大小相同。 上采样方法:反褶积法、 插值法 反褶积法:对张量进行zero-padding填充最外层,再用反褶积核进行反褶积,修剪第一行和最后一行。1000副5472*3648图像使用LEAR软件手动标记。 得到504张数据集,404用于训练,50用于验证,50用于测试。 在Linux系统上使用TensorFlow构建的 在配置了8 GB GPU的HP工作站上执行培训、验证和测试 利用Anaconda建立了CDDS网络的虚拟python环境评价指标: Precision精度表示在所有预测破裂的样本中,样本的基本真实性也被破解的概率。 Recall召回表明在所有标记为开裂的样本中,样本被预测为开裂的概率。当正负样本数量存在较大差距时,仅使用精确性或召回率来评估性能是不合理的。TPR表示所有标记为裂纹的样本中被正确预测为裂纹的概率。TNR代表以标签为背景的所有样本中被正确预测为背景的概率.F-measure考虑到查全率和查准率的综合影响,F-测度是一个综合指标。IoU是目标检测领域中常用的评价定位精度的方法。IoU表示预测结果与地面真实值的交集与联合的交集的比率。大坝表面裂缝图像分为背景和裂缝两类。背景像素的数目远大于裂纹像素的数目。通常情况下,我们会同时计算背景arrears和裂缝arrears,然后以两张arrears的平均数作为最终arrears。IoU值是由背景像素决定的,不能准确表达裂纹的定位精度。使用三种学习速率10^4,10^5,10^6 使用softmax函数计算概率 使用Dice loss计算网络损失。 裂缝骨架提取:快速细化算法 调用OpenCV库,进行计算。 计算裂缝面积及长度宽度。使用其他裂缝数据集进行补充验证 ,在测试数据集上,提出的CDDS网络的裂纹IOU和F测度分别达到和 略。
推荐下计算机视觉这个领域,依据学术范标准评价体系得出的近年来最重要的9篇论文吧: (对于英语阅读有困难的同学,访问后可以使用翻译功能) 一、Deep Residual Learning for Image Recognition 摘要:Deeper neural networks are more difficult to train. We present a residual learning framework to ease the training of networks that are substantially deeper than those used previously. We explicitly reformulate the layers as learning residual functions with reference to the layer inputs, instead of learning unreferenced functions. We provide comprehensive empirical evidence showing that these residual networks are easier to optimize, and can gain accuracy from considerably increased depth. On the ImageNet dataset we evaluate residual nets with a depth of up to 152 layers—8× deeper than VGG nets [40] but still having lower complexity. An ensemble of these residual nets achieves error on the ImageNet test set. This result won the 1st place on the ILSVRC 2015 classification task. We also present analysis on CIFAR-10 with 100 and 1000 layers. The depth of representations is of central importance for many visual recognition tasks. Solely due to our extremely deep representations, we obtain a 28% relative improvement on the COCO object detection dataset. Deep residual nets are foundations of our submissions to ILSVRC & COCO 2015 competitions1, where we also won the 1st places on the tasks of ImageNet detection, ImageNet localization, COCO detection, and COCO segmentation. 全文链接: 文献全文 - 学术范 () 二、Very Deep Convolutional Networks for Large-Scale Image Recognition 摘要:In this work we investigate the effect of the convolutional network depth on its accuracy in the large-scale image recognition setting. Our main contribution is a thorough evaluation of networks of increasing depth using an architecture with very small (3x3) convolution filters, which shows that a significant improvement on the prior-art configurations can be achieved by pushing the depth to 16-19 weight layers. These findings were the basis of our ImageNet Challenge 2014 submission, where our team secured the first and the second places in the localisation and classification tracks respectively. We also show that our representations generalise well to other datasets, where they achieve state-of-the-art results. We have made our two best-performing ConvNet models publicly available to facilitate further research on the use of deep visual representations in computer vision. 全文链接: 文献全文 - 学术范 () 三、U-Net: Convolutional Networks for Biomedical Image Segmentation 摘要:There is large consent that successful training of deep networks requires many thousand annotated training samples. In this paper, we present a network and training strategy that relies on the strong use of data augmentation to use the available annotated samples more efficiently. The architecture consists of a contracting path to capture context and a symmetric expanding path that enables precise localization. We show that such a network can be trained end-to-end from very few images and outperforms the prior best method (a sliding-window convolutional network) on the ISBI challenge for segmentation of neuronal structures in electron microscopic stacks. Using the same network trained on transmitted light microscopy images (phase contrast and DIC) we won the ISBI cell tracking challenge 2015 in these categories by a large margin. Moreover, the network is fast. Segmentation of a 512x512 image takes less than a second on a recent GPU. The full implementation (based on Caffe) and the trained networks are available at . 全文链接: 文献全文 - 学术范 () 四、Microsoft COCO: Common Objects in Context 摘要:We present a new dataset with the goal of advancing the state-of-the-art in object recognition by placing the question of object recognition in the context of the broader question of scene understanding. This is achieved by gathering images of complex everyday scenes containing common objects in their natural context. Objects are labeled using per-instance segmentations to aid in precise object localization. Our dataset contains photos of 91 objects types that would be easily recognizable by a 4 year old. With a total of million labeled instances in 328k images, the creation of our dataset drew upon extensive crowd worker involvement via novel user interfaces for category detection, instance spotting and instance segmentation. We present a detailed statistical analysis of the dataset in comparison to PASCAL, ImageNet, and SUN. Finally, we provide baseline performance analysis for bounding box and segmentation detection results using a Deformable Parts Model. 全文链接: 文献全文 - 学术范 () 五、Rethinking the Inception Architecture for Computer Vision 摘要:Convolutional networks are at the core of most state of-the-art computer vision solutions for a wide variety of tasks. Since 2014 very deep convolutional networks started to become mainstream, yielding substantial gains in various benchmarks. Although increased model size and computational cost tend to translate to immediate quality gains for most tasks (as long as enough labeled data is provided for training), computational efficiency and low parameter count are still enabling factors for various use cases such as mobile vision and big-data scenarios. Here we are exploring ways to scale up networks in ways that aim at utilizing the added computation as efficiently as possible by suitably factorized convolutions and aggressive regularization. We benchmark our methods on the ILSVRC 2012 classification challenge validation set demonstrate substantial gains over the state of the art: 21:2% top-1 and 5:6% top-5 error for single frame evaluation using a network with a computational cost of 5 billion multiply-adds per inference and with using less than 25 million parameters. With an ensemble of 4 models and multi-crop evaluation, we report 3:5% top-5 error and 17:3% top-1 error on the validation set and 3:6% top-5 error on the official test set. 全文链接: 文献全文 - 学术范 () 六、Mask R-CNN 摘要:We present a conceptually simple, flexible, and general framework for object instance segmentation. Our approach efficiently detects objects in an image while simultaneously generating a high-quality segmentation mask for each instance. The method, called Mask R-CNN, extends Faster R-CNN by adding a branch for predicting an object mask in parallel with the existing branch for bounding box recognition. Mask R-CNN is simple to train and adds only a small overhead to Faster R-CNN, running at 5 fps. Moreover, Mask R-CNN is easy to generalize to other tasks, ., allowing us to estimate human poses in the same framework. We show top results in all three tracks of the COCO suite of challenges, including instance segmentation, bounding-box object detection, and person keypoint detection. Without tricks, Mask R-CNN outperforms all existing, single-model entries on every task, including the COCO 2016 challenge winners. We hope our simple and effective approach will serve as a solid baseline and help ease future research in instance-level recognition. Code will be made available. 全文链接: 文献全文 - 学术范 () 七、Feature Pyramid Networks for Object Detection 摘要:Feature pyramids are a basic component in recognition systems for detecting objects at different scales. But pyramid representations have been avoided in recent object detectors that are based on deep convolutional networks, partially because they are slow to compute and memory intensive. In this paper, we exploit the inherent multi-scale, pyramidal hierarchy of deep convolutional networks to construct feature pyramids with marginal extra cost. A top-down architecture with lateral connections is developed for building high-level semantic feature maps at all scales. This architecture, called a Feature Pyramid Network (FPN), shows significant improvement as a generic feature extractor in several applications. Using a basic Faster R-CNN system, our method achieves state-of-the-art single-model results on the COCO detection benchmark without bells and whistles, surpassing all existing single-model entries including those from the COCO 2016 challenge winners. In addition, our method can run at 5 FPS on a GPU and thus is a practical and accurate solution to multi-scale object detection. Code will be made publicly available. 全文链接: 文献全文 - 学术范 () 八、ORB: An efficient alternative to SIFT or SURF 摘要:Feature matching is at the base of many computer vision problems, such as object recognition or structure from motion. Current methods rely on costly descriptors for detection and matching. In this paper, we propose a very fast binary descriptor based on BRIEF, called ORB, which is rotation invariant and resistant to noise. We demonstrate through experiments how ORB is at two orders of magnitude faster than SIFT, while performing as well in many situations. The efficiency is tested on several real-world applications, including object detection and patch-tracking on a smart phone. 全文链接: 文献全文 - 学术范 () 九、DeepLab: Semantic Image Segmentation with Deep Convolutional Nets, Atrous Convolution, and Fully Connected CRFs 摘要:In this work we address the task of semantic image segmentation with Deep Learning and make three main contributions that are experimentally shown to have substantial practical merit. First , we highlight convolution with upsampled filters, or ‘atrous convolution’, as a powerful tool in dense prediction tasks. Atrous convolution allows us to explicitly control the resolution at which feature responses are computed within Deep Convolutional Neural Networks. It also allows us to effectively enlarge the field of view of filters to incorporate larger context without increasing the number of parameters or the amount of computation. Second , we propose atrous spatial pyramid pooling (ASPP) to robustly segment objects at multiple scales. ASPP probes an incoming convolutional feature layer with filters at multiple sampling rates and effective fields-of-views, thus capturing objects as well as image context at multiple scales. Third , we improve the localization of object boundaries by combining methods from DCNNs and probabilistic graphical models. The commonly deployed combination of max-pooling and downsampling in DCNNs achieves invariance but has a toll on localization accuracy. We overcome this by combining the responses at the final DCNN layer with a fully connected Conditional Random Field (CRF), which is shown both qualitatively and quantitatively to improve localization performance. Our proposed “DeepLab” system sets the new state-of-art at the PASCAL VOC-2012 semantic image segmentation task, reaching percent mIOU in the test set, and advances the results on three other datasets: PASCAL-Context, PASCAL-Person-Part, and Cityscapes. All of our code is made publicly available online. 全文链接: 文献全文 - 学术范 () 希望对你有帮助!
计算机视觉技术自20世纪70年代产生以来就得到了全世界的广泛关注。下面是我整理了计算机视觉技术论文,有兴趣的亲可以来阅读一下!
计算机视觉技术的应用研究
摘 要 文章在介绍计算机视觉技术相关内容的基础上,对该技术在工业、农业、林业和农产品检测这四个领域的具体应用进行简要分析。
关键词 计算机;视觉技术;应用研究
中图分类号:TP212 文献标识码:A 文章编号:1671-7597(2013)16-0114-01
计算机视觉技术自20世纪70年代产生以来就得到了全世界的广泛关注。作为一种多学科综合应用下的新技术,随着专家对其研究会的不断深入,其应用领域也越来越广,给人们的生产生活带来了极大方便。
1 计算机视觉技术
计算机视觉技术是在计算机技术应用下发展起来的一种新技术,主要用来研究计算机模拟生物的宏观或外显功能。该技术在应用过程中会涉及到计算机科学、神经生物学、人工智能、模式识别以及图像处理等多个学科,多学科技术的综合运用使得计算机具有了“感知”周围世界的能力,这也正是该技术发挥作用的核心所在。计算机视觉技术的特点就在于,首先,它能在不接触被测者的前提下完成对被测者的检测;其次,该技术应用的领域和检测的对象非常广,能在敏感器件的应用下,完成对人类难以观察到的超声波、微波和红外线等的检测;最后,该技术还突破了人在视觉观察上长时间工作的限制,能对检测对象进行长时间观察。
2 计算机视觉技术在各领域的应用分析
随着计算机视觉技术研究的不断加深,该技术的应用领域也越来越广,下面,本文就选取工业、农业、林业、农产品检测、电力系统自动化及图书馆工作这6个方面对计算机视觉技术的应用进行简要分析。
在工业领域中的应用
工业生产对产品的质量要求极高,计算机视觉技术在工业上的应用主要集中在以下3方面:1)产品形状和尺寸的检测上。对制造业而言,产品的形状和尺寸是否合格直接影响到产品在实际应用过程中作用的发挥。计算机视觉技术的应用能对产品进行二维和三维等几何特征的检测,如产品的圆度、位置及形状等。2)产品零部件缺失情况的检测。在生产线运行过程中,计算机视觉技术能准确检测出产品在生产过程中是否存在铆钉、螺丝钉等零部件的缺失以及产品内部是否在生产过程中掺进杂质等。3)产品表面质量的检测。为了从各个方面保证产品的合格性,对其进行表面质量的检测也是一个极其重要的环节。计算机视觉技术实现了对产品表面的纹理、粗糙度、划痕、裂纹等各方面的有效检测。
在农业生产领域中的应用
该技术在农业领域的应用主要集中在以下两方面:1)对病虫害的预测预报。预测预报作用发挥的关键环节是建立起计算机视觉技术对所有昆虫的识别体系。对昆虫图像识别系统进行数字化建模所使用的方法主要以下2种,一种是运用数学形态学的方法对害虫的边缘进行检测,进而提取害虫的特征;第二种是从昆虫的二值化图像中提取出昆虫的周长、面积和复杂度等基本信息,并对这些信息建立害虫的模板库以实现对昆虫的模糊决策分析。2)对农作物生长的监测。常用的方法就是运用计算机视觉技术下的非接触式监测系统对农作物生长环境下的光照、温度、湿度、风速、营养液浓度等相关因素进行连续地监测,进而判断出农作物长势。
在林业生产中的应用
该技术在林业生产中的应用主要集中在农药喷洒和林木球果采集这两方面。就林业的农药喷洒而言,常规的农药喷洒方式易造成农药的大量流失,不仅达不到防止林业有害生物的目的,还浪费了大量的人力、物力和财力。计算机视觉技术的应用能通过对施药目标图像进行实时分析,得出具体的施药量和准确的施药位置,该技术指导下的施药工作极大发挥了农药的效果。就林木球果采集而言,该采集工作的操作难度一直都很大,我国当前使用的方法主要是人工使用专业工具下的采集以及机械设备运用下的高空作业车采集和摇振采种机采集,这两种方式都存在一定的安全性和效率问题。计算机视觉技术的应用能通过对需要进行采集的林木球果进行图像采集来得出球果所处的具体位置,再结合专业机械手的使用完成球果采集。该技术不仅节省了大量劳动力,还极大提高了采摘效率。
在农产品检测中的应用
农产品在生产过程中受自然环境的影响比较大,所以农产品不仅会产生质量上的差异,还会造成颜色、大小、形状等外观上的极大不同。由于农产品在出售时大多要进行产品等级的划分,所以将计算机视觉技术运用到对其颜色和外形尺寸的检测上,有效达到了对农产品进行检测的目的。通过对外观大小尺寸的检测,不仅提高了对农产品进行分门别类地等级划分的效率,还在很大程度上减少了对产品的损坏;通过对西瓜等农产品进行颜色上的检测,能准确判断其是否成熟,有效避免了人工操作下的失误。
在电力系统自动化中的应用
计算机视觉技术在电力系统自动化应用的表现当前主要表现在以下2个方面:1)在人机界面中的应用。人机界面在运行过程中更加强调人的主体地位,实现了用户对各种效应通道和感觉通道的运用。具体来讲,计算机视觉技术在用户向计算机的输入方面,效应通道实现了手动为主向手、足、口、身体等的转变;在计算机向用户的输出方面,感觉通道实现了视觉为主向触觉、嗅觉、听觉等的转变。2)在电厂煤粉锅炉火焰检测中的应用。对煤粉锅炉火焰的检测既能有效判断锅炉的运行状况,又能在很大程度上实现电厂的安全性运营。由于煤的负荷变化和种类变化会在使着火位置发生移动,所以为了保证炉膛火焰检测的准确性,必须弥补之前单纯应用火焰检测器只能判断有无火焰开关量信号的弊端。计算机视觉技术的应用,就在弥补火焰检测器应用弊端的基础上,实现了对火焰形状的进一步检测。
在图书馆工作中的应用
随着当前数字图书馆和自动化管理系统的建立,计算机技术在图书馆方面的应用越来越广泛。当前计算机视觉技术在图书馆方面的应用主要集中在古籍修补和书刊剔旧这两方面。就古籍修补而言,古籍图书等在收藏的过程中,受温度、湿度、光照等的影响,极易导致纸张变黄、变脆以及虫洞等现象的出现。在进行修补时,依靠计算机视觉技术开展具体的修补工作,能在很大程度上提高修补工作的效率。就书刊剔旧而言,由于图书馆藏书众多,对那些使用率低且较为陈旧的文献资料进行及时地剔除,能实现图书资源的及时更新。计算机视觉技术在该方面的应用,极大地保证了工作的准确性和效率性。
3 结束语
通过以上对计算机视觉技术在工业、农业、林业、农产品检测、电力系统自动化及图书馆工作这6个方面的研究可以看出,随着计算机技术的进一步发展以及计算机与各专业学科的不断渗透,该技术的发展前景和应用领域都将更加广阔。
参考文献
[1]郑加强.基于计算机视觉的雾滴尺寸检测技术[J].南京林业大学学报,2009(09).
[2]沈明彼.计算机视觉技术在社会各领域应用的发展与展望[J].农业机械学报,2012(03).
点击下页还有更多>>>计算机视觉技术论文
CVPR是计算机视觉领域最高级别的会议(CCFA类会议),收录的论文代表了计算机视觉领域的最新发展方向和最高研究水平。cvpr录用标准相当严格,通常会议整体的录取率不超过25%,而口头报告的论文比例更只占5%不到。其会议的组织方是一个循环的志愿群体,其成员遴选一般会在某次会议召开的三年前进行。cvpr的审稿过程中会议的审稿方与投稿方均不知道对方的信息。而且一篇论文经常需要由三位审稿者进行审读。最后再由会议的领域主席(areachair)决定是否接收。所以在各类学术会议统计中,cvpr也被认为有着很强的影响力和很高的排名。自然,cvpr论文的级别就可想而知了,cvpr论文什么级别,可以说其级别相当于顶级SCI期刊论文级别同等甚至更高。cvpr录用标准相当严格,通常会议整体的录取率不超过25%,而口头报告的论文比例更只占5%不到。其会议的组织方是一个循环的志愿群体,其成员遴选一般会在某次会议召开的三年前进行。cvpr的审稿过程中会议的审稿方与投稿方均不知道对方的信息。而且一篇论文经常需要由三位审稿者进行审读。最后再由会议的领域主席(areachair)决定是否接收。所以在各类学术会议统计中,cvpr也被认为有着很强的影响力和很高的排名。自然,cvpr论文的级别就可想而知了,cvpr论文什么级别,可以说其级别相当于顶级SCI期刊论文级别同等甚至更高。
ijcv期刊的水平是比较高的。IJCV是International Journal of Computer Vision(计算机视觉国际期刊)的英文缩写。国际期刊计算机视觉,详细描绘了信息科学与工程这一领域的快速发展。一般性发表的文章提出广泛普遍关心的重大技术进步。短文章提供了一个新的研究成果快速发布通道。综述性文章给与了重要的评论,以及当今发展现状的概括。
主要内容包括:数学,物理,计算机视觉计算方面:图像的形成,处理,分析和解释;机器学习方法,统计方法,传感器。
应用:基于图像的绘制,计算机图形学,机器人,照片判读,图像检索,视频分析和注释,多媒体等。
当然是中国知网了。
摘 要本文详细介绍了多变量预测控制算法及其在环境试验设备控制中的应用。由于环境试验设备的温度和湿度控制系统具有较大的时间滞后,而且系统间存在比较严重的耦合现象,用常规的PID控制不能取得满意的控制效果。针对这种系统,本文采用了多变量预测控制算法对其进行了控制仿真。预测控制算法是一种基于系统输入输出描述的控制算法,其三项基本原理是预测模型、滚动优化、反馈校正。它选择单位阶跃响应作为它的“预测模型”。这种算法除了能简化建模过程外,还可以通过选择合适的设计参数,获得较好的控制效果和解耦效果。本文先对环境试验设备作了简介,对控制中存在的问题进行了说明;而后对多变量预测控制算法进行了详细的推导,包括多变量自衡系统预测制算法和多变量非自衡系统预测控制算法;然后给出了系统的建模过程及相应的系统模型,在此基础上采用多变量预测控制算法对环境试验设备进行了控制仿真,并对仿真效果进行了比较。仿真结果表明,对于和环境试验设备的温度湿度控制系统具有类似特性的多变量系统,应用多变量预测控制算法进行控制能够取得比常规PID控制更加令人满意的效果。关键词:多变量系统;预测控制;环境试验设备【中文摘要共100—300个字,关键词3—7个词中文摘要和关键词占一页】【英文全部用Times New Roman字体】Abstract 【三号字体,加粗,居中上下空一行】【正文小四号字体,行距为固定值20磅】In this paper, multivariable predictive control algorithm and its application to the control of the environmental test device are introduced particularly. The temperature and humidity control system of the environmental test device is characterized as long time delay and severe coupling. Therefore, the routine PID control effect is unsatisfactory. In this case, the simulation of the temperature and humidity control of the environmental test device based on multivariable predictive control algorithm is control algorithm is one of control algorithm based on description of system’s input-output. Its three basic principles are predictive model, rolling optimization and feedback correction. It chooses unit step response as its predictive model, so that the modeling process is simplified. In addition, good control and decoupling effects could be possessed by means of selection suitable this paper, the environmental test device is introduced briefly and the existing problems are showed. Then multivariable predictive control algorithm is presented particularly, including multivariable auto-balance system predictive control algorithm and multivariable auto-unbalance system predictive control algorithm. Next, system modeling process and corresponding system model are proposed. Further, the multivariable predictive control algorithm is applied to the temperature and humidity control system of the environmental test device. Finally, the simulation results are of the simulation show that multivariable predictive control algorithm could be used in those multivariable system like the temperature and humidity control system of the environmental test device and the control result would be more satisfactory than that of the routine PID : Multivariable system; Predictive control; Environmental test device【英文摘要和关键词应该是中文摘要和关键词的翻译英文摘要和关键词占一页】【目录范例,word自动生成】目 录第一章 绪 论 引言 数字图像技术的应用与发展 问题的提出 论文各章节的安排 4第二章 数字图像处理方法与研究 灰度直方图 定义 直方图的性质和用途 几何变换 空间变换 灰度级插值 几何运算的应用 空间滤波增强 空间滤波原理 拉普拉斯算子 中值滤波 图像分割处理 直方图门限化的二值分割 直方图的最佳门限分割 区域生长 16第三章 图像处理软件设计 图像处理软件开发工具的选择 BMP图像格式的结构 软件开发工具的选择 EAN-13码简介 EAN-13条码的结构 条码的编码方法 系统界面设计 22第四章 条码图像测试 条码图像处理的主要方法 条码图像测试结果 25第五章 总结与展望 28参考文献 29当先验概率相等,即 时,则()恰为二者均值。以上分析可知,只要 和 已知以及 和 为正态,容易计算其最佳门限值T。实际密度函数的参数常用拟合法来求出 参数的估值。如最小均方误差拟合估计来会计 参量,并使拟合的均方误差为最小。例如,设想理想分布的密度为正态 ,实际图像直方图为 ,用离散方式其拟合误差为()式中N为直方图横坐标。通常这种拟合求密度函数的几个参数很难解,只能用计算机求数值解,但若 为正态分布时只需求均值和标准差二参数即可。 区域生长区域生长是一种典型的串行区域分割技术,在人工智能领域的计算机视觉研究中是一种非常重要的图像分割方法,其主要思想是将事先选中的种子点周围符合某种相似性判断的像素点集合起来以构成区域。在具体处理时,是从把一幅图像分成许多小区域开始的,这些初始小区域一般是小的邻域,甚至是单个的像素点。然后通过定义适当的区域内部隶属规则而对周围像素进行检验,对于那些符合前述隶属规则的像素点就将其合并在内,否则将其据弃,经过若干次迭代最终可形成待分割的区域。在此提到的“内部隶属规则”可根据图像的灰度特性、纹理特性以及颜色特性等多种因素来作出决断。从这段文字可以看出,区域生长成功与否的关键在于选择合适的内部隶属规则(生长准则)。对于基于图像灰度特性的生长准则,可以用下面的流程对其区域生长过程进行表述,如图所示。图 2. 6 区域生长流程图第三章 图像处理软件设计 图像处理软件开发工具的选择 BMP图像格式的结构数字图像存储的格式有很多种,如BMP、GIF、JPEG、TIFF等,数字图像处理中最常用的当属BMP,本课题采集到的图片也是用BMP格式存储的,要对这种格式的图片进行处理,那么首先就要了解它的文件结构。(1)BMP文件格式简介BMP(Bitmap-File)图形文件是Windows采用的图形文件格式在Windows环境下运行的所有图象处理软件都支持BMP图像文件格式。Windows系统内部各图像绘制操作都是以BMP为基础的。Windows 以前的BMP位图文件格式与显示设备有关,因此把这种BMP图像文件格式称为设备相关位图DDB(device-dependent bitmap)文件格式。Windows 以后的BMP图像文件与显示设备无关,因此把这种BMP图像文件格式称为设备无关位图DIB(device-independent bitmap)格式,目的是为了让Windows能够在任何类型的显示设备上显示所存储的图像。BMP位图文件默认的文件扩展名是BMP或者bmp(有时它也会以.DIB或.RLE作扩展名)。(2)BMP文件构成BMP文件由位图文件头(bitmap-file header)、位图信息头(bitmap-information header)、颜色信息(color table)和图形数据四部分组成。它具有如表所示的形式。表 3. 1 BMP位图结构位图文件的组成 结构名称 符号位图文件头(bitmap-file header) BITMAPFILEHEADER bmfh位图信息头(bitmap-information header) BITMAPINFOHEADER bmih颜色信息(color table) RGBQUAD aColors[]图形数据 BYTE aBitmapBits[] 软件开发工具的选择(1)Win32 APIMicrosoft Win32 API(Application Programming Interface)是Windows的应用编程接口,包括窗口信息、窗口管理函数、图形设备接口函数、系统服务函数、应用程序资源等。Win32 API是Microsoft 32位Windows操作系统的基础,所有32位Windows应用程序都运行在Win32 API之上,其功能是由系统的动态链接库提供的。(2)Visual C++Visual C++是Microsoft公司出品的可视化编程产品,具有面向对象开发,与Windows API紧密结合以及丰富的技术资源和强大的辅助工具。Visual C++自诞生以来,一直是Windows环境下最主要的应用开发系统之一,Visual C++不仅是C++语言的集成开发环境,而且与Win32紧密相连,所以利用Visual C++可以完成各种各样的应用程序的开发,从底层软件直到上层直接面向用户的软件。Visual C++是一个很好的可视化编程环境,它界面友好,便于程序员操作。Visual C++可以充分利用MFC的优势。在MFC中具有许多的基本库类,特别是MFC中的一些,利用它们可以编写出各种各样的Windows应用程序,并可节省大量重复性的工作时间,缩短应用程序的开发周期。使用MFC的基本类库,在开发应用程序时会起到事半功倍的效果。Visual C++具有以下这些特点:简单性:Visual C++中提供了MFC类库、ATL模板类以及AppWizard、ClassWizard等一系列的Wizard工具用于帮助用户快速的建立自己的应用程序,大大简化了应用程序的设计。使用这些技术,可以使开发者编写很少的代码或不需编写代码就可以开发一个Windows应用程序。灵活性:Visual C++提供的开发环境可以使开发者根据自己的需要设计应用程序的界面和功能,而且,Visual C++提供了丰富的类库和方法,可以使开发者根据自己的应用特点进行选择。可扩展性:Visual C++提供了OLE技术和ActiveX技术,这种技术可以增强应用程序的能力。使用OLE技术和ActiveX技术可以使开发者利用Visual C++中提供的各种组件、控件以及第三方开发者提供的组件来创建自己的程序,从而实现应用程序的组件化。使用这种技术可以使应用程序具有良好的可扩展性。(3)MFCMFC(Microsoft Foundation Class)是Microsoft公司用C++语言开发的一套基础类库。直接利用Win32 API进行编程是比较复杂的,且Win32 API不是面向对象的。MFC封装了Win32 API的大部分内容,并提供了一个应用程序框架用于简化和标准化Windows程序的设计。MFC是Visual C++的重要组成部分,并且以最理想的方式与其集成为一体。主要包括以下各部分:Win32 API的封装、应用程序框架、OLE支持、数据库支持、通用类等。 EAN-13码简介人们日常见到的印刷在商品包装上的条码,自本世纪70年代初期问世以来,很快得到了普及并广泛应用到工业、商业、国防、交通运输、金融、医疗卫生、邮电及办公室自动化等领域。条码按照不同的分类方法,不同的编码规则可以分成许多种,现在已知的世界上正在使用的条码就有250种之多。本章以EAN条码中的标准版EAN-13为例说明基于数字图像处理技术,对EAN条码图像识别的软件开发方法。EAN码是国际物品编码协会在全球推广应用的商品条码,是定长的纯数字型条码,它表示的字符集为数字0~9。由前缀码、厂商识别代码、商品项目代码和校验码组成。前缀码是国际EAN组织标识各会员组织的代码,我国为690~695;厂商识别代码是EAN会员组织在EAN前缀码的基础上分配给厂商的代码;商品项目代码由厂商自行编码;校验码上为了校验前面12位或7位代码的正确性。 EAN-13条码的结构EAN-13码是按照“模块组合法”进行编码的。它的符号结构由八大部分组成:左侧空白区、 起始符、左侧数据符、中间分隔符、右侧数据符、校验符、终止符及右侧空白区,见表。尺寸: × ;条码: ;起始符/分隔符/终止符: ;放大系数取值范围是~;间隔为。表 3. 2 EAN-13码结构左侧空白区 起始符 左侧数据符 中间间隔符 右侧数据符 校验符 终止符右侧空白区9个模块 3个模块 42个模块 5个模块 35个模块 7个模块 3个模块 9个模块EAN-13码所表示的代码由13位数字组成,其结构如下:结构一:X13X12X11X10X9X8X7X6X5X4X3X2X1其中:X13~X11为表示国家或地区代码的前缀码;X10~X7为制造厂商代码;X6~X2为商品的代码;X1为校验码。结构二:X13X12X11X10X9X8X7X6X5X4X3X2X1其中:X13~X11为表示国家或地区代码的前缀码;X10~X6为制造厂商代码;X5~X2为商品的代码;X1为校验码。在我国,当X13X12X11为690、691时其代码结构同结构一;当X13X12X11为692时其代码结构为同结构二。EAN条码的编码规则,见表:起始符:101;中间分隔符:01010;终止符:101。A、B、C中的“0”和“1”分别表示具有一个模块宽度的“空”和“条”。表 3. 3 EAN条码的编码规则数据符 左侧数据符 右侧数据符A B C0 0001101 0100111 11100101 0011001 0110011 11001102 0010011 0011011 11011003 011101 0100001 10000104 0100011 0011101 10111005 0110001 0111001 10011106 0101111 000101 10100007 0111011 0010001 10001008 0110111 0001001 10010009 0001011 0010111 条码的编码方法条码的编码方法是指条码中条空的编码规则以及二进制的逻辑表示的设置。众所周知,计算机设备只能识读二进制数据(数据只有“0”和“1”两种逻辑表示),条码符号作为一种为计算机信息处理而提供的光电扫描信息图形符号,也应满足计算机二进制的要求。条码的编码方法就是通过设计条码中条与空的排列组合来表示不同的二进制数据。一般来说,条码的编码有两种:模块组合和宽度调节法。模块组合法是指条码符号中,条与空是由标准宽度的模块组合而成。一个标准宽度的条表示二进制的“1”而一个标准的空模块表示二进制的“0”。商品条码模块的标准宽度是 ,它的一个字符由两个条和两个空构成,每一个条或空由1~4个标准宽度模块组成。宽度调节法是指条码中,条与空的宽窄设置不同,用宽单元表示二进制的“1” ,而用窄单元表示二进制的“0”,宽窄单元之比一般控制在2~3之间。 系统界面设计本文图像处理软件基本功能包括读取图像、保存图像、对图像进行处理等。图所示为本图像处理软件的界面。图 3. 1 软件主界面软件设计流程图如图所示。图 3. 2 程序设计流程图第四章 条码图像测试 条码图像处理的主要方法(1)256色位图转换成灰度图运用点处理中的灰度处理为实现数字图像的阈值变换提供前提条件。要将256色位图转变为灰度图,首先必须计算每种颜色对应的灰度值。灰度与RGB颜色的对应关系如下:Y= ()这样,按照上式我们可以方便地将256色调色板转换成为灰度调色板。由于灰度图调色板一般是按照灰度逐渐上升循序排列的,因此我们还必须将图像每个像素值(即调色板颜色的索引值)进行调整。实际编程中只要定义一个颜色值到灰度值的映射表bMap[256](长为256的一维数组,保存256色调色板中各个颜色对应的灰度值),将每个像素值p(即原256色调色板中颜色索引值)替换成bMap[p]。(2)灰度的阈值变换利用点运算中的阈值变换理论将灰度图像变为二值图像,为图像分析做准备工作。灰度的阈值变换可以将一幅灰度图像转变为黑白二值图像。它的操作是先由用户指定一个阈值,如果图像中某像素的灰度值小于该阈值,则将该像素的灰度值设置为0,否则灰度值设置为255。(3)中值滤波运用变换域法中的空域滤波法对图像进行降噪处理。中值滤波是一种非线性的信号处理方法,与其对应的滤波器当然也是一种非线性的滤波器。中值滤波一般采用一个含有奇数个点的滑动窗口,将窗口中各点灰度值的中值来替代指定点(一般是窗口的中心点)的灰度值。对于奇数个元素,中值是指按大小排序后,中间的数值,对于偶数个元素,中值是指排序后中间两个元素灰度值的平均值。(4)垂直投影利用图像分析中的垂直投影法实现对二值图像的重建,为条码识别提供前提条件。垂直投影是利用投影法对黑白二值图像进行变换。变换后的图像中黑色线条的高度代表了该列上黑色点的个数。(5)几何运算几何运算可以改变图像中各物体之间的空间关系。几何运算的一个重要应用是消除摄像机导致的数字图像的几何畸变。当需要从数字图像中得到定量的空间测量数据时,几何校正被证明是十分重要的。另外,一些图像系统使用非矩形的像素坐标。在用普通的显示设备观察这些图像时,必须先对它们进行校直,也就是说,将其转换为矩形像素坐标。 条码图像测试结果本软件的处理对象为EAN-13码的256色BMP位图,应用数字图像处理技术中的灰度处理、阈值分割、空域滤波、区域生长、投影等方法,对有噪声的条码图像进行了相应处理,其结果如下:图4. 1 原始条码图 图4. 2 灰度窗口变换图4. 3 原条码直方图 图4. 4 灰度窗口变换直方图图4. 5灰度直方图规定化界面 图4. 6灰度直方图规定化直方图图4. 7 中值滤波的界面图4. 8 区域生长 图4. 9 阈值面积消除图4. 10 垂直投影从以上处理结果可以看出,对原始条码图像进行灰度变换、中值滤波、二值化以及小面积阈值消除后得到条码的投影图像,下一步就可以通过图像模式识别的方法将条码读取出来,该部分工作还有待进一步研究。第五章 总结与展望数字图像处理技术起源于20世纪20年代,当时由于受技术手段的限制,使图像处理技术发展缓慢。直到第三代计算机问世以后,数字图像处理才得到迅速的发展并得到普遍应用。今天,已经几乎不存在与数字图像处理无关的技术领域。本论文主要研究了数字图像处理的相关知识,然后通过Visual C++这一编程工具来实现图像处理算法;对文中所提到的各种算法都进行了处理,并得出结论。所做工作如下:(1)运用点处理法中的灰度处理为实现数字图像的阈值变换提供前提条件。(2)运用变换域法中的空域滤波法对图像进行降噪处理。(3)利用点运算中的阈值变换理论将灰度图像变为二值图像,为图像分析做准备工作。(4)利用图像分析中的垂直投影法实现对二值图像的重建,为条码识别提供前提条件。在论文的最后一章,给出了各种算法处理的结果。结果表明通过数字图像处理可以把有噪声的条码处理成无噪声的条码。数字图像处理技术的应用领域多种多样,不仅可以用在像本文的图像处理方面,还可以用于模式识别,还有机器视觉等方面。近年来在形态学和拓扑学基础上发展起来的图像处理方法,使图像处理的领域出现了新的局面,相信在未来图像处理的应用将会更加广泛。参考文献[1] 阮秋琦.数字图像处理学[M].北京:电子工业出版社,2001.[2] 黄贤武,王加俊,李家华.数字图像处理与压缩编码技术[M].成都:科技大学出版社,2000.[3] 容观澳.计算机图像处理[M].北京:清华大学出版社,2000.[4] 胡学钢.数据结构-算法设计指导[M].北京:清华大学出版社,1999.[5] 黄维通.Visual C++面向对象与可视化程序设计[M].北京:清华大学出版社,2001.[6] 夏良正.数字图像处理[M].南京:东南大学出版社,1999.[7] 费振原.条码技术及应用[M].上海:上海科学技术文献出版社,1992.[8] 李金哲.条形码自动识别技术[M].北京:国防工业出版社,1991.[9] 何斌.Visual C++数字图像处理[M].北京:人民邮电出版社,2001.[10] 李长江. C++使用手册[M].北京:电子工业出版社,1995.[11] 席庆,张春林. Visual C++ .实用编程技术[M].北京:中国水利水电出版社,1999.[12] 胡学钢.数据结构-算法设计指导[M].北京:清华大学出版社,1999.[13] Kenneth 著,朱志刚等译.数字图像处理[M].北京:电子工业出版社,1998.[14] Davis. C++ [M].北京:清华大学出版社,1999.[15] Richard C++ 5 Power Toolkit[M].北京:机械工业出版社,1999.
cvpr全称:IEEE Conference on Computer Vision and Pattern Recognition中文:IEEE国际计算机视觉与模式识别会议CVPR [C]即该文献被IEEE收录
哈哈 我也是大一的 支持哈 为什么要有作业呀
本科生毕业设计报告(论文)撰写规范毕业设计报告(论文)是学生对所从事毕业设计工作和取得成果的完整表述。报告(论文)的撰写是学生基本能力训练的过程。为加强管理,规范写作,提高毕业设计(论文)质量,根据《北华航天工业学院毕业设计(论文)工作暂行规定》制定本规范。一、毕业设计报告(论文)的结构与要求毕业设计报告(论文)包括封面、内容摘要(中英文)、关键词(中英文)、目录、正文、注释、参考文献、附录、致谢等几部分。理工类论文全文不少于万字,设计说明书不少于万字,文科、管理类论文全文为万字左右。(外语专业为8 000~10 000词)。毕业设计报告(论文)一律打印,封面由学校统一印制。(一)题目毕业设计报告(论文)的题目应当简短、明确,有概括性,能体现毕业设计(论文)的核心内容、专业特点和学科范畴。毕业设计报告(论文)题目不得超过25个字,不得设置副标题,不得使用标点符号,可以分行书写,用词必须规范。(二)内容摘要内容摘要应扼要叙述论文的主要内容、特点,文字要精练,是一篇具有独立性和完整性的短文,包括基本研究内容、研究方法、创造方法、创造性成果及其理论与实际意义。内容摘要中不应使用公式、图表,不标注引用文献编号,并应避免将内容摘要撰写成目录式的内容介绍。中文内容摘要应在400字以内,英文内容摘要(Abstract)应与中文内容摘要内容相同。(三)关键词关键词是供检索用的主题词条,应采用能够覆盖毕业设计(论文)主要内容的通用专业术语(参照相应的专业术语标准),一般列举3~5个,按照词条的外延层次(学科目录分类)从大到小排列。英文关键词(Key words)应与中文关键词相同。(四)目录目录应独立成页,按2~3级标题编写,要求层次清晰,且要与正文标题一致,主要包括内容摘要(中、英文)、正文主要层次标题、参考文献、附录、致谢等,且标明对应页数。(五)正文正文包括绪论(引言)、论文主体和结论等部分。正文必须从页首开始。绪论一般作为专业技术类论文的第1章,应综述前人在本领域的工作成果,说明毕业设计(论文)选题的目的、背景和意义,国内外文献资料情况以及所要研究的主要内容。文管类论文的绪论(引言)一般作为论文的前言,内容包括对写作目的、意义的说明,对所研究问题的认识并提出问题。要写得简明扼要,篇幅不应太长。论文主体是全文的核心部分,应结构合理,层次清晰,重点突出,文字通顺简练。结论是对主要成果的归纳,要突出创新点,以简练的文字对所做的主要工作进行评价。结论一般为500字左右。(六)注释对所创造的名词术语的解释或对引文出处的说明。注释一律采用脚注形式。(七)参考文献参考文献是论文的不可缺少的组成部分。它反映了毕业论文工作中取材的广博程度。毕业论文的参考文献必须是学生本人真正阅读过的。参考文献数量理工类一般在8~10篇,其中学术期刊类文献不少于5篇,外文文献不少于2篇,但对土建类专业,学术期刊类文献和外文文献篇数可酌减,具体数量由相关系确定;文科、管理类一般不少于13篇。其中学术期刊类文献不少于5篇,外文文献不少于2篇。引用网上文献时,应注明该文献的准确网页地址。网上参考文献不包含在上述规定的文献数量之内。产品说明、未公开出版或发表的研究报告等不列为参考文献,有确需说明的可以在致谢中予以说明。不论何种类型的论文都要将其中与所撰写论文内容最直接相关的一篇外文文献译成中文,字数不少于3 000个汉字,并将外文文献原文以及对应的中文译文一并编入附录。(八)附录对不宜放在正文中但对论文确有作用的材料,外文文献及中文译文、冗长公式推导、辅助性数学工具、符号说明(含缩写)、较大型的程序流程图、较长的程序代码段、图纸、数据表格等,可以编制成报告(论文)的附录。附录字数不计入报告应达到的文字数量,篇幅不宜太长,一般不要超过正文。(九)致谢对整个毕业论文工作进行简单的回顾总结,对导师和对为毕业设计(论文)工作、报告(论文)撰写等提供帮助的组织或个人表示感谢。内容尽量简洁明了,实事求是。二、毕业设计报告(论文)排版打印要求论文必须使用标准A4打印纸(厘米×21厘米)、以Word格式编排打印,英文及阿拉伯数字为Times New Roman。页面上、下页边距各厘米,左页边距厘米,右页边距厘米,并按如下要求排版:(一)封面封面采用教务处制定的毕业设计报告(论文)封面。封面所填内容文字格式为宋体、三号字。题目较长的,可以分成两行填写,并注意上下两行匀称、美观。保持封面线形、位置及长度,不得随意改变。(二)内容摘要摘要标题用小二号黑体字居中排印,然后隔行打印摘要的文字部分,摘要内容按照正文要求处理。内容摘要与关键词中英文应各占一页,不设置页码。(三)关键词关键词与内容摘要同处一页,位于内容摘要之后,空一行,另起一行并以“关键词: ”开头(黑体字),后跟3~5个关键词(字体不加粗),关键词之间空一字,其他要求同正文。关键词如需转行应同第一个关键词对齐。(四)目录题头“目录”应居中,黑体、小二号字,“目”与“录”之间空两字,段落设置为:段前1行,段后行。然后,隔行打印目录的内容。目录列至正文的2~3级标题以及附录、参考文献和致谢所在页码,标题与页码之间加“…………”连接,并应使用计算机文字处理软件的“插入-索引和目录”自动生成,内容打印要求与正文相同。目录页不设置页码。(五)正文正文必须从正面开始,并设置为第1页。页码在页末外侧打印,用阿拉伯数字编排。1.标题与字号论文题目为黑体、二号字,居中,段落设置为:段前1行,段后1行。论文每级标题的层次代号及字体字号见下表:理工类论文层次代号及说明层次名称 示 例 说 明章 第1章 □□…□(小二号黑体) 章序及章名居中排,章序用阿拉伯数字节 └┘□□…□ (小三号黑体) 题序顶格书写,与标题间空一格,下面阐述内容另起一段条 └┘□□……□ (四号黑体)款 └┘□□……□└┘□□……□□□□…… (小四号黑体) 题序顶格书写,与标题间空一格,下面阐述内容在标题后空一格接排项 └┘└┘(1)□□…□└┘□□…□□…□□□□… (正文用小四号宋体) 题序空二格书写,以下内容接排↑ ↑版心左边线 版心右边线文管类论文层次代号及说明一级标题二级标题三级标题四级标题五级标题 └┘└┘一、□□□□□(小二号黑体)└┘└┘(一)□□□□(小三号黑体)└┘└┘1.□□□□ ( 四号黑体)□□□□□□□□□□□□□□□□□□□□□□□□□□□□└┘└┘(1)□□□□ (小四号黑体)□□□□□□□□□□□□□□□□□□□□□□□□□□□□□□□□└┘└┘①□□□□□ (小四号宋体) 空两格书写空两格书写空两格书写空两格书写空两行书写↑ ↑版心左边线 版心右边线文管类论文在论文题目和第一个一级标题之间必须有一段过渡性的文字;所有的一级子标题和二级子标题之间也必须有一段过渡性的文字。正文一律使用标准小四号宋体字,段落开头空两个字,行间距为固定值20磅;2. 公式与图表正文中的公式原则上居中。如公式前有文字,文字应与正文左侧对齐,公式末尾不加标点。数学表达式必须符合科学表达方式,公式中的乘号必须使用数学符号“×”,不得用星号“*”或字母“x”代替。公式录入必须使用公式编辑器或插入“域”。公式序号一律用阿拉伯数字连续逐章编序,如第2章的第3个公式序号为“(2-3)”,附录2中的第3个公式序号为“(②-3)”等,公式序号的右侧符号靠右边线顶边排写,公式与序号之间不加虚线。公式中第一次出现的物理量应给予注释,注释的转行应与破折号“——”后第一个字对齐,格式见下例:式中└—┘Mf ——试样断裂前的最大扭矩(N•m);θf ——试样断裂时的单位长度上的相对扭转角,θf = (rad/mm)。公式中应注意分数线的长短(主、副分线严格区分),长分线与等号对齐,如正文中的插图应与文字紧密配合,文图相符,内容正确,绘制规范。理工类论文插图按章编号并置于插图的正下方居中,如第2章的第3个插图序号为“图2-3”,插图序号和图题使用标准五号宋体字。文管类论文插图按自然顺序编号并置于插图的正下方居中,如“图1”,插图不命名,插图序号使用标准五号宋体字。图中的文字应使用没有边框的图文框或文本框,并注意与线段、图形之间的叠放次序及组合关系。如果图中文字或数码过多,也可以使用小五号宋体字或更小的宋体字。引用图应说明出处,在插图序号右上角加引用文献注释编号。正文中的插表不加左右边线。理工类论文插表逐章单独编序,插表序号置于插表的正上方居中,如“表2-3”(插表应有表名);文管类论文插表全文统一编号,如:“表1”(插表不命名),插表序号及表名使用标准五号宋体字。3. 页眉与页脚论文除封面外,各页均应加页眉,页眉文字居中,为“北华航天工业学院毕业论文”。页眉的文字用华文行楷、五号字,距边界厘米,设置黑色双线磅下边框,应用于段落。论文中的注释,用数字加圆圈标注(如①②…),要求排印在该页页脚。序号按页分别编号,不采用通篇文章统一编号方式。注释只限于写在注释序号出现的同页,不得隔页。文字用五号、宋体字。引文出处的注释也在当页的页脚排印,书写格式同参考文献。所有注释均须采用插入“引用”或“脚注和尾注”的方法生成,脚注和尾注所列的文献应当列入参考文献,但工具书除外。4. 数字正文中除习惯用中文数字表示的以外,一般数字均用阿拉伯数字。具体内容包括:(1)世纪、年代、年、月、日和时刻一律用阿拉伯数字,如20世纪,80年代,4时3刻等。年号要用四位数,如1989年,不能简写为89年;标注时间时,月、日要用两位数,如2007年02月05日。(2)数值与计算(含负整数、分数、小数、百分比、约数等)一律用阿拉伯数字,如,10个月,500多种等。(3)一个数值的书写形式要照顾到上下文。不是出现在一组表示科学计量和具有统计意义数字中的一位数字可以用汉字,如一个人,六条意见。星期的表示一律用汉字,如星期六。邻近两个数字并列连用,表示概数,应该用汉字数字,数字间不用顿号隔开,如三五天,七八十种,四十五六岁,一千七八百元等。(4)数字作为词素构成定型的词、词组、惯用语、缩略语等应当使用汉字。如二倍体,三叶虫,第三世界,“七五”规划,相隔十万八千里等。(5)5位以上的数字,尾数零多的,可以写为以万、亿为单位的数。如345 000 000公里可写为亿公里或34 500万公里。(6)数字的书写一般每两数码占一格,数字间分节不用分位号“,”,凡4位以上的数都从个位起每3位数空半个数码(1/4汉字)。例如:“3 000 000”,小数点后的数从小数点起向右按每三位一组分节。用阿拉伯数字书写的多位数不能从数字中间转行。其他需要注意的还有:(1)所有数码一律采用半角字表示,如1234。(2)使用“首先”、“其次”或“第一”、“第二”等顺序词时,其后不能使用顿号“、”,必须使用逗号“,”,且“首先”、“其次”应与“最后,”相对应。(3)英文字母后不得使用顿号,可根据具体情况分别使用逗号“,”或圆点“.”。(4)英文摘要必须按标准格式书写。标点符号后要加一个空格,不得使用汉语中的专用符号,如书名号“《》”、顿号“、”圆句号“。”等。(5)注意区别外国人名中的分隔符(如马克•吐温)与英语中的缩写符(如),又如:罗伯特•S.卡普兰的英文为:Robert 。(6)破折号(即两字线)为中文状态下“减号键”的上档键“——”,不得连续使用几个减号“-------”。(7)数码和时间区间不得使用连字符“-”或一字线“—”,而应使用动态键盘“标点符号”中的波浪线“~”,如:“x的取值范围为0~30”,“论文写作时间为2001年11月28日~2002年5月28日”。(六)致谢致谢独占一页,题头“致谢”应居中,黑体、小二号字,“致”与“谢”之间空两字,段落设置为:段前1行,段后行,然后另起一行打印致谢的内容。致谢内容按照正文要求处理。(七)参考文献另起页。名称为小二号黑体。独占行,居中,段落设置为:段前1行,段后行。参考文献的内容按文献的重要性程度排序,分别按参考论文(刊物上发表的)、参考书目和其他参考资料(报纸文章、电子文献、网站上发表的等)不同类别列于正文之后。按照GB7714—87《文后参考文献著录规则》规定的格式打印,内容打印要求与设计报告(论文)正文相同。参考文献从页首开始,著录格式如下:A.连续出版物〔序号〕 主要作者.文献题名.刊名,出版年份,卷号(期号):起止页码.例:〔1〕 袁庆龙,候文义.Ni-P合金镀层组织形貌及显微硬度研究.太原理工大学学报,2001,32(1):.专著〔序号〕 主要作者.文献题名.版次(第一版省略).出版地:出版者,出版年:页码.例:〔2〕 刘国钧,郑如斯.中国书的故事.北京:中国青年出版社,1979:115.C.会议论文集〔序号〕 析出责任者.析出题名.见(英文用In):主编.论文集名.(供选择项:会议名,会址,开会年)出版地:出版者,出版年:起止页码.例:〔3〕孙品一.高校学报编辑工作现代化特征.见:中国高等学校自然科学学报研究会.科技编辑学论文集(2).北京:北京师范大学出版社,1998:10-22.D.学位论文〔序号〕 主要作者.文献题名.保存地:保存单位,年份:例:〔4〕张和生.地质力学系统理论.太原:太原理工大学,1998:E.报告〔序号〕 主要责任者.文献题名.报告地:报告会主办单位,年份:例:〔5〕冯西桥.核反应堆压力容器的LBB分析.北京:清华大学核能技术设计研究院,1997:F.专利文献〔序号〕 专利所有者.专利题名.专利国别:专利号,发布日期:例:〔6〕姜锡洲.一种温热外敷药制备方案.中国专利:881056078,1983-08-12:G.国际、国家标准〔序号〕 标准代号.标准名称.出版地:出版者,出版年:例:〔7〕GB/T 16159—1996.汉语拼音正词法基本规则.北京:中国标准出版社,1996:H.电子文献〔序号〕 主要责任者.电子文献题名.电子文献的出版或可获得地址(电子文献地址用文字表述),发表或更新日期/引用日期(任选) :例:〔8〕姚伯元.毕业设计(论文)规范化管理与培养学生综合素质.中国高等教育网教学研究,2005-2-2:I. 外文文献外文文献列印个市铜中文文献,文献中第一个词和每个实词的第一个字母大写,余者小写;文献中的外文字母一律用正体。例:〔9〕S. Niwa, M. Suzuki and K. Kimura. Electrical Shock Absorber for Docking System in Space. IEEE International Workshop on Intelligent Motion Control, Bogazici University, Istenbul. 1990: 825-830(八)附录名称为小二号黑体。独占行,居中,“附”与“录”之间空两字,段落设置为:段前1行,段后行。每个附录均从页首开始,并在附录起始页的左上角用标准小四号黑体字注明附录序号。附录序号采用“附录1”、“附录2”等,其中外文文献的中文译文作为附录1,外文原文作为附录2。内容格式要求同正文。文管类附录序号相应采用“附录一”、“附录二”等。(九)软件较短的软件流程图和原始程序清单可按软件文档格式附在论文后面,大型软件可根据各专业要求将软件流程图、原始程序清单以及所设计的软件系统刻录在光盘上作为设计成果上交。三、毕业论文(设计)装订顺序定稿需要在左侧装订,在左边竖装两个钉,两钉之间及与页边的距离要匀称、美观。定稿文本的装订顺序具体要求如下:(一)毕业设计报告(论文)封面(二)毕业设计(论文)原创性及知识产权声明(三)内容摘要与关键词(中英文)(四)目录(五)正文(六)致谢(七)参考文献(八)附录封面示例毕业设计报告(论文)报告(论文)题目:作者所在系部:作者所在专业:作者所在班级:作 者 姓 名 :作 者 学 号 :指导教师姓名:完 成 时 间 :北华航天工业学院教务处制中文摘要示例摘 要交会对接技术是发展空间在轨基础设施的关键技术。本文对基于计算机视觉的空间飞行器自动对接系统进行了详细的研究。首先,讨论了许多常规姿态表示方法,并指出姿态表示的复杂性。然后给出李代数法姿态表示和可能的定义。在各种姿态表示下,给出了空间飞行器姿态运动学和动力学方程。为后面建立对接系统数学模型打下了基础……关键词 交会对接 计算机视觉 非线性最小二乘 非线性观测器 非线性控制器外文摘要示例AbstractRendezvous and docking are two of the key techniques to develop an inorbit space infrastructure. In this thesis, an automatic spacecraft docking system based on computer vision is studied in , a number of conventional methods for attitude representation are discussed and their complexity in dealing with the problem of attitude representation are…Key words rendezvous and docking computer vision nonlinear least spuaresnonlinear observer nonlinear controller目录示例(理工类)目 录摘要 ⅠAbstract Ⅱ第1章 绪论 课题背景 交会对接技术发展概况 美国空间交会对接发展概况 俄罗斯空间交会对接发展概况……………………………. 俄罗斯、美国联合飞行 欧空局空间交会对接发展概况 我国的空间交会对接发展概况 相关工作 姿态表示和空间飞行器和运动方程……………………… 对接制导 本文主要研究内容 8第2章 空间飞行器姿态表示和运动方程 ………………………………… 引言 标准正交旋转矩阵姿态表示 10……致谢 53参考文献 54附录1 56附录2 58目录示例(文管类)目 录摘要 ⅠAbstract Ⅱ一、当前国际货币体系的状况及成因 1(一)国际货币体系的状况 2(二)国际货币体系的成因 81.经济上的原因 82.政治上的原因 8二、国际货币新体系构想 12(一)理论界关于国际货币体系的几种设想 12(二)以美元、日元、德国马克为中心的国际货币新体系构想 18三、国际货币体系变革对我国的影响及对策 ………………………………26(一)国际货币体系变革对我国经济的影响 26(二)我国的对策 32……致谢……………………………………………………………………………37参考文献 38附录一 39附录二 43正文示例(理工类)第1章 绪论 课题背景空间科学技术的发展是异常迅速的,每个时期都可以找到一个具有典型代表性的技术成就。通常可以作这样一个概括:50年代为卫星上天时代;60年代为载人飞船(阿波罗)时代;70年代为星际控测时代;80年代为航天飞机时代;90年代为空间站时代。永久性载人空间站是本世纪最复杂、最巨大的航天工程,也可以说是当今空间技术进展的一个重要里程碑[1]。…… 交会对接技术发展概况自从六十年代美、俄罗斯分别在空间轨道上实现了两个飞行器交会对接,至今二十多年来(即美、俄罗斯)已经在轨道上至少成功地进行了160多次交会对接,其中俄罗斯占120多次。俄罗斯在交会对接技术方面居世界领先地位[9]。下面概述美国、俄罗斯和欧空局和我国空间交会对接技术发展状况。 美国空间交会对接发展概况1957年俄罗斯发射了第一颗人造地球卫星[10],迫使美国迅速作出反应在太空与之竞争。……正文示例(文管类)国际货币新体系构想 (二号黑体)自从本世纪七十年代布鲁顿木森体系互解以来,国际货币体系进入动荡不安的状态。特别是进入九十年代以来,陆续出现墨西哥金融危机、美元对日元和德国马克的大幅度贬值的现象,引起了金融界的恐慌,……近年来,随着我国经济的持续发展和改革开放的不断深化扩大,国际经济的变化也越来越直接地影响我国经济发展。……是摆在我国经济理论界面前的一个重要课题。……一、当前国际货币体系的状况及原因(一)国际货币体系的现状国际货币体系又称国际货币制度,它是指为……(二)国际货币体系的成因造成以上状况的原因既有经济上的,也有政治上的。1.经济上的原因××××××××××××××××××××××××××××××××××××××××××××2.政治上的原因××××××××××××××××××××××××××××××××××××××××××××(1)(黑体、小四号)×××××①××××××××××××
哥们,每个大学的要求都不一样,就是说没有统一的格式。要是想借鉴可以给你看我们学校的。
《计算机视觉教程》笔记 编著:章毓晋(清华大学电子工程系) 出版社:人民邮电出版社 出版时间: 图像数据文件的格式有很多种,不同的系统平台和软件常使用不同的图像文件格式。 介绍4种应用比较广泛的图像文件格式: BMP格式是Windows环境中的一种标准(但很多Macintosh应用程序不支持它),它的全称是Microsoft设备独立位图(DIB)。 BMP图像文件也称位图文件,其中包括3部分内容: 一个位图文件只能存放一幅图像。位图文件头长度固定为54个字节,它给出图像文件的类型、大小和位图阵列的起始位置等信息。位图信息给出图像的长和宽、每个像素的位数(可以是 1、4、8 和24,分别对应单色、16色、256色和真彩色的情况)、压缩方法、目标设备的水平和垂直分辨率等信息。位图阵列给出原始图像里每个像素的值(每3个字节表示一个像素,分别是蓝、绿、红的值),它的存储格式有压缩(仅用于16色和256色图像)和非压缩两种。 GIF 格式是一种公用的图像文件格式标准,它是 8 位文件格式(一个像素一个字节),所以最多只能存储256色图像。 GIF文件中的图像数据均为压缩过的。GIF文件结构较复杂,一般包括7个数据单元:文件头、通用调色板、图像数据区,以及4个补充区。其中,表头和图像数据区是不可缺少的单元。 一个 GIF 文件中可以存放多幅图像(这个特点对实现网页上的动画非常有利),所以文件头中包含适用于所有图像的全局数据和仅属于其后那幅图像的局部数据。当文件中只有一幅图像时,全局数据和局部数据一致。存放多幅图像时,每幅图像集中成一个图像数据块,每块的第一个字节是标识符,指示数据块的类型(可以是图像块、扩展块或文件结束符)。 TIFF格式是一种独立于操作系统和文件系统的格式(在Windows环境和Macintosh机上都可使用),便于在软件之间进行图像数据交换。 TIFF图像文件包括文件头(表头)、文件目录(标识信息区)和文件目录项(图像数据区)。文件头只有一个,且在文件前端。它给出数据存放顺序、文件目录的字节偏移信息。文件目录给出文件目录项的个数信息,并有一组标识信息,给出图像数据区的地址。文件目录项是存放信息的基本单位,也称为域。从类别上讲,域的种类主要包括基本域、信息描述域、传真域、文献存储和检索域5类。 TIFF 格式的描述能力很强,可制定私人用的标识信息。TIFF 格式支持任意大小的图像,文件可分为 4 类:二值图像、灰度图像、调色板彩色图像和全彩色图像。一个 TIFF 文件中可以存放多幅图像,也可存放多份调色板数据。 JPEG 格式源自对静止灰度或彩色图像的一种压缩标准JPEG,在使用有损压缩方式时可节省的空间是相当大的,目前数码相机中均使用这种格式。 JPEG 标准只是定义了一个规范的编码数据流,并没有规定图像数据文件的格式。Cube Microsystems公司定义了一种JPEG文件交换格式(JFIF)。 JFIF图像是一种使用灰度表示或使用Y,Cb,Cr分量彩色表示的JPEG图像。它包含一个与JPEG兼容的文件头。一个JFIF文件通常包含单个图像,图像可以是灰度的(其中的数据为单个分量),也可以是彩色的(其中的数据是Y,Cb,Cr分量)。Y,Cb,Cr分量与常见的R,G,B三原色的关系如下: TIFF 也支持用JPEG压缩的图像,TIFF文件可以包含直接DCT的图像,也可以包含无损JPEG图像,还可以包含用JPEG编码的条或块的系列(这样允许只恢复图像的局部而不用读取全部内容)。