• 回答数

    4

  • 浏览数

    342

无锡一号
首页 > 学术期刊 > 张量分解研究生论文

4个回答 默认排序
  • 默认排序
  • 按时间排序

yannychan108

已采纳

在数学中,张量积(tensor product) ,可以应用于不同的上下文中如向量、矩阵、张量、向量空间、代数、拓扑向量空间和模。在各种情况下这个符号的意义是同样的:最一般的双线性运算。在某些上下文中也叫做外积。

317 评论

贪吃的pinko酱

硕士研究生小论文写作方法详解

硕士研究生小论文怎么写,写作的方法是什么呢,下面我为大家分享硕士研究生小论文写作方法详解,仅供参考!

首先我们来看看硕士小论文的格式和主要写作内容:

论文题目:空一行,2黑,一般不超过20字,不用不常见的英文缩写。小5楷。

作者(作者详细单位,省市邮编)。小5宋

摘要:摘要内容。概括地陈述论文研究的目的、方法、结果、结论,要求200~300字。应排除本学科领域已成为常识的内容;不要把应在引言中出现的内容写入摘要,不引用参考文献;不要对论文内容作诠释和评论。不得简单重复题名中已有的信息。用第三人称,不使用“本文”、“作者”等作为主语。使用规范化的名词术语,新术语或尚无合适的汉文术语的,可用原文或译出后加括号注明。除了无法变通之外,一般不用数学公式和化学结构式,不出现插图、表格。缩略语、略称、代号,除了相邻专业的读者也能清楚理解的以外,在首次出现时必须加括号说明。结构严谨,表达简明,语义确切。

关键词:关键词1;关键词2;关键词3;关键词4

Title:第一个词首字母应大写;4号Times New Roman,应与中文题名含义一致,不超过12个实词。

Name:多个作者署名用逗号隔开,姓氏字母大写,名字的首字母大写;小5号Times New Roman.(Department, City, City Zip Code, China;)

Abstract:英文摘要应是中文摘要的转译,所以只要简洁、准确地逐段将文意译出即可,要求250单词左右。时态用一般过去时,采用被动语态或原型动词开头。避免用阿拉伯数字作首词,不出现缩写。尽量使用短句。

Key words:keyword1; keyword2; keyword3; keyword4

引言内容:引言作为论文的开场白,应以简短的篇幅介绍论文的写作背景和目的,以及相关领域内前人所做的工作和研究概况,说明本研究与前人工作的关系,目前研究的热点、存在的问题及作者工作的意义。

1、开门见山,不绕圈子。避免大篇幅地讲述历史渊源和立题研究过程。

2、言简意赅,突出重点。不应过多叙述同行熟知的及教科书中的常识性内容,确有必要提及他人的研究成果和基本原理时,只需以引用参考文献的形势标出即可。在引言中提示本文的工作和观点时,意思应明确,语言应简练。

3、引言的内容不要与摘要雷同,也不是摘要的注释。

4、引言要简短,最好不要分段论述,不要插图、列表和数学公式。

正文:5宋,首行缩进2字符。一级分段标题, 4号仿宋。

1 量的书写规则

正文内容:正文、图表中的变量都要用斜体字母,对于矢量和张量使用黑斜体,只有pH采用正体;使用新标准规定的符号;量的符号为单个拉丁字母或希腊字母;不能把量符号作为纯数使用;不能把化学符号作为量符号使用,代表物质的符号表示成右下标,具体物质的符号及其状态等置于与主符号齐线的圆括号中。

二级分段标题, 5黑,固定行距15磅,段前段后3磅注意区分量的下标字母的正斜体:凡量符号和代表变动性数字及坐标轴的字母作下标,采用斜体字母。

二级分段标题, 5号黑加粗。正文中引用参考文献的标注方法,在引用处对引用的文献,按它们在论着中出现的先后用阿拉伯数字连续排序,将序号置于方括号内,并视具体情况把序号作为上角标或作为语句的组成部分。

单位的书写规则

正文内容。单位符号无例外的`采用正体字母。注意区分单位符号的大小写:一般单位符号为小写体,来源于人名的单位符号首字母大写。体积单位升的符号为大写L.

三级分段标题, 5号宋。

表格的规范化

正文内容。表格的设计应该科学、明确、简洁,具有自明性。表格应采用三线表,项目栏不宜过繁,小表宽度小于 cm,大表宽度为12~375px .表必须有中英文表序、表题。表中顶线与栏目线之间的部分叫项目栏,底线与栏目线之间的部分叫表身。表身中数字一般不带单位,百分数也不带百分号,应把单位符号和百分号等归并在栏目中。如果表中栏目中单位均相同,则可把共同的单位提出来标示在表格顶线上方的右端(不加“单位”二字)。表身中同一栏各行的数值应以个位(或小数点),且有效位数相同。上下左右相邻栏内的文字或数字相同时,应重复写出。

2 图的规范化

图中文字均为小5号字;图线条磅数应在磅。4号黑,单倍行距,参考文献要求8个以上,正文中未引用的不列出。正文内容。插图尽可能不用彩色图。小图宽度小于 cm,大图宽度为12~375px .图必须有中英文图序、图题。函数图只在靠近坐标线处残留一小段标值短线,其余部分省略。加注坐标所代表的量及单位(如t/s)。标值排印在坐标外侧,紧靠标值短线的地方;标值的有效数字为3位。图中量的意义要在正文中加以解释。若有图注,靠近放在图下部,图序、图题的上方。

3 数学符号和数学式的编排规范

变量变动附标及函数用斜体字母表示。点、线段及弧用斜体字母表示。在特定场合中视为常数的参数也用斜体字母表示。对具有特殊定义的函数和值不变的数学常数用正体字母表示。具有特殊定义的算子也用正体字母表示。矩阵符号用大写的黑斜体字母表示,矩阵元素用白斜体字母表示。

公式及公式中的符号说明尽量接排以节省版面。把带有复杂上角标的指数函数写成。公式的主体应排在同一水平线上;繁分式的主辅线要分清。长公式在运算符号后回行;长分式转行时,先将分母写成负幂指数的形式,然后转行;矩阵和行列式不能转行。矩阵元素包含式子时,每一列应以中心线上下对齐,行要左右排齐;元素为单个字母或数字时,每列应使正负号对齐。对角矩阵中对角元素所在的列应明显区分,不能上下重叠。

简单的和常识性的运算公式和推导过程不要列写。

4 结论

小5宋或Times New Roman, 3个作者以上只列出前3个,后加用“等”代替,英文用“et al.”.作者的姓在前,名在后正文内容。结论不应是正文中各段小结的简单重复,它应以正文中的实验或考察得到的现象、数据的阐述分析为依据,完整、准确、简洁地指出以下内容:1)由对研究对象进行考察或实验得到的结果所揭示的原理及其普遍性;2)研究中有无发现例外或本论文尚难以解释和解决的问题;3)与先前发表过的研究工作的异同;4)本文在理论上和实用上的意义及价值;5)进一步深入研究本课题的建议。

参考文献:

[1]期刊文章论文集中的析出文献作者。 文献题名[J].刊名,出版年,卷(期):xxx-xxx (起止页码)。

[2]论文集作者。 析出文献题名[A].论文集名[C].出版地,出版年。

[3] 作者。书名[M].版本(第一版不写)。出版地:出版者,出版年。

[4]学位论文作者。文献题名[D].保存地点:保存单位,出版年

[5] 作者。 文献题名[R].报告题名及编号,出版年。

[6]科技报告作者。 文献题名[EB/OL].电子文献的出处或可获得地址,发表或更新日期/引用日期。

[7]电子文献专利所有者。专利题名[P].专利国别:专利号,出版日期。

[8]专着、论文集、学位论文、报告作者。文献题名[N].报纸名,出版日期(版次)

[9]报纸文章标准编号,标准名称[S]

[10]各种未定义类型的文献作者。文献题名[Z].出版地:出版者,出版年

242 评论

糖纸0035

加速卷积神经网络的方法主要可以分三个方面:1. 针对卷积操作优化,例如使用FFT实现卷积操作;2. 量化操作,例如网络的二值化(BinaryNet);3. 在结构上简化,使模型变小。在结构上简化模型也可以分三类:张量分解、连接稀疏化,基于通道的裁枝。首先张量分解是将张量分解成多个小张量,但是输出的通道数并没有变化,因此对于1*1的卷积层很难通过张量分解的方法做压缩,而当前很多模型结构都用到了大量的1*1卷积(例如ResNet,GoogleNet,Xception等)。其次连接稀疏化是将两层之间的连接变稀疏,但是这种稀疏化处理通常是没有固定模式规律的,所以尽管理论上有很高的加速效果,但是实际实现很复杂,因为通过稀疏化处理,数据无法再通过原来的张量存储,需要使用稀疏矩阵/稀疏张量来存储,那么卷积操作也变成稀疏卷积。最后相比于前两种方法,基于通道的裁枝既可以减少通道数,又不会改变数据的存储方式,因此其对于CPU和GPU都有很好的加速效果,同时也不需要实现特殊的卷积操作。 模型压缩的典型工作: Low-rank Decomposition 低秩分解 : 使用SVD等技术来近似于权重矩阵(它具有低秩矩阵)。 在全连接层上工作很好,但CNN的计算量主要在卷积层。 Weight Quantization 量化权值 : 如HashNet量化网络权值(采用共享权重和哈希索引大大节省存储空间) 但不能节省运行时间(因为权重还需要恢复从而进行网络推理inference) 二值化是个很好的方法(或用三值化{-1,0,1})。 Weight Pruning/Sparsifying 权重修剪或稀疏 : 有论文将训练好的网络里的小权值修剪掉(即设为0),这样也可以用稀疏格式储存权值。 但是需要专用的稀疏矩阵运算库或特殊硬件来加速,且运行内存也没有减少。 Structured Pruning/Sparsifying 结构修剪或稀疏化: 有提出在训练好的网络中,修剪那些较小权值连接的Channel,再微调网络恢复精度方法的论文 有提出在训练前随机停用channel从而引入稀疏,有提出neuron-level的稀疏方法从而修剪神经元获得紧凑网络,也有提出结构化稀疏学习(SSL)的方法,去稀疏CNN不同层级的结构(filters、channels、layers)。 Neural Architecture Learning (NAS)神经结构学习: 有关于自动学习网络结构的方法,如谷歌通过强化学习来搜寻最佳网络结构,或者其他的给定巨大网络结构,从中学习出最佳子图网络。 但是资源消耗太大,时间太长。 传统的模型剪枝思路:训练一个冗余模型+剪枝+微调,剪枝的意义在于保留重要的权重,裁剪冗余的权重,以此尽可能保证准确率。实际上,对于所有STOA的模型结构剪枝算法,微调一个剪枝后的模型相比于从头训练一个剪枝候的模型,结果不会更好,甚至更差。意思就是说,剪枝之后保留的权重相比于剪枝之后网络模型的结构,并不那么重要,或者说, Network Pruning更多地是在进行网络结构的搜索 。根据实验观察,本文发现:1、训练一个大的参数冗余的模型并不是必要的;2、保留对于大网络重要的权重对于小模型而言并不那么重要;3、剪枝之后的网络结构本身而非保留的权重对于最后模型的有效性更为重要。 传统剪枝的两点共识: 1、训练一个效果优良的大模型很重要,以此保证高准确率; 2、剪枝之后的模型结构和保留的权重都很重要,因此是fine-tuning而非train from scratch 本文认为在进行结构剪枝(structured pruning method)(在卷积通道上进行剪枝)上述两个共识可能并不是必须的。 两个观察: 1、对于预先定义(predefined)目标模型的结构剪枝,直接从头训练剪枝模型不比微调剪枝之后的模型效果差,甚至更好; 2、对于事先不知道(auto-discover)目标模型的结构剪枝,从头训练也不比微调的结果差,甚至更好。 意思是说结构比参数重要,模型剪枝可能本质就在做网络结构的搜索。此外,从参数冗余的大模型继承权重参数似乎并不是那么好,可能让剪枝之后的模型陷入局部优化。 对于非结构化的网络剪枝(unstructured,weight level),在小数据集上从头训练往往与微调剪枝模型效果相当,但是在大数据集上不是如此。 从头训练有两种方式: 剪枝模型与大模型训练同样的轮数显然不公平,因为剪枝模型一轮训练的计算量明显远低于大模型。 因此,一种方法是使得训练大模型和训练小模型的总体计算量是相同的(FLOPs),换言之,剪枝降低了几倍的计算量,训练轮数就是训练大模型的几倍,称之为Scratch-B。另外一种的使得训练剪枝模型的轮数跟训练大模型一样,称之为Scratch-E。 Predefined Structured Pruning L1-norm based Filter Pruning 以往一些剪枝的操作主要是 减少了全连接层的参数 ,全连接层的参数量占比最多(比如VGG-16中全连接层操作参数占了90%,但计算量只占了不到1%), 但是主要的计算量集中在卷层操作。意即对权重矩阵进行稀疏化并不能充分减少计算量。论文提出 对卷积层进行剪枝操作 ,然后进行retrain,不会造成 稀疏连接 (稀疏矩阵操作需要特殊的库等来处理),全连接层可以使用 平均池化层 来代替以减少参数量。 pruning filters and feature maps 第 层卷积层的输入特征图为 ,卷积核维度为 ,单个卷积核记为 ,输出特征图维度为 ,总计算量为 ,去除一个卷积核,将减少的计算量为 ,因此,如果去除 个卷积核,将减少的计算量倍数为 。 在单层中确定去除那些卷积核: 衡量每层中单个卷积核的相对重要性:绝对值的和(矩阵L1范数和) 具有较小权重的卷积核可以认为倾向于产生较小激活的特征图(相比于同层内的其他卷积核) 选择前m个最小的绝对值,删除对应的卷积核和特征图,相比于随机选择相同数量的filters和选择最大值filters的结果比较,效果更好 。 算法: 对于每一个filter matrix按列绝对值求和 对求和结果排序 裁剪掉m个绝对值最小的filters,以及对应的输出,它又是下一层的输入,所以也得去掉下一层卷积核的对应通道 剩余的kernel weights保留 决定每层对剪枝的敏感性: 每一卷积层进行单独剪枝,查看在validation set上准确度的变化,对于VGG-16,一些卷积层的卷积核数量是一样的,所以对于敏感度差不多的卷积层,使用相同的比例进行剪枝,而对于敏感度比较大的层,选择最小的比例进行剪枝或者不进行剪枝。 跨越多层的剪枝: 之前的一些剪枝策略是逐层剪枝,然后进行retraining,但是这样是非常耗时的。 两种策略  独立剪枝:就是每一层是独立的,当剪枝层的输入特征图通道减少,决定该去掉哪些卷积核时,范数的计算还是应该考虑原始卷积的所有通道,然后进行剪枝 贪心剪枝:就是考虑到上一层被剪掉的情况,当剪枝层的输入特征图通道减少,决定该去掉哪些卷积核时,范数的计算要去掉对应输入特征图减少的通道,然后进行剪枝 Retraining 剪枝之后,应该retraining(类似fine-tune)  一次性剪枝然后retrain 逐层剪枝进行retrain 第二种策略结果可能会更好,但是需要更多的epochsThiNet 作者主页 prune以filter(卷积核)为单位,根据该层filter的输出来判断该filter是否对结果有贡献,如果没有贡献或贡献很小,则直接把这个filter去掉,关键在于filter的选择方式,依据则是如果可以用某一层的输入的一个子集代替原来的输入得到尽可能类似原来的输出的话,那么子集以外的输入就可以去掉,则其对应的前面一层的卷积核也就可以去掉。如下图。 以去掉冗余卷积核做prune的研究还有很多,关键在于选择方式,比如计算filter的绝对值和,认为如果一个filter的绝对值和比较小,说明该卷积核并不重要,这种算法暂且叫Weight sum;还有计算激活层输出的feature map的值的稀疏程度,如果feature map的值很稀疏,也就是大部分值是0,那么该feature map对应的filter也是冗余的,可以去掉,这种算法暂且叫APoZ(Average Percentage of Zeros)。 Filter selection: 不同于一些方法:用第 层的数据来指导剪枝第 层的卷积核,本文使用第 层来确定第 层的剪枝,如前所述: 如果能用第 层的输入的某一子集来估计该层的输出,那么输入中的其他通道就可以被去掉,而第 层的输入来源于第 层的输出,那么对应第 层的卷积核就可以去掉。 Pruning: 同时去掉第 层输入的weak channel,和与其对应的第 层的卷积核,网络结构不变,只是变瘦了。 Finetuning: 当对每一层做prune后,都fine-tune1到2个epoch,然后等所有层都prune后,再fine-tune多个epoch。 因此整体上就是上述三步迭代应用到每一层上,依次对每一层做prune。 Data-drive channel election: 将一个卷积操作定义为: , 表示输入特征图,维度为 , 表示卷积核,维度为 目标是移除一些不太重要的卷积核 ,而由于第 层的卷积核数量没变,因此第 层的输出的维度是不变的,意即第 层的输入 不变,根据这样的想法,就可以移除第 层中对 影响很小的那些卷积核,这样对整个网络的性能影响也很小。换句话说,就是最小化 的重构损失。 Collecting training examples 从 上任意取一位置分量 ,有: 意即可以寻找一个子集 ,使得: 贪心算法:给定输入 ,优化: m是图像数量和位置数量的乘积。 由于 包含channel较多,因此求解速度会很慢,因此定义另一个集合 ,集合 所包含的channel要少于 ,满足: 则优化下式: 对于ResNet这样的网络,在每一个stage的每一个block中一般有三层卷积,其中最后一层卷积的结果需要和skip connection的结果做element-wise product,这样的话就得保证该block的最后一层卷积的输出channel个数和skip connection的输出channel个数一样。因此在文中采用只对一个block的前两层卷积做prune,而不动最后一个卷积层,如下图Figure3。另外对于VGG-16网络,由于前面10层卷积占据了90%的计算量,而全连接层又占据了86%的参数,因此作者采用对前面10层卷积层进行prune,达到加速目的,另外将所有全连接层用一个global average pooling层代替。Regression based Feature Reconstruction Channel Pruning for Accelerating Very Deep Neural Networks 对于一个训练好的模型,本文方法通过一个2步迭代的算法逐层裁枝,优化函数是LASSO回归和最小二乘法重建误差。 与ThiNet类似,本文不去考虑单个参数的重要性,而是直接最小化输出特征图的重建误差,逐层地做裁枝,为了降低特征图B的通道,通过最小化特征图C的重构误差得到。 第一步是选择通道,第二步是特征图重建,目的是最小化重建误差,本文提出两步迭代的算法:首先选取最具代表性的通道,即裁剪B层到C层的卷积;其次重建特征图,调整B层到C层的参数W,使C层特征图重建误差最小。迭代交替进行以上两步。通过基于LASSO回归的方法来找到最具代表性的通道。 假设特征图B到特征图C的卷积表示为 ,特征图B ,特征图C , 表示batch_size,将特征图B的通道由 降为 表示非零项数, 是向量 的分量,为0就表示对应通道被去掉, , 都表示单通道的特征图/卷积核。但由于上式中的约束条件是0-范数,属于 优化问题,求解为NP难问题,因此进一步将0-范数放宽到1-范数,得优化函数为: 选择通道: 固定参数 不变,求解 ,则上述优化问题可以进一步转化为LASSO回归问题: ,上式可以通过SGD方法找到最优解,是比较常见的优化问题。 重构特征图: 固定 不变,上式可以转化为最小二乘估计问题: 最小二乘估计问题同样为常见的优化问题,也可以利用SGD的方法得到最优解,最后做出调整,保证范数为1: 对多分支网络进行剪枝: 在裁剪第一个卷积时,并不删掉其输入特征图的通道,而是新加一层采样层(其用处就是对输入特征图按 来进行采样,同时保留了原本的输入特征图作为shortcut的输入),对于残差块的第一个卷积层的输入进行通道采样,估计 的重构误差。 Automatic Structured Pruning Network Slimming 利用batch normalization中的缩放因子 作为重要性因子,即 越小,所对应的channel就不太重要,就可以裁剪(pruning) 对BN层中的scale factor 进行L1正则化,使其变得稀疏。BN:直接用 来评估channel的重要程度。 的数越小,说明该channel的信息越不重要,也就可以删减掉该Channel。 为什么不用 作为重要性因子? feature map的信息量是来源于方差而非均值。方差越大则该feature map内的特征就越明显。 服从分布 ,因此方差越小,信息量就越少,就越不重要 某些通道特征图的方差越小,意即对下一层特征图的所有单元的贡献值越平均,将其去掉,仅仅只是做了特征评议,不影响相对差异 因此对BN的缩放因子添加smooth L1正则化(不是Fast R-CNN中的smooth L1 Loss),损失函数定义为:训练方法为: 第一步:初始化网络; 第二步:加入Channel稀疏惩罚项,训练网络; 第三步:通过固定阈值来删减channel,如删减70%的channel; 第四步:Fine-tune。由于删减channel后精度会下降,故再训练去微调网络; 第五步:可以再跳到第二步,实现多次精简网络; 第六步:得到精简后的网络。

174 评论

春天里的秋天88

[最佳答案]简单的说:张量概念是矢量概念和矩阵概念的推广,标量是零阶张量,矢量是一阶张量,矩阵(方阵)是二...

97 评论

相关问答

  • 数理化解题研究论文质量

    好用的。里面信息还是比较全面的。期刊也叫杂志,是定期或不定期的连续出版的成册刊物,如周刊、旬刊、半月刊、月刊、季刊、半年刊、年刊等。有固定名称,按卷、期或按年月

    范范20130108 5人参与回答 2023-12-08
  • 论文答辩100张图解

    我的毕业论文答辩ppt模板种类多,不仅仅只是针对本科生,大专,研究生都可以用,希望给你帮助, 毕业论文答辩模板 链接: 提取码:gab2

    点評狂魔 10人参与回答 2023-12-12
  • 不定积分解题研究论文

    微积分的基本思想及其在经济学中的应用 摘要: 微积分局部求近似、极限求精确的基本思想贯穿于整个微积分学体系中,而微积分在各个领域中又有广泛的应用,随着市场经济的

    雨樱花ran 5人参与回答 2023-12-09
  • 张量分解研究生论文

    在数学中,张量积(tensor product) ,可以应用于不同的上下文中如向量、矩阵、张量、向量空间、代数、拓扑向量空间和模。在各种情况下这个符号的意义是同

    无锡一号 4人参与回答 2023-12-10
  • 解决论文答辩紧张

    当然是做好答辩前的充足准备了,准备演讲稿提前顺一遍论文或者答辩ppt,你就会对自己的论文有了更深刻的认识。另外,提前准备好答辩委员会会问到的一些问题,提前做好回

    小胡子阿志 7人参与回答 2023-12-09