• 回答数

    4

  • 浏览数

    283

晴空,朗照
首页 > 论文发表 > lecun1998年发表的论文

4个回答 默认排序
  • 默认排序
  • 按时间排序

北京美克

已采纳

keras一般默认的是glorot_uniform初始化,不同的层可能有不同的初始化方法,keras手册里边没有提到,但是可以查看源码。举个例子,对于Dense layer:

源码的链接:网页链接

129 评论

上海二当家

简介 :如果是对Computer Vision有所了解的同学应该都不会对LeNet-5陌生,这篇由LeCun和Bengio在1998年(我竟然还没出生)撰写的论文着实牛掰。实际上LeNet-5的诞生还要早(大约是1994年)。LeNet-5基本上为CNN在2012年以后的爆发奠定了基调。当然除了LeNet-5还有LeNet-1、LeNet-4等网络结构,在原始论文中也作为比较提到。

背景 :当初LeNet-5的设计主要是为了解决手写识别问题。那时传统的识别方案很多特征都是hand-crafted,识别的准确率很大程度上受制于所设计的特征,而且最大的问题在于手动设计特征对领域性先验知识的要求很高还耗时耗力,更别谈什么泛化能力,基本上只能针对特定领域。

稍微有一点computer vision经验的人都不会对下面这张图陌生,这张图是LeCun在原始论文中po的一张结构图,很直观能get到LeNet-5的结构。但是原始论文的操作手法和现在的大多数人的implementation稍微不同,这里针对每一层做一个阐释。

原论文中的损失函数采用MSE,并添加了一个惩罚项(后文查看 为什么要添加惩罚项 ),计算公式为: 右边这个对数部分就是惩罚项,且小于等于左边。但实际上现在很多对于LeNet-5的实现是没有这一部分的,因为效果不明显。

关于标准化和归一化,网上有的博客是混用的,这个我都接受,毕竟英文翻译都是normalization,但是有人怎么会把正则化和这两个搞混???正则化完全不同,英文是regularization,这里按下不表。个人认为归一化和标准化只是方法上的区别,这两者都是数据缩放的方法,本质都是一种 线性变换 ,但是标准化特指将数据缩放为均值为0,方差为1的区间(z-score normalization/Standardization)。而归一化有Rescaling、Mean normalization、Scaling to unit length三种不同的选择,方法不同,目的一致。但是这两者还是稍有差别,具体表现在归一化的方法直接是根据极值进行缩放到 ,易受极值影响。而标准化是根据方差进行数据缩放平移,数据范围可能是 ,也就是会考虑数据分布特征,更适合对于噪声和异常值的处理。

但……我还是没说normalization到底有什么用? 这里祭出Andrew Ng的图:

所以总结一下normalization作用就是更容易 正确收敛 !

这里这个权重和偏置很有意思,大多数初学者可能都没有考虑过,你细品,这 难道不就是初中的 ???套了件马甲就不认识了?一次函数在高等数学里应该是一条直线,能够用直线区分的两个类别被称为线性可分,但是有这么一个问题,如果非要用线性去解决线性不可分问题呢???

这里就是为什么要用w作为权重,w是决定那个分离超平面的方向所在。b就是对该平面的移动,如果没有b,所有的分离超平面都过原点。

对于输入图像(或者特征图)大小为input_size,给定kernel_size、padding、stride,计算得出output_size为: 该公式既适用于卷积过程,也适用于池化过程。

根据Occam's Razor原理: 如无必要,勿增实体 。在机器学习过程中,我们希望训练得到的是泛化能力强的模型,然鹅生活中越简洁、抽象的对象越容易描述,越具体、复杂、明显就越不容易描述区分,描述区分的泛化能力就越不好。问题来了:如何控制这个复杂度?通常的做法是在损失函数后面加上一个正则惩罚项: 没有加上正则项的部分叫做 经验风险 ,加上正则项的损失函数叫做 结构风险 ,结构风险多的 这一部分叫做penalty(惩罚项),惩罚项常用的是 或者 范数。惩罚项的意思就是通过计算权重绝对值的均值加上一个权重因子 作为重视程度,也叫做惩罚系数。

结构风险通过通过惩罚项控制模型复杂程度,降低过拟合并提高泛化能力。

由于笔者本身能力有限,文章内容和文字可能出现一些错误,欢迎各位批评指正,共同讨论,共同学习。

239 评论

summaryzhen

小西:小迪小迪,我发现人工智能发展史上很多事情都跟下棋有关呐。 小迪:是啊,人工智能发展史还是要从下棋说起,棋类游戏很多时候都被人类看做高智商游戏,在棋类游戏中让机器与人类博弈自然再好不过了。早在1769年,匈牙利作家兼发明家Wolfgang von Kempelen就建造了机器人TheTurk,用于与国际象棋高手博弈,但是最终被揭穿,原来是机器人的箱子里藏着一个人。虽然这是个,但是也体现了棋类游戏是人机博弈中的焦点。 小西:哇,这么早啊! 小迪:是啊,在1968年上映的电影《2001太空漫游》里,有个情节是机器人HAL与人类Frank下国际象棋,最终人类在机器人面前甘拜下风。 小西:哈哈,看来很早人们就觉得有一天,机器人会在下棋方面超过人类哦。 小迪:是啊,直到1997年,IBM的深蓝智能系统战胜了国际象棋世界冠军Kasparov,这是一次正式意义上的机器在国际象棋领域战胜了人类。不过,当时时代杂志发表的文章还认为,计算机想要在围棋上战胜人类,需要再过上一百年甚至更长的时间。因为围棋相比于国际象棋复杂很多,而IBM的深蓝也只是一个暴力求解的系统,当时的计算机能力在围棋千千万万种变化情况下取胜是不可能的。 小西:后来我知道。没有过100年,20年后AlphaGo在20年后的2016年打败了围棋高手李世石,这下人工智能引起了全世界的关注。 小迪:恭喜你,学会抢答了! 小西:哈哈,过奖过奖。除了下棋,人工智能发展史上有没有什么特别著名的事件或者有名的大师呢,快给我科普科普呀! 小迪:那可就太多了啊,无数科学家默默地耕耘才有了今天智能化的社会,三天三夜都说不完。我就说说近些年火爆的深度学习的发展史吧。 小西:好,洗耳恭听呢! 感知器的发明 1943年Warren McCulloch和Walter Pitts一起提出计算模型,在1957年康奈尔大学的Frank Rosenblatt提出了感知器的概念,这是整个深度学习的开端,感知器是第一个具有自组织自学习能力的数学模型。Rosenblatt乐观地预测感知器最终可以学习,做决定和翻译语言。感知器技术在六十年代非常火热,受到了美国海军的资金支持,希望它以后能够像人一样活动,并且有自我意识。 第一次低潮 Rosenblatt有一个高中校友叫做Minsky,在60年代,两人在感知器的问题上吵得不可开交。R认为感知器将无所不能,M觉得感知器存在很大的缺陷,应用有限。1969年,Minsky出版了新书《感知器:计算几何简介》,这本书中描述了感知器的两个重要问题: 单层神经网络不能解决不可线性分割的问题,典型例子:异或门;当时的电脑完全没有能力承受神经网络的超大规模计算。 随后的十多年,人工智能转入第一次低潮,而Rosenblatt也在他43生日时,因海事丧生,遗憾未能见到神经网络后期的复兴。 Geoffrey Hinton与神经网络 1970年,此时的神经网络正处于第一次低潮期,爱丁堡大学的心理学学士Geoffrey Hinton刚刚毕业。他一直对脑科学非常着迷,同学告诉他,大脑对事物和概念的记忆,不是存储在某个单一的地方,而是分布式的存在一个巨大的神经网络中。分布式表征让Hinton感悟很多,随后的多年里他一直从事神经网络方面的研究,在爱丁堡继续攻读博士学位的他把人工智能作为自己的研究领域。 Rumelhart与BP算法 传统的神经网络拥有巨大的计算量,上世纪的计算机计算能力尚未能满足神经网络的训练。1986年7月,Hinton和David Rumelhart合作在Nature杂志上发表论文系统地阐述了BP算法: 反向传播算法(BP)把纠错运算量下降到只和神经元数目有关;BP算法在神经网络中加入隐层,能够解决非线性问题。 BP算法的效率相比传统神经网络大大提高,计算机的算力在上世纪后期也大幅提高,神经网络开始复苏,引领人工智能走向第二次辉煌。 Yann Lecun与卷积神经网络 1960年Yann Lecun在巴黎出身,在法国获得博士学位后,追随Hinton做了一年博士后,随后加入贝尔实验室。在1989年,Lecun发表论文提出卷积神经网络,并且结合反向传播算法应用在手写邮政编码上,取得了非常好的效果,识别率高达95%。基于这项技术的支票识别系统在90年代占据了美国接近20%的市场。 但也是在贝尔实验室,Yann Lecun的同事Vladmir Vapnik的研究又把神经网络的研究带入了第二个寒冬。 Hinton与深度学习 2003年,Geoffrey Hinton在多伦多大学苦苦钻研着神经网络。在与加拿大先进研究院(CIFAR)的负责人Melvin Silverman交谈后,负责人决定支持Hinton团队十年来进行神经网络的研究。在拿到资助后,Hinton做的第一件事就是把神经网络改名为深度学习。此后的一段时间里,同事经常会听到Hinton在办公室大叫:“我知道神经网络是如何工作的了!” DBN与RBN 2006年Hinton与合作者发表论文——《A Fast Algorithm for Deep BeliefNet》(DBN)。这篇文章中的算法借用了统计力学中“波尔兹曼分布”的概念,使用了所谓的“受限玻尔兹曼机”,也就是RBN来学习。而DBN也就是几层RBN叠加在一起。RBN可以从输入数据进行预训练,自己发现重要的特征,对神经网络的权重进行有效的初始化。这里就出现了另外两个技术——特征提取器与自动编码器。经过MNIST数据集的训练后,识别错误率最低降到了只有1.25%。 吴恩达与GPU 2007年,英伟达推出cuda的GPU软件接口,GPU编程得以极大发展。2009年6月,斯坦福大学的Rajat Raina和吴恩达合作发表文章,论文采用DBNs模型和稀疏编码,模型参数高达一亿,使用GPU运行速度训练模型,相比传统双核CPU最快时相差70倍,把本来需要几周训练的时间降到了一天。算力的进步再次加速了人工智能的快速发展。 黄仁勋与GPU 黄仁勋也是一名华人,1963年出生于台湾,在1993年于斯坦福毕业后创立了英伟达公司,英伟达起家时主要做图像处理芯片,后来黄仁勋发明GPU这个词。相比于CPU架构,GPU善于大批量数据并行处理。而神经网络的计算工作,本质上就是大量的矩阵计算的操作,GPU的发展为深度学习奠定了算力的基础。 李飞飞与ImageNet 深度学习的三大基础——算法,算力和数据。上面提到的主要是算法与算力的发展,而数据集在深度学习发展也起到了至关重要的作用。又是一位华人学者——李飞飞,于2009年建立ImageNet数据集,以供计算机视觉工作者使用,数据集建立的时候,包含320个图像。2010年,ILSVRC2010第一次举办,这是以ImageNet为基础的大型图像识别大赛,比赛也推动了图像识别技术的飞速发展。2012年的比赛,神经网络第一次在图像识别领域击败其他技术,人工智能步入深度学习时代,这也是一个历史性的转折点。 Yoshua Bengio与RELU 2011年,加拿大学者Xavier Glorot与Yoshua Bengio联合发表文章,在算法中提出一种激活函数——RELU,也被称为修正线性单元,不仅识别错误率普遍降低,而且其有效性对于神经网络是否预训练过并不敏感。而且在计算力方面得到提升,也不存在传统激活函数的梯度消失问题。 Schmidhuber与LSTM 其实早在1997年,瑞士Lugano大学的Suhmidhuber和他的学生合作,提出了长短期记忆模型(LSTM)。LSTM背后要解决的问题就是如何将有效的信息,在多层循环神经网络传递之后,仍能传送到需要的地方去。LSTM模块,是通过内在参数的设定,决定某个输入参数在很久之后是否还值得记住,何时取出使用,何时废弃不用。 后记 小迪:其实还有好多有突出贡献的的大师,要是都列出来可以出一本很厚很厚的书啦! 小西:这些大师都好厉害呀,为了我们的智能化生活体验,辛勤付出了一辈子。 小迪:是啊,还有很多学者默默无闻地工作,一生清苦。 小西:他们都好伟大,有突出贡献的都应该发奖发奖金,对对对,诺贝尔奖! 小迪:哈哈。诺贝尔奖多数是为基础学科设立的。不过计算机界也有“诺贝尔奖”——图灵奖,这可是计算机界最高奖项哦!2019年3月27日,ACM宣布,Geoffrey Hinton,Yann LeCun ,和Yoshua Bengio共同获得了2018年的图灵奖。 小西:太棒了,实至名归! 小迪:当然,图灵奖在此之前也授予了很多在人工智能领域的大牛,像Minsky,John McCarthy这些,还有华人科学家,现在在清华大学任职从事人工智能教育的姚期智先生在2000也获得过图灵奖呢! 小西:大师们太不容易了,我们也要好好学习呀! 小迪:是呀!如今我们站在巨人的肩膀上,许多人都可以接触到深度学习,机器学习的内容,不管是工业界还是学术界,人工智能都是一片火热! 小西:希望这一轮人工智能的兴起不会有低潮,一直蓬勃发展下去,更好地造福人类。 小迪:嗯!

177 评论

aibeibei130611

model.add(Dense(64, init='uniform')) uniform:均匀分布lecun_uniform:是在LeCun在98年发表的论文中基于uniform的一种方法。区别就是lecun_uniform的scale=sqrt(3/f_in)。f_in就是待初始化权值矩阵的行。Normal:正态分布(高斯分布)。Identity :用于2维方阵,返回一个单位阵Orthogonal:用于2维方阵,返回一个正交矩阵。Zero:产生一个全0矩阵。glorot_normal:基于normal分布,normal的默认 sigma^2=scale=0.05,而此处sigma^2=scale=sqrt(2 / (f_in+ f_out)),其中,f_in和f_out是待初始化矩阵的行和列。glorot_uniform:基于uniform分布,uniform的默认scale=0.05,而此处scale=sqrt( 6 / (f_in +f_out)) ,其中,f_in和f_out是待初始化矩阵的行和列。he_normal:基于normal分布,normal的默认 scale=0.05,而此处scale=sqrt(2 / f_in),其中,f_in是待初始化矩阵的行。he_uniform:基于uniform分布,uniform的默认scale=0.05,而此处scale=sqrt( 6 / f_in),其中,f_in待初始化矩阵的行。

202 评论

相关问答

  • 论文的发表年

    如今评职称,基本中高级职称都需要发表职称论文,下面是我整理的评职称论文发表时间,给大家参考。 【一】职称论文发表时间 一、职称论文发表期限长短不一,或者说有效期

    zhizhuo1986052 4人参与回答 2023-12-07
  • lecun1998年发表的论文

    keras一般默认的是glorot_uniform初始化,不同的层可能有不同的初始化方法,keras手册里边没有提到,但是可以查看源码。举个例子,对于Dense

    晴空,朗照 4人参与回答 2023-12-10
  • 17年发表的论文今年查重

    出现这个问题的原因有以下几种可能:第一种是自写部分的论文论据与其他已发表的文章中观点有相似部分,假设你的相似观点文献已发表到互联网或者已经被我们资源库收录,系统

    hanzhe2013 4人参与回答 2023-12-11
  • 年发表的论文

    爱因斯坦在1905年发表了四篇论文。 分别为:《关于光的产生和转化的一个启发性观点》、《根据分子运动论研究静止液体中悬浮微粒的运动》、《论运动物体的电动力学》、

    绝代双椒 4人参与回答 2023-12-12
  • 敬告青年哪一年发表的论文

    《敬告青年》创办于,1915年9月15日。 《敬告青年》一文是陈独秀发动新文化运动的宣言书,贯穿于六项标准中的一条红线是科学与民主。科学与民主是检验一切政治、

    一人一兀 3人参与回答 2023-12-06