d1329256550
他是个狂热的足球爱好者,“足王杯”是全校一年一度的足球盛会,作为班级的主力队员他和伙伴们一同订购球衣,一同拼命训练。在高二时,他和队员们成功赢得了“足王杯”冠军。 他叫乔明达,毕业于南京外国语学校。 外公是清华56级机械制造系学生,很小就对水木清华充满了向往 2014年被顺利保送清华姚班,立志要做“有中国灵魂、世界胸怀的现代人”。 希望他能在清华这个更大的平台上明确新的目标,继续自己前进的脚步。优秀是习惯,梦想是力量。——乔明达父母 在南外期间,他先后获得 2011年亚太地区信息学奥林匹克竞赛金牌 2012年全国高中数学联赛一等奖 2012年全国信息学奥林匹克竞赛金牌 2013年国际信息学竞赛金牌(全球第二名) 2013年“百度之星”程序设计大赛总决赛第一名 南京外国语学校“周恩来特等奖学金” 他从小学五年级就开启了计算机竞赛之路。 看见同学用计算机编程来画图和制作动画出于好奇就报名参加了信息学的培训班。 一年后在全省小学生编程竞赛中获得第一名, 从此,他对信息学竞赛兴趣大增。 他的竞赛之路并非一帆风顺,在初二和初三时,他两次止步省队选拔的最后一轮,未能代表江苏省参加全国比赛,这留下了遗憾,更激发了他的斗志。 进入高中之后,每天完成课内学业后,他都刻苦训练,他几乎放弃了所有节假日,全力投入 ,大年三十,他都独自在书房调试程序。为了参加国外网站的在线编程比赛,他经常半夜爬起来用冷水洗脸,独自鏖战。终于,努力有了回报, 他进省队,拿全国金牌,又进国集,被保送清华,再进国队,拿国际金牌。 乔明达从小将清华视为自己的目标,并为之奋斗了十多年。在通往清华园的路上,有成功,有失败,有收获国际奥赛金牌的喜悦,也有止步于江苏省队选拔的酸楚。但是,唯一不曾改变的是他心中的梦想、信念,没有停止的是他对目标的追求。——清华大学 在清华期间,他先后获得“清华大学新生奖学金”,“清华学堂奖学金”,“国家奖学金”,“唐立新奖学金”,“高通奖学金”,“百度奖学金”。 2015年获国际大学生程序设计全球总决赛金牌, 2017年获“清华大学本科生特等奖学金”15000元”。 他曾被公派赴牛津大学、悉尼 科技 大学、卡内基梅隆大学、斯坦福大学参与机器学习理论的研究。 卡内基梅隆大学教授,斯隆奖得主Ariel Procaccia,曾这样评价乔明达 “Mingda is absolutely phenomenal, I believe he will be one of the top5 CS PhD applicants worldwide this year . ” 作为主要完成人,他曾在在国际会议上发表学术论文五篇,有两篇发表于国际机器学习顶级会议COLT17,他的研究给出了接近最优的上下界,中国科学院院士,清华大学交叉信息研究院院长姚期智院士表示, 中国在2030年实现世界人工智能创新中心目标,首先需要解决人工智能发展缺少理论的问题,乔明达正是姚班研究人工智能理论的翘楚。 这段经历让我发现,人工智能等方向上仍然存在着大量亟待解决的理论难题。这让我更加坚定了自己的理想:用自己的研究,增进人类对人工智能等重要领域的理解,并在未来推动世界的改变。——乔明达 从一名优秀的信息学竞赛选手,到一位优秀的理论计算机科学研究者。乔明达在这一路上取得了优异成就, 立足于自己扎实的竞赛基础,也得益于自己从竞赛经历中获得的宝贵品格, 他遇到挫折时不屈不挠,砥砺前行。 信息学竞赛不同于课内学习,也与其它学科竞赛有所不同,缺少全面、权威的教材,竞赛所需知识也是日新月异,需要借助网络查阅论文和资料,需要请教全国各地的竞赛高手。 通过参加竞赛,可锻炼受益终身的学习能力,可结识志同道合的各地朋友,通过解决问题,可养成科学理性的思维习惯,可发现面向未来的专业兴趣。 乔明达认为,这些都是竞赛带给自己的宝贵财富,让自己受用终生。
快乐糖糖K
大名鼎鼎的DenseNet,17年CVPR的best paper(当然有争议是后话),不得不读。黄高博士的扛鼎之作,之前在读他的Snapshot-Ensembles时感觉就很舒服,整个文章逻辑很清楚,实验对比做的也十分全面,相信这篇best paper更是没有问题,会给读者一种爽的感觉。
2852次。绝对值很高,但相比其他经典网络,ResNet,GoogLeNet之类,有些差距。
本篇在16年8月挂到arXiv上,中了2017年CVPR,是继16年何大神的ResNet之后,第二个华人的best paper, 这里 有个作者本尊的talk,现场讲解。一作Gao Huang(黄高)05年北航的本科生(GPA第一),15年清华博士毕业(读了6年。。),后来在康奈尔待了3年做博后,此刻在清华作青椒,本篇是在康奈尔时的工作。二作刘壮(同等贡献)也是碉堡,现在在伯克利做博士生,之前是清华姚班的(13级),发这篇文章时还在清华,也就是说 本科生 。。。最近以一作的身份新发了一篇《Rethinking the Value of Network Pruning》,中了19年的ICLR,同时也是18年NIPS的best paper award。。这个世界太疯狂了,这都不是潜力股了,而是才华横溢溢的不行了。
官方实现在这里:
黄高个人主页在这里:
刘壮个人主页在这里:
先前的研究中说明只要网络包含短路连接,基本上就能更深,更准确,更有效的训练。本文基于这个观察,引入了密集卷积网络(DenseNet),它以前馈方式将每个层连接到所有层。传统的卷积网络L层有L个连接,而DenseNet有 个直接连接。对于每一层,它前面所有层的特征图都当作输入,而其本身的特征图作为所有后面层的输入(短路连接被发挥到极致,网络中每两层都相连)。DenseNet具有几个引入注目的优点: 可以缓解梯度消失问题,加强特征传播,鼓励特征重用,并大幅减少参数数量。
随着CNN变得越来越深,一个新的研究问题出现了:随着输入信息或梯度通过多层,它在到达网络结尾(或开始)处就消失了。ResNets和Highway Networks通过恒等连接将信号从一层传输到下一层。Stochastic depth通过在训练期间随机丢弃层来缩短ResNets,以得到更好的信息和梯度流。FractalNets重复组合几个并行层序列和不同数量的卷积块,以获得较深的标准深度,同时在网络中保持许多短路径。尽管上述方法的网络结构都有所不同,但它们有一个共同特征:创建从早期层到后期层的短路径。
本文提出一个简单的连接模式:为了确保网络中各层之间的最大信息流, 将所有层(匹配特征图大小)直接相互连接 。为了保持前向传播性质,每个层从所有前面的层获得附加输入,并将其自身特征图传递给所有后续层。
至关重要的是,与ResNets相比,在传递给下一层之前, 不是通过求和来合并特征,而是通过concat来合并特征 。因此, 层有 个输入,包括所有先前卷积块的特征图。其特征图被传递到后续所有 层。这在L层网络中引入了 个连接,而不是传统架构的L个连接。正是因为这种密集连接模式,所以称本文方法为密集连接网络( Dense Convolutional Network DenseNet)。
相比传统卷积网络,这种密集连接模式有有一点可能违反直觉的是,它需要更少的参数,因为无需重新学习冗余的特征图。本文提出的DenseNet架构显式区分了添加到网络的信息和保留的信息。DenseNet的层非常窄(如每层只有12个滤波器),只给网络的"集体知识"增加一小组特征图,并保持其余的特征图不变。
除了更好的参数利用率之外,DenseNet的一大优势是它改善了整个网络中的信息流和梯度,使得网络更易于训练。每层都可以直接访问损失函数和原始输入信号的梯度( 我屮,这不就是GoogLeNet当时为解决梯度消失而在中间层引入分类器那种ugly办法的替代吗 ),从而导致隐式的深度监督。这有助于训练更深的网络。
与DenseNet相似的级联结构早在1989年就提出来了。。Adanet的提出差不多是与DenseNet并行的,跨层连接也相似(话说竞争真激烈。。)
本文作者提出的另一个网络Stochastic depth说明并非所有层都需要,在深度残差网络中存在大量冗余的层。本文的部分灵感也来源于此。
相比从极深或极宽的架构中提取表示能力,DenseNet是通过 特征重用 来利用网络的潜力,得到易于训练和高参数效率的压缩模型。相比从不同层拼接特征的Inception网络,DenseNet更简单有效(看来Inception因其结构复杂性没少被批判)。
定义 为单张输入图像,网络由 层组成,每一层实现非线性变换 ,其中 为层的索引号。 可以是BN,ReLU,Pooling,Conv等操作的复合函数,定义 层的输出为 。
传统的层连接: 。ResNets增加了跳跃连接: 。ResNets的一个优势是梯度可以通过恒等函数直接从后面的层流向前面的层。然而,恒等函数和 的输出通过加法合并,有可能会阻碍网络的信息流。
本文引入与ResNets不同的连接模式:从任意层到所有后续层的直接连接(图1)。结果就是,第 层接收所有之前层的特征图作为输入: 。为了便于实现,concat 的多个输入为单一张量。
受ResNet v2启发,定义 为三个连续运算的复合函数:BN,ReLU,3 x 3 Conv
当特征图的大小改变时,concat运算是不可能的,然鹅,卷积网络的一个关键组成部分就是下采样层,通过它可以改变特征图大小。为了便于在架构中进行下采样,将网络划分为多个密集连接的密集块(dense blocks),如图2所示。
将密集块之间的层称为过渡层(transition layers),它们进行卷积和池化。本文实验中的过渡层由BN,1 x 1卷积和 2 x 2平均池化组成。
如果每个函数 生成 个特征图,它后面跟着的 层有 个输入特征图,其中 是输入层的通道数。DenseNet和现有网络架构的一个重要区别是DenseNet可以有非常窄的层,如 。本文将超参数 定义为网络的成长率(growth rate)。对此的一种解释是,每一层都可以访问其块中所有前面的特征图,即,网络的『集体知识』。可以将特征图视为网络的全局状态。每一层增加自己的 个特征图到这个状态。成长率反映了每层由多少新信息对全局状态有贡献。全局状态一旦写入,就可以被网络中的任何地方访问,而不像传统网络那样,无需从一层复制到另一层。(全文精华应该就是这一段了)
1x1 conv非常有用(提升计算效率),本文也大用特用。本文定义DenseNet-B的 为 BN-ReLU-Conv(1x1)-BN-ReLU-Conv(3x3)
为了使模型更紧凑,可以减少过渡层的特征图数量。如果密集块包含 个特征图,定义接下来的过渡层生成 个特征图,其中 表示压缩率。定义 的DenseNet为DenseNet-C,本位实验中设置为 。当同时使用瓶颈层和压缩过渡层时,定义模型为DenseNet-BC。
非ImageNet数据集采用同一个架构,由3个密集块构成。ImageNet的架构如表1所示
CIFAR SVHN ImageNet
所有网络都用SGD。
CIFAR和SVHN的batch size为64,epoch分别为300和40,初始学习率为,在50%和75%的epoch时分别除10。
ImageNet的batch size为256,90个epoch,初始学习率为,在30和60epoch时分别除10。
weight decay为 ,动量为。用He初始化。
对于CIFAR和SVHN,还在每个卷积层后接了dropout层(除第一个卷积层外),丢失率为。
看表2的最后一行
DenseNet可以利用更大更深模型表示能力的增长。
如图4所示
主要用DenseNet-BC和ResNet作比较。
表面上看,DenseNets和ResNets没什么不同,两个式子的差别仅仅是输入从加法变为concat,然而,这种看似很小的修改导致两种网络架构的行为明显不同。
因为鼓励特征重用,所以得到更紧凑的模型。
如图4所示。
对DenseNets准确率提升的一种解释是各个层通过短路连接从损失函数接收额外的监督(某种深度监督)。DenseNets用隐式的方式执行相似的深度监督:网络顶部的单个分类器通过最多两到三个过渡层为所有层提供直接监督。 然而,由于在所有层之间共享相同的损失函数,因此DenseNets的损失函数和梯度基本上不那么复杂。
和随机深度的对比,随机深度有点类似DenseNet:如果所有中间层都随机丢弃,那么在相同的池化层之间的任意两层都有可能直接连接。
DenseNet就是好,就是好啊就是好。在遵循简单的连接规则的同时,DenseNets自然地整合了恒等映射,深度监督和多样化深度的属性。
又是一篇没有什么数学公式的paper,越来越感觉深度学习像物理,很多结果都是基于做实验得到的。通过对实验的观察对比分析,找出实验中的缺陷不足,从而去改进,然后发paper。黄高博士的写作套路还是非常讨喜的,特别是开头的地方,娓娓道来,一步一步告诉你为什么要这么做,为什么要引入这一步。此外,DenseNets和作者本人的工作『随机深度』也有千丝万缕的关系,看来功夫做扎实了,沿着一条道路是可以出一系列成果的。
这是个好问题。。是要进一步衍生ResNet吗?
提出密集连接结构,将ResNet的跳跃连接发扬光大为两两连接
效果比ResNet还好,通过减少滤波器个数(文中称作成长率),参数量也下来了
感觉效果提升并没有那么明显,被后续出来的ResNeXt超过了
各种网络结构的实现:
黄高本人视频讲解:
作者本人的解答: CVPR 2017最佳论文作者解读:DenseNet 的“what”、“why”和“how”
DenseNet的3个优势:
从古至今,哲学家一直是个神奇的物种。无论是古希腊的苏格拉底、中世纪的奥古斯丁、近代的康德,还是现代的尼采,身上都有着鲜明个性,常能做出惊世骇俗之事。你留意观察一
你是指获取论文全文吗?
清华大学博士毕业要求:1、拥护中国共产党的领导,具有正确的政治方向,热爱祖国,愿意为社会主义现代化建设服务,遵纪守法,品行端正。2、硕士研究生毕业或已获硕士学位
博士毕业论文参考文献格式 在书写论文的时候,大家知道参考文献怎么书写吗?以下是我精心准备的博士毕业论文参考文献格式,大家可以参考以下内容哦! 论文参考文献的格式
中国知网,可以查询各个学校的毕业论文(不含本科),但是更新比较慢,近几年的可能没有。清华大学图书馆,网站上会有论文资料,但是不能下载,要根据提供的论文编号去图书