费良宏:程序员为什么要学深度学习?深度学习本身是一个非常庞大的知识体系。本文更多想从程序员的视角出发,让大家观察一下深度学习对程序员意味着什么,以及我们如何利用这样一个高速发展的学科,来帮助程序员提升软件开发的能力。本文根据费良宏在2016QCon全球软件开发大会(上海)上的演讲整理而成。前言1973年,美国上映了一部热门的科幻电影《WestWorld》,三年之后又有一个续集叫做《FutureWorld》。这部电影在80年代初被引进到中国叫《未来世界》。那部电影对我来讲简直可以说得上是震撼。影片中出现了很多机器人,表情丰富的面部下面都是集成电路板。这让那时候的我觉得未来世界都是那么遥远、那么神秘。时间到了2016年,很多朋友可能都在追看HBO斥巨资拍摄的同一题材的系列剧《WestWorld》。如果前两部电影还是局限在机器人、人工智能这样的话题,2016年的新剧则在剧情和人工智能的思考方面有了很大的突破。不再渲染机器人是否会威胁到人类,而是在探讨“Dreamsaremainlymemories”这一类更具哲理的问题。“记忆究竟如何影响了智能”这个话题非常值得我们去思考,也给我们一个很好的启示——今天,人工智能领域究竟有了怎样的发展和进步。今天我们探讨的话题不仅仅是简单的人工智能。如果大家对深度学习感兴趣,我相信各位一定会在搜索引擎上搜索过类似相关的关键字。我在Google上以deeplearning作为关键字得到了2,630万个搜索的结果。这个数字比一周之前足足多出了300多万的结果。这个数字足以看得出来深度学习相关的内容发展的速度,人们对深度学习的关注也越来越高。从另外的一个角度,我想让大家看看深度学习在市场上究竟有多么热门。从2011年到现在一共有140多家专注人工智能、深度学习相关的创业公司被收购。仅仅在2016年这种并购就发生了40多起。其中最疯狂的是就是Google,已经收购了 11 家人工智能创业公司,其中最有名的就是击败了李世石九段的 DeepMind。排名之后的就要数 Apple、Intel以及Twitter。以Intel 公司为例,仅在今年就已经收购了 3 家创业公司,Itseez、Nervana 和 Movidius。这一系列大手笔的并购为了布局人工智能以及深度学习的领域。当我们去搜索深度学习话题的时候,经常会看到这样的一些晦涩难懂的术语:Gradient descent(梯度下降算法)、Backpropagation(反向传播算法)、Convolutional Neural Network(卷积神经网络)、受限玻耳兹曼机(Restricted Boltzmann Machine)等。如打开任何一篇技术文章,你看到的通篇都是各种数学公式。大家看到如下左边的图,其实并不是一篇高水准的学术论文,而仅仅是维基百科关于玻耳兹曼机的介绍。维基百科是科普层面的内容,内容复杂程度就超过了大多数数学知识的能力。在这样的背景之下,我今天的的话题可以归纳成三点:第一,我们为什么要学习深度学习;第二,深度学习最核心的关键概念就是神经网络,那么究竟什么是神经网络;第三,作为程序员,当我们想要成为深度学习开发者的时候,我们需要具备怎样的工具箱,以及从哪里着手进行开发。为什么要学习深度学习首先,我们谈谈为什么要学习深度学习。在这个市场当中,最不缺乏的就是各种概念以及各种时髦新技术的词汇。深度学习有什么不一样的地方?我非常喜欢AndrewNg(吴恩达)曾经用过的一个比喻。他把深度学习比喻成一个火箭。这个火箭有一个最重要的部分,就是它的引擎,目前来看在这个领域里面,引擎的核心就是神经网络。大家都知道,火箭除了引擎之外还需要有燃料,那么大数据其实就构成了整个火箭另外的重要组成部分——燃料。以往我们谈到大数据的时候,更多是强调存储和管理数据的能力,但是这些方法和工具更多是对于以往历史数据的统计、汇总。而对于今后未知的东西,这些传统的方法并不能够帮助我们可以从大数据中得出预测的结论。如果考虑到神经网络和大数据结合,我们才可能看清楚大数据真正的价值和意义。AndrewNg就曾经说过“我们相信(神经网络代表的深度学习)是让我们获得最接近于人工智能的捷径”。这就是我们要学习深度学习的一个最重要的原因。其次,随着我们进行数据处理以及运算能力的不断提升,深度学习所代表的人工智能技术和传统意义上人工智能技术比较起来,在性能上有了突飞猛进的发展。这主要得益于在过去几十间计算机和相关产业不断发展带来的成果。在人工智能的领域,性能是我们选择深度学习另一个重要的原因。这是一段Nvidia在今年公布的关于深度学习在无人驾驶领域应用的视频。我们可以看到,将深度学习应用在自动驾驶方面,仅仅经历了3千英里的训练,就可以达到什么样的程度。在今年年初进行的实验上,这个系统还不具备真正智能能力,经常会出现各种各样的让人提心吊胆的状况,甚至在某些情况下还需要人工干预。但经过了3千英里的训练之后,我们看到在山路、公路、泥地等各种复杂的路况下面,无人驾驶已经有了一个非常惊人的表现。请大家注意,这个深度学习的模型只经过了短短几个月、3千英里的训练。如果我们不断完善这种模型的话,这种处理能力将会变得何等的强大。这个场景里面最重要的技术无疑就是深度学习。我们可以得出一个结论:深度学习可以为我们提供强大的能力,如果程序员拥有了这个技术的话,无异于会让每个程序员如虎添翼。神经网络快速入门如果我们对于学习深度学习没有任何疑虑的话,接下来就一定会关心我需要掌握什么样的知识才能让我进入到这个领域。这里面最重要的关键技术就是“神经网络”。说起“神经网络”,容易混淆是这样两个完全不同的概念。一个是生物学神经网络,第二个才是我们今天要谈起的人工智能神经网络。可能在座的各位有朋友在从事人工智能方面的工作。当你向他请教神经网络的时候,他会抛出许多陌生的概念和术语让你听起来云里雾里,而你只能望而却步了。对于人工智能神经网络这个概念,大多数的程序员都会觉得距离自己有很大的距离。因为很难有人愿意花时间跟你分享神经网络的本质究竟是什么。而你从书本上读的到的理论和概念,也很让你找到一个清晰、简单的结论。今天就我们来看一看,从程序员角度出发神经网络究竟是什么。我第一次知道神经网络这个概念是通过一部电影——1991年上映的《终结者2》。男主角施瓦辛格有一句台词:“MyCPUisaneural-netprocessor;alearningcomputer.”(我的处理器是一个神经处理单元,它是一台可以学习的计算机)。从历史来看人类对自身智力的探索,远远早于对于神经网络的研究。1852年,意大利学者因为一个偶然的失误,将人类的头颅掉到硝酸盐溶液中,从而获得第一次通过肉眼关注神经网络的机会。这个意外加速了对人类智力奥秘的探索,开启了人工智能、神经元这样概念的发展。生物神经网络这个概念的发展,和今天我们谈的神经网络有什么关系吗?我们今天谈到的神经网络,除了在部分名词上借鉴了生物学神经网络之外,跟生物学神经网络已经没有任何关系,它已经完全是数学和计算机领域的概念,这也是人工智能发展成熟的标志。这点大家要区分开,不要把生物神经网络跟我们今天谈到的人工智能有任何的混淆。90年代中期,由Vapnik等人提出了支持向量机算法(Support Vector Machines,支持向量机)。很快这个算法就在很多方面体现出了对比神经网络的巨大优势,例如:无需调参、高效率、全局最优解等。基于这些理由,SVM算法迅速打败了神经网络算法成为那个时期的主流。而神经网络的研究则再次陷入了冰河期。在被人摒弃的十年里面,有几个学者仍然在坚持研究。其中很重要的一个人就是加拿大多伦多大学的Geoffery Hinton教授。2006年,他的在著名的《Science》杂志上发表了论文,首次提出了“深度信念网络”的概念。与传统的训练方式不同,“深度信念网络”有一个“预训练”(pre-training)的过程,这可以方便的让神经网络中的权值找到一个接近最优解的值,之后再使用“微调”(fine-tuning)技术来对整个网络进行优化训练。这两个技术的运用大幅度减少了训练多层神经网络的时间。在他的论文里面,他给多层神经网络相关的学习方法赋予了一个新名词— “深度学习”。很快,深度学习在语音识别领域崭露头角。接着在2012年,深度学习技术又在图像识别领域大展拳脚。Hinton与他的学生在ImageNet竞赛中,用多层的卷积神经网络成功地对包含一千个类别的一百万张图片进行了训练,取得了分类错误率15%的好成绩,这个成绩比第二名高了将近11个百分点。这个结果充分证明了多层神经网络识别效果的优越性。从那时起,深度学习就开启了新的一段黄金时期。我们看到今天深度学习和神经网络的火热发展,就是从那个时候开始引爆的。利用神经网络构建分类器,这个神经网络的结构是怎样的?其实这个结构非常简单,我们看到这个图就是简单神经网络的示意图。神经网络本质上就是一种“有向图”。图上的每个节点借用了生物学的术语就有了一个新的名词 – “神经元”。连接神经元的具有指向性的连线(有向弧)则被看作是“神经”。这这个图上神经元并不是最重要的,最重要的是连接神经元的神经。每个神经部分有指向性,每一个神经元会指向下一层的节点。节点是分层的,每个节点指向上一层节点。同层节点没有连接,并且不能越过上一层节点。每个弧上有一个值,我们通常称之为”权重“。通过权重就可以有一个公式计算出它们所指的节点的值。这个权重值是多少?我们是通过训练得出结果。它们的初始赋值往往通过随机数开始,然后训练得到的最逼近真实值的结果作为模型,并可以被反复使用。这个结果就是我们说的训练过的分类器。节点分成输入节点和输出节点,中间称为隐层。简单来说,我们有数据输入项,中间不同的多个层次的神经网络层次,就是我们说的隐层。之所以在这样称呼,因为对我们来讲这些层次是不可见的。输出结果也被称作输出节点,输出节点是有限的数量,输入节点也是有限数量,隐层是我们可以设计的模型部分,这就是最简单的神经网络概念。如果简单做一个简单的类比,我想用四层神经网络做一个解释。左边是输入节点,我们看到有若干输入项,这可能代表不同苹果的RGB值、味道或者其它输入进来的数据项。中间隐层就是我们设计出来的神经网络,这个网络现在有不同的层次,层次之间权重是我们不断训练获得一个结果。最后输出的结果,保存在输出节点里面,每一次像一个流向一样,神经是有一个指向的,通过不同层进行不同的计算。在隐层当中,每一个节点输入的结果计算之后作为下一层的输入项,最终结果会保存在输出节点上,输出值最接近我们的分类,得到某一个值,就被分成某一类。这就是使用神经网络的简单概述。除了从左到右的形式表达的结构图,还有一种常见的表达形式是从下到上来表示一个神经网络。这时候,输入层在图的最下方,输出层则在图的最上方。从左到右的表达形式以AndrewNg和LeCun的文献使用较多。而在Caffe框架里则使用的则是从下到上的表达。简单来说,神经网络并不神秘,它就是有像图,利用图的处理能力帮助我们对特征的提取和学习的过程。2006年Hinton的那篇著名的论文中,将深度学习总结成三个最重要的要素:计算、数据、模型。有了这三点,就可以实现一个深度学习的系统。程序员需要的工具箱对于程序员来说,掌握理论知识是为了更好的编程实践。那就让我们看看,对于程序员来说,着手深度学习的实践需要准备什么样的工具。硬件从硬件来讲,我们可能需要的计算能力,首先想到的就是CPU。除了通常的CPU架构以外,还出现了附加有乘法器的CPU,用以提升计算能力。此外在不同领域会有DSP的应用场景,比如手写体识别、语音识别、等使用的专用的信号处理器。还有一类就是GPU,这是一个目前深度学习应用比较热门的领域。最后一类就是FPGA(可编程逻辑门阵列)。这四种方法各有其优缺点,每种产品会有很大的差异。相比较而言CPU虽然运算能力弱一些,但是擅长管理和调度,比如读取数据,管理文件,人机交互等,工具也丰富。DSP相比而言管理能力较弱,但是强化了特定的运算能力。这两者都是靠高主频来解决运算量的问题,适合有大量递归操作以及不便拆分的算法。GPU的管理能力更弱一些,但是运算能力更强。但由于计算单元数量多,更适合整块数据进行流处理的算法。FPGA在管理与运算处理方面都很强,但是开发周期长,复杂算法开发难度较大。就实时性来说,FPGA是最高的。单从目前的发展来看,对于普通程序员来说,现实中普遍采用的计算资源就还是是CPU以及GPU的模式,其中GPU是最热门的领域。这是我前天为这次分享而准备的一个AWS 上p2的实例。仅仅通过几条命令就完成了实例的更新、驱动的安装和环境的设置,总共的资源创建、设置时间大概在10分钟以内。而之前,我安装调试前面提到的那台计算机,足足花了我两天时间。另外,从成本上还可以做一个对比。p2.8xLarge 实例每小时的费用是7.2美元。而我自己那台计算机总共的花费了是¥16,904元。这个成本足够让我使用350多个小时的p2.8xLarge。在一年里使用AWS深度学习站就可以抵消掉我所有的付出。随着技术的不断的升级换代,我可以不断的升级我的实例,从而可以用有限的成本获得更大、更多的处理资源。这其实也是云计算的价值所在。云计算和深度学习究竟有什么关系?今年的8月8号,在IDG网站上发表了一篇文章谈到了这个话题。文章中做了这样一个预言:如果深度学习的并行能力不断提高,云计算所提供的处理能力也不断发展,两者结合可能会产生新一代的深度学习,将带来更大影响和冲击。这是需要大家考虑和重视的一个方向!软件 深度学习除了硬件的基础环境之外。程序员会更关心与开发相关的软件资源。这里我罗列了一些曾经使用过的软件框架和工具。 Scikit-learn是最为流行的一个Python机器学习库。它具有如下吸引人的特点:简单、高效且异常丰富的数据挖掘/数据分析算法实现; 基于NumPy、SciPy以及matplotlib,从数据探索性分析,数据可视化到算法实现,整个过程一体化实现;开源,有非常丰富的学习文档。Caffe专注在卷及神经网络以及图像处理。不过Caffe已经很久没有更新过了。这个框架的一个主要的开发者贾扬清也在今年跳槽去了Google。也许曾经的霸主地位要让位给他人了。Theano 是一个非常灵活的Python 机器学习的库。在研究领域非常流行,使用上非常方便易于定义复杂的模型。Tensorflow 的API 非常类似于Theano。我在今年北京的QCon 大会上也分享过关于Theano 的话题。Jupyter notebook 是一个很强大的基于ipython的python代码编辑器,部署在网页上,可以非常方便的进行交互式的处理,很适合进行算法研究合数据处理。Torch 是一个非常出色的机器学习的库。它是由一个比较小众的lua语言实现的。但是因为LuaJIT 的使用,程序的效率非常出色。Facebook在人工智能领域主打Torch,甚至现在推出了自己的升级版框架Torchnet。深度学习的框架非常之多,是不是有一种乱花渐欲迷人眼的感觉?我今天向各位程序员重点介绍的是将是TensorFlow。这是2015年谷歌推出的开源的面向机器学习的开发框架,这也是Google第二代的深度学习的框架。很多公司都使用了TensorFlow开发了很多有意思的应用,效果很好。用TensorFlow可以做什么?答案是它可以应用于回归模型、神经网络以深度学习这几个领域。在深度学习方面它集成了分布式表示、卷积神经网络(CNN)、递归神经网络(RNN) 以及长短期记忆人工神经网络(Long-Short Term Memory, LSTM)。关于Tensorflow 首先要理解的概念就是Tensor。在辞典中对于这个词的定义是张量,是一个可用来表示在一些向量、标量和其他张量之间的线性关系的多线性函数。实际上这个表述很难理解,用我自己的语言解释Tensor 就是“N维数组”而已。使用 TensorFlow, 作为程序员必须明白 TensorFlow这样几个基础概念:它使用图 (Graph) 来表示计算任务;在被称之为 会话 (Session) 的上下文 (context) 中执行图;使用 Tensor 表示数据;通过 变量 (Variable) 维护状态;使用 feed 和 fetch 可以为任意的操作(arbitrary operation) 赋值或者从其中获取数据。一句话总结就是,TensorFlow 就是有状态图的数据流图计算环境,每个节点就是在做数据操作,然后提供依赖性和指向性,提供完整数据流。TensorFlow安装非常简单,但官网提供下载的安装包所支持的CUDA 的版本是7.5。考虑到CUDA 8 的让人心动的新特以及不久就要正式发布的现状。或许你想会考虑立即体验CUDA 8,那么就只能通过编译Tensorflow源代码而获得。目前TensorFlow已经支持了Python2.7、3.3+。此外,对于使用Python 语言的程序员还需要安装所需要的一些库,例如:numpy、protobuf等等。对于卷积处理而言,cuDNN是公认的性能最好的开发库,请一定要安装上。常规的Tensorsorflow的安装很简单,一条命令足矣:$ pip3 install —upgrade 如果想评估一下或者简单学习一下,还可以通过Docker进行安装,安装的命令如下:$ docker run -it -p 8888:8888 gcr.io/tensorflow/tensorflowTensorFlow有很多优点。首先,目前为止,深度学习的开发框架里面TensorFlow的文档做的最好,对程序员学习而言是非常好的一点。第二,TensorFlow有丰富的参考实例,作为参考学习起来非常容易。第三,开发者社区活跃,在任何一个深度学习的社区里,都有大量关于TensorFlow的讨论。第四,谷歌的支持力度非常大,从2015年到现在升级速度非常快,这是其他开源框架远远达不到的结果。参考TensorFlow的白皮书,我们会看到未来TensorFlow还将会有巨大的发展潜力。让我特别感兴趣是这两个方向。第一,支持跨多台机器的 parallelisation。尽管在0.8版本中推出了并行化的能力,但是目前还不完善。随着未来不断发展,依托云计算的处理能力的提升这个特性将是非常让人振奋的。第二,支持更多的开发语言,对于开发者来说这是一个绝大的利好,通过使用自己擅长的语言使用TensorFlow应用。这些开发语言将会扩展到Java、Lua以及R 等。在这里我想给大家展示一个应用Tensorflow 的例子。这个例子的代码托管在这个网址上 。白俄罗斯的现代印象派艺术家Leonid Afremov善于用浓墨重彩来表现都市和风景题材,尤其是其雨景系列作品。他习惯用大色块的铺陈来营造光影效果,对反光物体和环境色的把握非常精准。于是我就找到了一张上海东方明珠电视塔的一张摄影作品,我希望通过Tensorflow 去学习一下Leonid Afremov 的绘画风格,并将这张东方明珠的照片处理成那种光影色彩丰富的作品风格。利用Tensorflow 以及上面提到的那个项目的代码,在一个AWS 的p2类型的实例上进行了一个一千次的迭代,于是就得到了下图这样的处理结果。这个处理的代码只有350行里,模型使用了一个成名于2014年ImageNet比赛中的明星 VGG。这个模型非常好,特点就是“go depper”。TensorFlow 做出这样的作品,并不仅仅作为娱乐供大家一笑,还可以做更多有意思的事情。将刚才的处理能力推广到视频当中,就可以看到下图这样的效果,用梵高著名的作品”星月夜“的风格就加工成了这样新的视频风格。可以想象一下,如果这种处理能力在更多领域得以应用,它会产生什么样的神奇结果?前景是美好的,让我们有无限遐想。事实上我们目前所从事的很多领域的应用开发都可以通过使用神经网络和深度学习来加以改变。对于深度学习而言,掌握它并不是难事。每一个程序员都可以很容易的掌握这种技术,利用所具备的资源,让我们很快成为深度学习的程序开发人员。结束语未来究竟是什么样,我们没有办法预言。有位作家Ray Kurzweil在2005年写了《奇点临近》一书。在这本书里面他明确告诉我们,那个时代很快到来。作为那个时代曙光前的人群,我们是不是有能力加速这个过程,利用我们学习的能力实现这个梦想呢?中国人工智能的发展人工智能的时代无疑已经到来,这个时代需要的当然就是掌握了人工智能并将其解决具体问题的工程师。坦率的说,市场上这一类的工程师还属于凤毛麟角。职场上的薪酬待遇可以看得出来这样的工程师的抢手的程度。人工智能这门学科发展到今天,就学术自身而言已经具备了大规模产业化的能力。所以说,对于工程师而言当务之急就是尽快的掌握应用人工智能的应用技术。当下在互联网上关于人工智能的学习资料可以说已经是“汗牛充栋”,那些具备了快速学习能力的工程师一定会在人工智能的大潮当中脱颖而出。中国发展人工智能产业的环境已经具备。无论从创业环境、人员的素质乃至市场的机遇而言完全具备了产生产业变革的一切条件。与美国相比较,在人工智能的许多领域中国团队的表现也可以说是不逞多让。就人工智能的技术层面而言,中国的工程师与全球最好的技术团队正处于同一个起跑线上。时不我待,中国的工程师是有机会在这个领域大展身手的。不过值得注意的是,要切忌两点:一是好高骛远,盲目与国外攀比。毕竟积累有长短,术业有专攻,我们要立足于已有的积累,寻求逐步的突破。二是一拥而上,盲目追求市场的风口。人工智能的工程化需要大量的基础性的积累,并非一蹴而就简单复制就可以成功。中国的科研技术人员在人工智能领域的成就有目共睹。在王咏刚的一篇文章里面,他统计了从2013年到2015年SCI收录的“深度学习”论文,中国在2014年和2015年超已经超过了美国居于领跑者的位置。另外一让我感到惊讶的事情,Google的JeffDean在2016年发表过一篇名为《TensorFlow:Asystemforlarge-scalemachinelearning》的论文。文章的22个作者里面,明显是中国名字的作者占已经到了1/5。如果要列举中国人/华人在人工智能领域里的大牛,吴恩达、孙剑、杨强、黄广斌、马毅、张大鹏……很容易就可以说出一大串。对于中国来说目前的当务之急是人工智能技术的产业化,唯有如此我们才可以讲科研/智力领域的优势转化为整体的、全面的优势。在这一点上,中国是全球最大的消费市场以及制造业强国,我们完全有机会借助市场的优势成为这个领域的领先者。硅谷创新企业硅谷虽然去过许多回,但一直无缘在那里长期工作。在人工智能领域的市场我们听到的更多是围绕Google、Apple、Intel、Amazon这样的一些大型科技公司的一举一动。但是在美国市场上还有一大批小型的创业企业在人工智能这个领域有惊艳的表现。仅以硅谷区域的公司为例:Captricity,提供了手写数据的信息提取;VIVLab,针对语音识别开发了虚拟助手服务;TERADEEP,利用FPGA提供了高效的卷积神经网络的方案;还有提供无人驾驶解决方案的NetraDyne。这个名单还可以很长,还有许许多多正在利用人工智能技术试图去创造历史的团队正在打造他们的梦想。这些团队以及他们正在专注的领域是值得我们去学习和体会的。
2006年前,尝试训练深度架构都失败了:训练一个深度有监督前馈神经网络趋向于产生坏的结果(同时在训练和测试误差中),然后将其变浅为1(1或者2个隐层)。2006年的3篇论文改变了这种状况,由Hinton的革命性的在深度信念网(Deep Belief Networks, DBNs)上的工作所引领:Hinton, G. E., Osindero, S. and Teh, Y.,A fast learning algorithm for deep belief nets.Neural Computation 18:1527-1554, 2006Yoshua Bengio, Pascal Lamblin, Dan Popovici and Hugo Larochelle,Greedy LayerWise Training of Deep Networks, in J. Platt et al. (Eds), Advances in Neural Information Processing Systems 19 (NIPS 2006), pp. 153-160, MIT Press, 2007Marc’Aurelio Ranzato, Christopher Poultney, Sumit Chopra and Yann LeCun Efficient Learning of Sparse Representations with an Energy-Based Model, in J. Platt et al. (Eds), Advances in Neural Information Processing Systems (NIPS 2006), MIT Press, 2007在这三篇论文中以下主要原理被发现:表示的无监督学习被用于(预)训练每一层;在一个时间里的一个层次的无监督训练,接着之前训练的层次。在每一层学习到的表示作为下一层的输入;用有监督训练来调整所有层(加上一个或者更多的用于产生预测的附加层);DBNs在每一层中利用用于表示的无监督学习RBMs。Bengio et al paper 探讨和对比了RBMs和auto-encoders(通过一个表示的瓶颈内在层预测输入的神经网络)。Ranzato et al paper在一个convolutional架构的上下文中使用稀疏auto-encoders(类似于稀疏编码)。Auto-encoders和convolutional架构将在以后的课程中讲解。从2006年以来,大量的关于深度学习的论文被发表。
小西:小迪小迪,我发现人工智能发展史上很多事情都跟下棋有关呐。 小迪:是啊,人工智能发展史还是要从下棋说起,棋类游戏很多时候都被人类看做高智商游戏,在棋类游戏中让机器与人类博弈自然再好不过了。早在1769年,匈牙利作家兼发明家Wolfgang von Kempelen就建造了机器人TheTurk,用于与国际象棋高手博弈,但是最终被揭穿,原来是机器人的箱子里藏着一个人。虽然这是个,但是也体现了棋类游戏是人机博弈中的焦点。 小西:哇,这么早啊! 小迪:是啊,在1968年上映的电影《2001太空漫游》里,有个情节是机器人HAL与人类Frank下国际象棋,最终人类在机器人面前甘拜下风。 小西:哈哈,看来很早人们就觉得有一天,机器人会在下棋方面超过人类哦。 小迪:是啊,直到1997年,IBM的深蓝智能系统战胜了国际象棋世界冠军Kasparov,这是一次正式意义上的机器在国际象棋领域战胜了人类。不过,当时时代杂志发表的文章还认为,计算机想要在围棋上战胜人类,需要再过上一百年甚至更长的时间。因为围棋相比于国际象棋复杂很多,而IBM的深蓝也只是一个暴力求解的系统,当时的计算机能力在围棋千千万万种变化情况下取胜是不可能的。 小西:后来我知道。没有过100年,20年后AlphaGo在20年后的2016年打败了围棋高手李世石,这下人工智能引起了全世界的关注。 小迪:恭喜你,学会抢答了! 小西:哈哈,过奖过奖。除了下棋,人工智能发展史上有没有什么特别著名的事件或者有名的大师呢,快给我科普科普呀! 小迪:那可就太多了啊,无数科学家默默地耕耘才有了今天智能化的社会,三天三夜都说不完。我就说说近些年火爆的深度学习的发展史吧。 小西:好,洗耳恭听呢! 感知器的发明 1943年Warren McCulloch和Walter Pitts一起提出计算模型,在1957年康奈尔大学的Frank Rosenblatt提出了感知器的概念,这是整个深度学习的开端,感知器是第一个具有自组织自学习能力的数学模型。Rosenblatt乐观地预测感知器最终可以学习,做决定和翻译语言。感知器技术在六十年代非常火热,受到了美国海军的资金支持,希望它以后能够像人一样活动,并且有自我意识。 第一次低潮 Rosenblatt有一个高中校友叫做Minsky,在60年代,两人在感知器的问题上吵得不可开交。R认为感知器将无所不能,M觉得感知器存在很大的缺陷,应用有限。1969年,Minsky出版了新书《感知器:计算几何简介》,这本书中描述了感知器的两个重要问题: 单层神经网络不能解决不可线性分割的问题,典型例子:异或门;当时的电脑完全没有能力承受神经网络的超大规模计算。 随后的十多年,人工智能转入第一次低潮,而Rosenblatt也在他43生日时,因海事丧生,遗憾未能见到神经网络后期的复兴。 Geoffrey Hinton与神经网络 1970年,此时的神经网络正处于第一次低潮期,爱丁堡大学的心理学学士Geoffrey Hinton刚刚毕业。他一直对脑科学非常着迷,同学告诉他,大脑对事物和概念的记忆,不是存储在某个单一的地方,而是分布式的存在一个巨大的神经网络中。分布式表征让Hinton感悟很多,随后的多年里他一直从事神经网络方面的研究,在爱丁堡继续攻读博士学位的他把人工智能作为自己的研究领域。 Rumelhart与BP算法 传统的神经网络拥有巨大的计算量,上世纪的计算机计算能力尚未能满足神经网络的训练。1986年7月,Hinton和David Rumelhart合作在Nature杂志上发表论文系统地阐述了BP算法: 反向传播算法(BP)把纠错运算量下降到只和神经元数目有关;BP算法在神经网络中加入隐层,能够解决非线性问题。 BP算法的效率相比传统神经网络大大提高,计算机的算力在上世纪后期也大幅提高,神经网络开始复苏,引领人工智能走向第二次辉煌。 Yann Lecun与卷积神经网络 1960年Yann Lecun在巴黎出身,在法国获得博士学位后,追随Hinton做了一年博士后,随后加入贝尔实验室。在1989年,Lecun发表论文提出卷积神经网络,并且结合反向传播算法应用在手写邮政编码上,取得了非常好的效果,识别率高达95%。基于这项技术的支票识别系统在90年代占据了美国接近20%的市场。 但也是在贝尔实验室,Yann Lecun的同事Vladmir Vapnik的研究又把神经网络的研究带入了第二个寒冬。 Hinton与深度学习 2003年,Geoffrey Hinton在多伦多大学苦苦钻研着神经网络。在与加拿大先进研究院(CIFAR)的负责人Melvin Silverman交谈后,负责人决定支持Hinton团队十年来进行神经网络的研究。在拿到资助后,Hinton做的第一件事就是把神经网络改名为深度学习。此后的一段时间里,同事经常会听到Hinton在办公室大叫:“我知道神经网络是如何工作的了!” DBN与RBN 2006年Hinton与合作者发表论文——《A Fast Algorithm for Deep BeliefNet》(DBN)。这篇文章中的算法借用了统计力学中“波尔兹曼分布”的概念,使用了所谓的“受限玻尔兹曼机”,也就是RBN来学习。而DBN也就是几层RBN叠加在一起。RBN可以从输入数据进行预训练,自己发现重要的特征,对神经网络的权重进行有效的初始化。这里就出现了另外两个技术——特征提取器与自动编码器。经过MNIST数据集的训练后,识别错误率最低降到了只有1.25%。 吴恩达与GPU 2007年,英伟达推出cuda的GPU软件接口,GPU编程得以极大发展。2009年6月,斯坦福大学的Rajat Raina和吴恩达合作发表文章,论文采用DBNs模型和稀疏编码,模型参数高达一亿,使用GPU运行速度训练模型,相比传统双核CPU最快时相差70倍,把本来需要几周训练的时间降到了一天。算力的进步再次加速了人工智能的快速发展。 黄仁勋与GPU 黄仁勋也是一名华人,1963年出生于台湾,在1993年于斯坦福毕业后创立了英伟达公司,英伟达起家时主要做图像处理芯片,后来黄仁勋发明GPU这个词。相比于CPU架构,GPU善于大批量数据并行处理。而神经网络的计算工作,本质上就是大量的矩阵计算的操作,GPU的发展为深度学习奠定了算力的基础。 李飞飞与ImageNet 深度学习的三大基础——算法,算力和数据。上面提到的主要是算法与算力的发展,而数据集在深度学习发展也起到了至关重要的作用。又是一位华人学者——李飞飞,于2009年建立ImageNet数据集,以供计算机视觉工作者使用,数据集建立的时候,包含320个图像。2010年,ILSVRC2010第一次举办,这是以ImageNet为基础的大型图像识别大赛,比赛也推动了图像识别技术的飞速发展。2012年的比赛,神经网络第一次在图像识别领域击败其他技术,人工智能步入深度学习时代,这也是一个历史性的转折点。 Yoshua Bengio与RELU 2011年,加拿大学者Xavier Glorot与Yoshua Bengio联合发表文章,在算法中提出一种激活函数——RELU,也被称为修正线性单元,不仅识别错误率普遍降低,而且其有效性对于神经网络是否预训练过并不敏感。而且在计算力方面得到提升,也不存在传统激活函数的梯度消失问题。 Schmidhuber与LSTM 其实早在1997年,瑞士Lugano大学的Suhmidhuber和他的学生合作,提出了长短期记忆模型(LSTM)。LSTM背后要解决的问题就是如何将有效的信息,在多层循环神经网络传递之后,仍能传送到需要的地方去。LSTM模块,是通过内在参数的设定,决定某个输入参数在很久之后是否还值得记住,何时取出使用,何时废弃不用。 后记 小迪:其实还有好多有突出贡献的的大师,要是都列出来可以出一本很厚很厚的书啦! 小西:这些大师都好厉害呀,为了我们的智能化生活体验,辛勤付出了一辈子。 小迪:是啊,还有很多学者默默无闻地工作,一生清苦。 小西:他们都好伟大,有突出贡献的都应该发奖发奖金,对对对,诺贝尔奖! 小迪:哈哈。诺贝尔奖多数是为基础学科设立的。不过计算机界也有“诺贝尔奖”——图灵奖,这可是计算机界最高奖项哦!2019年3月27日,ACM宣布,Geoffrey Hinton,Yann LeCun ,和Yoshua Bengio共同获得了2018年的图灵奖。 小西:太棒了,实至名归! 小迪:当然,图灵奖在此之前也授予了很多在人工智能领域的大牛,像Minsky,John McCarthy这些,还有华人科学家,现在在清华大学任职从事人工智能教育的姚期智先生在2000也获得过图灵奖呢! 小西:大师们太不容易了,我们也要好好学习呀! 小迪:是呀!如今我们站在巨人的肩膀上,许多人都可以接触到深度学习,机器学习的内容,不管是工业界还是学术界,人工智能都是一片火热! 小西:希望这一轮人工智能的兴起不会有低潮,一直蓬勃发展下去,更好地造福人类。 小迪:嗯!
1665年至1667年间,牛顿因躲避瘟疫,离开剑桥到故乡度过了几年。在这几年中,他构建了微分学思想,创立了万有引力定律,还将可见光分解为单色光,在数学、力学、光学三个领域都做出了开创性的贡献。“奇迹年”这个拉丁语词原本是用来称呼牛顿的1666年的,后来也被用来称呼爱因斯坦的1905年。 这一年中,26岁的爱因斯坦发表了五篇具有划时代意义的科学论文,其中最重要的当然是创立狭义相对论的《论动体的电动力学》和《物体的惯性同它所含的能量有关吗》。一年之内,爱因斯坦在布朗运动、量子论和狭义相对论这三个方面都做出了开创性的贡献,凭借这些贡献中的任何一个,他都足以赢得诺贝尔奖。 既然是奇迹年,就不会精确到月日,而是整个一年。
一说起物理,人们首先想到的是爱因斯坦。一说起智商高,人们同样也是首先想到的是爱因斯坦。《时代》杂志在2000年的时候评选了100位世纪人物,每个人都是20世纪的顶尖人物。又从这100位伟人中选择了一位上了年度杂志的封面,这个人就是爱因斯坦。爱因斯坦获得诺贝尔奖,不是爱因斯坦的光荣,而是诺贝尔奖的光荣。爱因斯坦就算没得过诺贝尔奖也丝毫无损他的伟大,但是诺贝尔奖因为颁发给爱因斯坦而增加了自己的权威性。爱因斯坦在1905年(科学史上称之为奇迹年)发表的5篇论文,篇篇都是诺贝尔奖级的成果。而当年他只有26岁。毫不夸张的说,爱因斯坦几乎完成了整个天体物理的架构,后来的科学家不过是在验证爱因斯坦的理论罢了,不信我们可以看看爱因斯坦提出过哪些理论,除了经典的相对论,爱因斯坦还说了光就是宇宙中最快的,还有分子尺度到底如何测定,包括我们现在还在纠结的引力波,任何一项在当今 社会 都足以站在顶端,试问那个科学家能够凭一己之力,去构建整个学科。爱因斯坦的横空出世就像是一位物理学界的英雄,以颠覆性的姿态,站在了物理学的最顶端,成为了无数学者的精神偶像。其中也包括了我国著名的物理学家,同样是诺贝尔物理学奖的获得者杨振宁教授。杨振宁老先生是中国的一个传奇人物,也是世界近100年来最著名的物理学家之一。他出生于动荡的民国时期(1922年),20岁便从当时号称最强的西南联大(北大、清华、南开战时合立的学校)毕业,23岁赴美国芝加哥大学留学深造,35岁和李政道提出“宇称不守恒”理论共同斩获获得诺贝尔物理学奖。可以说,他的一生都在不断书写着奇迹。2021年9月22日,是杨振宁老先生的百岁生日,这位伟大的物理学家,曾经和爱因斯坦做过同事。 就说你们意不意外,惊不惊喜? 原来杨振宁在芝加哥大学博士毕业以后,在费米和泰勒的推荐下,去往普林斯顿高等研究所做博士后。在普林斯顿高等研究所,杨振宁与仰慕已久的爱因斯坦成为了同事,并在统计力学方面和爱因斯坦有过短暂的交流,杨振宁一直为此感到自豪。 人生好像很长又好像没多长, 历史 好像很久了又好像没多久。真心祝福杨老福如东海,寿比南山!
爱因斯坦是发现了什么,不是发明了什么。。 阿尔伯特·爱因斯坦 ( Albert Einstein ,1879年3月14日-1955年4月18日)是20世纪著名的犹太裔理论物理学家、思想家及哲学家,也是相对论的创立者。阿尔伯特·爱因斯坦被誉为是现代物理学之父及二十世纪最重要的科学家之一。 奇迹年 爱因斯坦在1905年发表了六篇划时代的论文,分别为:《关于光的产生和转化的一个试探性观点》、《分子大小的新测定方法》、《热的分子运动论所要求的静液体中悬浮粒子的运动》、《论动体的电动力学》、《物体的惯性同它所含的能量有关吗?》、《布朗运动的一些检视》。因此这一年被称为“爱因斯坦奇迹年”。100年后的2005年因此被定为“世界物理年”。 成名 爱因斯坦1908年兼任伯尔尼大学的兼职讲师。1909年离开专利局任苏黎世大学理论物理学副教授。1911年任布拉格德国大学理论物理学教授,1912年任母校苏黎世联邦理工学院教授。1914年,应马克斯·普朗克和瓦尔特·能斯特的邀请,回德国任威廉皇家物理研究所所长兼柏林大学教授,直到1933年。1920年应亨德里克·洛伦兹和保罗·埃伦费斯特的邀请,兼任荷兰莱顿大学特邀教授。第一次世界大战爆发后,他投入公开和地下的反战活动。 1919年11月10日《纽约时报》刊登新观察证实相对论的消息,形容这是爱因斯坦理论的大胜利。 1915年爱因斯坦发表了广义相对论 。他所作的光线经过太阳引力场要弯曲的预言,于1919年由英国天文学家亚瑟·斯坦利·爱丁顿的日全蚀观测结果所证实。1916年他预言的引力波在1978年也得到了证实。爱因斯坦和相对论在西方成了家喻户晓的名词,同时也招来了德国和其他国家的沙文主义者、军国主义者和排犹主义者的恶毒攻击。 1917年爱因斯坦在《论辐射的量子性》一文中提出了受激辐射理论,成为激光的理论基础。 爱因斯坦因在光电效应方面的研究,被授予1921年诺贝尔物理学奖。 在瑞典科学院的公告中并未提及相对论,原因是认为相对论还有争议。 著名成就: 广义相对论 狭义相对论 布朗运动 光电效应 E=mc05 爱因斯坦场方程 玻色-爱因斯坦统计 EPR悖论
爱因斯坦早年智力不是很好的 从12岁开始,看数学 到别人家里借书 到16岁时已经看完微积分 开始学高等数学 下来就碌碌续续的开始发表他的理论 知道走时,还在研究 在研究量子 下来是查的 1905年的奇迹 1905年,爱因斯坦在科学史上创造了一个史无前例奇迹。这一年他写了六篇论文,在三月到九月这半年中,利用在专利局每天八小时工作以外的业余时间,在三个领域做出了四个有划时代意义的贡献,他发表了关于光量子说、分子大小测定法、布朗运动理论和狭义相对论这四篇重要论文。 1905年3月,爱因斯坦将自己认为正确无误的论文送给了德国《物理年报》编辑部。他腼腆的对编辑说:“如果您能在你们的年报中找到篇幅为我刊出这篇论文,我将感到很愉快。”这篇“被不好意思”送出的论文名叫《关于光的产生和转化的一个推测性观点》。 这篇论文把普朗克1900年提出的量子概念推广到光在空间中的传播情况,提出光量子假说。认为:对于时间平均值,光表现为波动;而对于瞬时值,光则表现为粒子性。这是历史上第一次揭示了微观客体的波动性和粒子性的统一,即波粒二象性。 在这文章的结尾,他用光量子概念轻而易举的解释了经典物理学无法解释的光电效应,推导出光电子的最大能量同入射光的频率之间的关系。这一关系10年后才由密立根给予实验证实。1921年,爱因斯坦因为“光电效应定律的发现”这一成就而获得了诺贝尔物理学奖。 这才仅仅是开始,阿尔伯特·爱因斯坦在光、热、电物理学的三个领域中齐头并进,一发不可收拾。1905年4月,爱因斯坦完成了《分子大小的新测定法》,5月完成了《热的分子运动论所要求的静液体中悬浮粒子的运动》。这是两篇关于布朗运动的研究的论文。爱因斯坦当时的目的是要通过观测由分子运动的涨落现象所产生的悬浮粒子的无规则运动,来测定分子的实际大小,以解决半个多世纪来科学界和哲学界争论不休的原子是否存在的问题。 三年后,法国物理学家佩兰以精密的实验证实了爱因斯坦的理论预测。从而无可非议的证明了原子和分子的客观存在,这使最坚决反对原子论的德国化学家、唯能论的创始人奥斯特瓦尔德于1908年主动宣布:“原子假说已经成为一种基础巩固的科学理论”。 1905年6月,爱因斯坦完成了开创物理学新纪元的长论文《论运体的电动力学》,完整的提出了狭义相对论。这是爱因斯坦10年酝酿和探索的结果,它在很大程度上解决了19世纪末出现的古典物理学的危机,改变了牛顿力学的时空观念,揭露了物质和能量的相当性,创立了一个全新的物理学世界,是近代物理学领域最伟大的革命。 狭义相对论不但可以解释经典物理学所能解释的全部现象,还可以解释一些经典物理学所不能解释的物理现象,并且预言了不少新的效应。狭义相对论最重要的结论是质量守恒原理失去了独立性,他和能量守恒定律融合在一起,质量和能量是可以相互转化的。其他还有比较常讲到的钟慢尺缩、光速不变、光子的静止质量是零等等。而古典力学就成为了相对论力学在低速运动时的一种极限情况。这样,力学和电磁学也就在运动学的基础上统一起来。 1905年9月,爱因斯坦写了一篇短文《物体的惯性同它所含的能量有关吗?》,作为相对论的一个推论。质能相当性是原子核物理学和粒子物理学的理论基础,也为20世纪40年代实现的核能的释放和利用开辟了道路。 在这短短的半年时间,爱因斯坦在科学上的突破性成就,可以说是“石破天惊,前无古人”。即使他就此放弃物理学研究,即使他只完成了上述三方面成就的任何一方面,爱因斯坦都会在物理学发展史上留下极其重要的一笔。爱因斯坦拨散了笼罩在“物理学晴空上的乌云”,迎来了物理学更加光辉灿烂的新纪元。 广义相对论的探索 狭义相对论建立后,爱因斯坦并不感到满足,力图把相对性原理的适用范围推广到非惯性系。他从伽利略发现的引力场中一切物体都具有同一加速度这一古老实验事实找到了突破口,于1907年提出了等效原理。在这一年,他的大学老师、著名几何学家闵可夫斯基提出了狭义相对论的四维空间表示形式,为相对论进一步发展提供了有用的数学工具,可惜爱因斯坦当时并没有认识到它的价值。 等效原理的发现,爱因斯坦认为是他一生最愉快的思索,但以后的工作却十分艰苦,并且走了很大的弯路。1911年,他分析了刚性转动圆盘,意识到引力场中欧氏几何并不严格有效。同时还发现洛伦茨变化不是普适的,等效原理只对无限小区域有效……。这时的爱因斯坦已经有了广义相对论的思想,但他还缺乏建立它所必需的数学基础。 1912年,爱因斯坦回到苏黎世母校工作。在他的同班同学、母校任数学教授的格罗斯曼帮助下,他在黎曼几何和张量分析中找到了建立广义相对论的数学工具。经过一年的奋力合作,他们于1913年发表了重要论文《广义相对论纲要和引力理论》,提出了引力的度规场理论。这是首次把引力和度规结合起来,使黎曼几何获得实在的物理意义。 不过他们当时得到的引力场方程只对线性变换是协变的,还不具有广义相对论原理所要求的任意坐标变换下的协变性。这是由于爱因斯坦当时不熟悉张量运算,错误的认为,只要坚持守恒定律,就必须限制坐标系的选择,为了维护因果性,不得不放弃普遍协变的要求。 科学成就的第二个高峰 在1915年到1917年的3年中,是爱因斯坦科学成就的第二个高峰,类似于1905年,他也在三个不同领域中分别取得了历史性的成就。除了1915年最后建成了被公认为人类思想史中最伟大的成就之一的广义相对论以外,1916年在辐射量子方面提出引力波理论,1917年又开创了现代宇宙学。 1915年7月以后,爱因斯坦在走了两年多弯路后,又回到普遍协变的要求。1915年10月到11月,他集中精力探索新的引力场方程,于11月4日、11日、18日和25日一连向普鲁士科学院提交了四篇论文。 在第一篇论文中他得到了满足守恒定律的普遍协变的引力场方程,但加了一个不必要的限制。第三篇论文中,根据新的引力场方程,推算出光线经过太阳表面所发生的偏转是1.7弧秒,同时还推算出水星近日点每100年的进动是43秒,完满解决了60多年来天文学的一大难题。 1915年11月25日的论文《引力的场方程》中,他放弃了对变换群的不必要限制,建立了真正普遍协变的引力场方程,宣告广义相对论作为一种逻辑结构终于完成了。1916春天,爱因斯坦写了一篇总结性的论文《广义相对论的基础》;同年底,又写了一本普及性的小册子《狭义与广义相对论浅说》。 1916年6月,爱因斯坦在研究引力场方程的近似积分时,发现一个力学体系变化时必然发射出以光速传播的引力波,从而提出引力波理论。1979年,在爱因斯坦逝世24年后,间接证明了引力波存在。 1917年,爱因斯坦用广义相对论的结果来研究宇宙的时空结构,发表了开创性的论文《根据广义相对论对宇宙所做的考察》。论文分析了“宇宙在空间上是无限的”这一传统观念,指出它同牛顿引力理论和广义相对论都是不协调的。他认为,可能的出路是把宇宙看作是一个具有有限空间体积的自身闭合的连续区,以科学论据推论宇宙在空间上是有限无边的,这在人类历史上是一个大胆的创举,使宇宙学摆脱了纯粹猜想的思辨,进入现代科学领域。 漫长艰难的探索 广义相对论建成后,爱因斯坦依然感到不满足,要把广义相对论再加以推广,使它不仅包括引力场,也包括电磁场。他认为这是相对论发展的第三个阶段,即统一场论。 1925年以后,爱因斯坦全力以赴去探索统一场论。开头几年他非常乐观,以为胜利在望;后来发现困难重重,他认为现有的数学工具不够用;1928年以后转入纯数学的探索。他尝试着用各种方法,但都没有取得具有真正物理意义的结果。 1925年~1955年这30年中,除了关于量子力学的完备性问题、引力波以及广义相对论的运动问题以外,爱因斯坦几乎把他全部的科学创造精力都用于统一场论的探索。 1937年,在两个助手合作下,他从广义相对论的引力场方程推导出运动方程,进一步揭示了空间——时间、物质、运动之间的统一性,这是广义相对论的重大发展,也是爱因斯坦在科学创造活动中所取得的最后一个重大成果。 在同一场理论方面,他始终没有成功,他从不气馁,每次都满怀信心底从头开始。由于他远离了当时物理学研究的主流,独自去进攻当时没有条件解决的难题,因此,同20年代的处境相反,他晚年在物理学界非常孤立。可是他依然无所畏惧,毫不动摇地走他自己所认定的道路,直到临终前一天,他还在病床上准备继续他的统一场理论的数学计算。 成功的秘诀 有一次,一个美国记者问爱因斯坦关于他成功的秘决。他回答:“早在1901年,我还是二十二岁的青年时,我已经发现了成功的公式。我可以把这公式的秘密告诉你,那就是A=X+Y+Z! A就是成功,X就是努力工作,Y是懂得休息,Z是少说废话!这公式对我有用,我想对许多人也是一样有用。”
1905年~~~爱恩斯坦提出相对论~~~
1665年至1667年间,牛顿因躲避瘟疫,离开剑桥到故乡度过了几年。在这几年中,他构建了微分学思想,创立了万有引力定律,还将可见光分解为单色光,在数学、力学、光学三个领域都做出了开创性的贡献。“奇迹年”这个拉丁语词原本是用来称呼牛顿的1666年的,后来也被用来称呼爱因斯坦的1905年。 这一年中,26岁的爱因斯坦发表了五篇具有划时代意义的科学论文,其中最重要的当然是创立狭义相对论的《论动体的电动力学》和《物体的惯性同它所含的能量有关吗》。一年之内,爱因斯坦在布朗运动、量子论和狭义相对论这三个方面都做出了开创性的贡献,凭借这些贡献中的任何一个,他都足以赢得诺贝尔奖。 既然是奇迹年,就不会精确到月日,而是整个一年。
1905年,爱因斯坦大学毕业,没上博士也没从事学术工作。于是,他在瑞士专利局谋了一份临时工作。这一年,他利用余暇写成了四篇研究论文,发表在当时重要的物理刊物《物理学杂志》上。 第一篇论证了光具有粒子性又具有波动性,并解释了当固体受光照射而发射电子的光电效应。第二篇阐明了分子和原子的存在。第三篇引进了狭义相对论,表明时空不是绝对的。第四篇第一次表达了著名的质能公式:E=mc2。 这四篇论文是一位倾其一生从事研究的物理学家一段生涯中所作出的不可磨灭的成果。为此,许多科学史家把1905称为奇迹年。
在《政治学研究》、《教育研究》、《中国行政管理》、《马克思主义与现实》等刊物上发表论文220余篇,其中,2000年以来,代表性的论文有:(1) 论行政申诉 《政治学研究》2000年01月(2) 英国新公共管理运动走向分析 《中国行政管理》2000年01月(3) 运用市场机制促进高教管理体制改革《教育研究》2000年07月(4) 行政成本的制度分析 《中国行政管理》2001年03月(5) 当代城市发展中的行政联合趋向 《中国行政管理》2002年07月(6) 21世纪行政发展的新亮点 《中国行政管理》2003年02月(7) 公共部门绩效评估初探 《中国行政管理》2004年02月(8) 公共部门绩效评估的主体构成 《中国行政管理》2004年05月(9) 学术会议治理模式新探 《中国行政管理》2004年08月(10) 政府绩效评估的模式建构 《政治学研究》2005年02月(11) 公共部门绩效评估的对象选择 《中国行政管理》2005年11月(12)政府绩效评估指标设计的类型与方法 《中国行政管理》2007年2月(13)加强公民生态文明意识建设的思考《马克思主义与现实》2007年3月(14)政府绩效评估指标设计的开发思路《中国行政管理》2008年2月(15)行政告知:从管制行政到服务行政——构建服务型政府的深入思考《马克思主义与现实》2009年5月(16)政府成本的内涵设定与构成要素 《厦门大学学报》2009年5月(17)绩效标准:政府绩效管理的新工具《中国行政管理》2010年4月(18)助推器 回音壁 摇篮曲 《中国行政管理》2010年9月(19)构建整体性绩效管理框架:21世纪西方国家政府绩效管理的最新视点《中国行政管理》2011年4月(20)澳大利亚绩效审计发展新趋势 《中国行政管理》2012年4月
1.三峡链子崖危岩体稳定性分析及锚固工程优化设计,2004年,排名:第一,主要合作者:张颖等,发表刊物:岩土工程学报.科学出版社。2.三峡库区地下水渗透压力对滑坡稳定性影响研究,2004年,排名:第一,发表刊物:中国地质灾害与防治学报. 地质出版社。3.三峡库区边坡结构及失稳模式研究. 2000年,排名:第一,主要合作者:陈波等,发表刊物:工程地质学报. 科学出版社。4.三峡巫山滑坡实时监测预警(Real-time monitoring and early warning of landslides at Wushan Town, the Three Gorges),2010年,排名:第一,主要合作者:王洪德等,发表刊物:LANDSLIDES(滑坡学报,英文,Springer-Verlag出版,SCI收录)。5.重庆武隆滑坡斜倾视向滑动机理研究(Mechanism on apparent dip sliding of inclined bedding rockslide of Jiweishan,ChongQing.),2010年,排名:第一,发表刊物:LANDSLIDES(滑坡学报,英文,Springer-Verlag出版,SCI收录)。6.四川省丹巴县城滑坡失稳及应急加固研究,2008年,排名:第一,主要合作者:李廷强,发表刊物:岩石力学与工程学报.科学出版社。7.InSAR和GPS耦合技术在滑坡监测中的应用(Integration of GPS with InSAR to monitoring of the Jiaju landslide,Sichuan),2010年,排名:第一,主要合作者:郑万模等,发表刊物:LANDSLIDES(滑坡学报,英文,Springer-Verlag出版,SCI收录)。8.西藏易贡高速远程滑坡空气动力学模型研究(Aerodynamic Modeling on the Yigong Gigantic Rock Slide-Debris Avalanche, Tibet, 2011年,排名:第一,主要合作者:邢爱国,发表刊物:Bulletin of Engineering Geology and Environment(工程地质与环境学报,英文,Springer-Verlag出版,SCI)。9.汶川地震滑坡灾害研究(Landslide hazards triggered by the 2008 Wenchuan earthquake, Sichuan, China),2009年,排名:第一,主要合作者:Wang Fawu,发表刊物:LANDSLIDES(滑坡学报,英文,Springer-Verlag出版,SCI收录)。10.汶川地震工程地质与地质灾害,2013年,排名:第一,主要合作者:张永双等。北京:科学出版社。
如今评职称,基本中高级职称都需要发表职称论文,下面是我整理的评职称论文发表时间,给大家参考。
【一】职称论文发表时间
一、职称论文发表期限长短不一,或者说有效期都不一样,主要是看两个职称等级之间的时间差。
我国职称评审文件中明确要求了,用来评中级职称的论文是不能再拿来评高级职称的。
比如说,2010年获得助理工程师,然后开始准备评中级职称,2015年评上中级工程师,然后开始准备高级工程师评审。
那2010年-2015年之间发表的论文只能用来评中级职称,这论文在评完中级职称后就无效了,不能再拿来留作评高级职称。
那这个论文是2011年发表的,那评职称的有效期就是4年,2013年发表的,有效期就是3年。
而2015年获得中级工程师职称后发表的论文,是可以用来评高级职称的。
二、具有时效性的职称论文容易过期。
有的人担心发表早了,会不会在评职称时时用不上,其实这个不用太过担心。
只要你的论文与要申报的职称等级要求的论文相符,且没有用来评过职称,那都是有效的。
需要担心的是,有时效性的论文
我们发表职称论文时一定要注意这个时效性问题。
所以,我们发表论文时尽量选择时效性不强的选题。
三、数据库收录需要时间。
大多职称评审不仅要看到样刊,还需要数据库收录证明。
文章刊登出版需要时间,文章上网也需要时间,每个期刊基本都会被知网、万方、龙源等数据库收录,这个收录时间需要1-3个月。
有的单位需要数据收录证明,那在发表论文时一定要把数据库收录时间算进论文发表计划里。
这也是为什么,中国58论文网建议大家发表论文提前一年的原因,尽量提前,不要拖后。
四、新旧刊物每年诞生停刊,核心期刊目录也在变化。
我们在发表论文时要注意一下刊物的变迁。
每年都有新刊物诞生,旧刊物停刊。
如果论文发表后评职称时刊物停刊了,论文就不能拿来评职称了。
还有就是中文核心期刊目录每四年变化一次,如果正好赶上目录变更的年份,千万要找一本影响力较大的核心期刊发表,以防论文发表的期刊被剔除核心期刊目录而不能评职称。
【二】其实,论文的有效期,主要取决于职称评职的年限。
例如:论文是在拿到助工证后发表的,那,拿助工证的时间与到评中级职称年限这中间的时间段为论文的有效期,中级评副高、副高评正高,依此类推。
当您利用文章评完中级后,再评副高,此文章就不能再使用,需要发表新的`论文。
建议评职论文提前发表,因为,现在很多区域评审,不仅仅需要看到期刊,还需在权威数据库(万方、龙源、知网、维普)检索文章是否被收录,文章刊登出版需要时间,同样,文章上网也需要时间。
无论是中国知网还是万方数据,通常要在杂志出刊后的1-3个月内才会登录该期文章。
一般的登录过程是:杂志出刊后,杂志社向中国知网或万方数据递交光盘版的期刊数据,中国知网或万方数据会根据自身的更新速度将光盘数据录入系统。
因为工作量大,所以一般要在1-3个月内才会登录完。
一般文章刊登发表后,3到5个月时间,文章才会被数据库全文收录。
所以,很多作者只考虑到文章刊登时间,而忽略了上网的时间。
因此翰林论文工作室建议大家,发表职称论文一定要打好提前量,论文发表在离评职称2-3年内比较好。
不过每个省市对职称评审的论文要求有所不同,具体还要是建议大家以当地的评审要求为准。
【三】职称论文的最佳准备时间
新闻出版总署和中国知网、万方,龙源,数据的同时检查也逐渐成为了职称评审单位对“刊登作者学术成果”的刊物进行检测真伪的有效手段。
但无论是中国知网还是万方数据,通常要在杂志出刊后的1-3个月内才会登录该期文章。
所以,很多单位对职称评审中递交的期刊要求的时间提前了很多。
比如在17年上半年参加职称评审的,就有要求论文必须在16年12月份前发表,也有要求必须在17年4月份前发表。
其实都是在给中国知网或万方数据让录入时间,以便判断论文发表是否有效。
这就要求作者必须提前发表论文,才可以在职称评审中用得到。
而论文发表通常在投稿到出刊之间又需要1-3个月的时间。
比如现在投稿的文章,发表时间一般安排在9月份到年底12月份,这样发表的文章在明年的4月份的使用中就绝对没有问题。
而明年4月份的职称评审通知,通常是在当年出通知。
等作者收到通知再发表论文,通常就会错过了时间。
在现实工作中,如果大家是评正高/副高,一般都要求发表在有一定分量的核心期刊上,而核心期刊一般都会提前半年甚至更长的时间就已经把版面全部安排好(如现在是8月,很多核心期刊在现在8月就已经在安排明年2-3月的版面,有的甚至已经安排到明年6月及以后)所以,大家一定要早做准备。
综上,我们建议作者,如果是为职称发表论文,不妨至少提前半年以上投稿,提早做准备。
二、不同职称对职称论文的要求不同
申报高级:要在具有CN刊号、ISSN刊号的专业期刊发表论文2篇以上或在具有CN刊号、ISSN刊号的专业期刊发表论文1篇以上,以及解决复杂技术问题,而撰写的有较高水平的专项技术分析(论证)报告2篇以上。
申请中级:要在具有CN刊号、ISSN刊号的专业期刊发表论文1篇或在具有CN刊号、ISSN刊号的专业期刊发表论文1篇以上,以及解决技术问题而撰写的专项技术分析(论证)报告1篇以上。
论文发表有两种方式,第一:通过自己投稿,这种情况一般耗时时间比较长,稿件处理慢,录用的机会也小;第二:直接找杂志社发表,稿件处理快,通过几率高,方便快捷!
三、选择合适的期刊
由于晋升和评定职称都有相应的规定和要求,故而许多单位都对职称论文投递的期刊有着一定的要求和规定,所以我们在选择职称论文期刊的时候应该注意:
1、发表论文的用途。
发表论文是晋升职称?年底单位考核?还是学术交流及扬名?如果是晋升职称,期刊的品质毫无疑问是选择因素的重中之重,随便的发表一个品质一般的期刊,对晋升职称没有任何帮助,有时候还会起到反作用。
2、期刊的办刊方向。
如果您写的是药学方面的文章,那当然不能发表在主打妇产科的杂志上。
所以杂志的办刊方向、栏目内容等要与您的文章相符合才是完美的。
3、不能一味的追求版面费低的杂志。
国内医学期刊8000多种,每个杂志的品质,受欢迎程度,晋升打分认可度都是不同的,版面费标准自然也有所不同,建议作者根据自己的发表用途及经济实力,综合考虑,选择最合适的杂志。
而不要一味的追求便宜。
4、杂志的最新刊期。
如果您晋升职称,必须赶在报材料之前拿到杂志,部分省份还要求晋升前一年就要发表见刊;如果您年底考核,自然要赶在年底之前见刊。
还要考量杂志邮寄的时间以及快递邮寄过程的各种意外因素,因此,在投稿之前一定要询问杂志当前的刊期,确保有充裕的时间可以见刊。
最后,提醒各位作者朋友们,因为地域及单位的不同,职称评定的要求也不同,所以评什么样的职称,需要在什么样的期刊上发表论文,不能一概而论。
在写作论文前一定要弄清楚本单位对于评职称的明文要求,选择期刊才能做到有的放矢。
评职称发表的论文有效期多久?全国最权威的职称论文辅导、免费期刊、论文考试答辩取消、条件放宽文件政策,搜:论文热线+要我爬山.起腰【爬】.我就爬腰(【爬】换成汉字八,其他换成10位数字再搜)。翻到58页后,是总结的经验教训。一、大道至简、职称不难。二、对照评审条件找差距。三、业绩技巧。四、不符合评审条件也可能合格。五、2012年后,关系的作用几乎是零。论文考试答辩取消、条件放宽文件政策,先搜:高级职称论文+要我爬山.起腰【爬】.我就爬腰(【爬】换成汉字八,其他换成10位数字再搜,必须搜够11位。否则找不到,还会搜到假冒的)。再把“职称”换成“经济师、会计师、审计师、统计师、政工师、工程师、教师、医师等任何职称”再搜,都能找到。11位电话号码=要我爬山.起腰爬.我就爬腰(谐音好记)=要我发.先起腰.发我就发腰(谐音好记)=要吾扒山.起腰扒.吾就扒腰(准确但不好记)。即再搜:高级经济师论文+要我爬山.起腰【爬】.我就爬腰、高级会计师论文+要我发先起腰【发】我就发腰、高级审计师论文+要我发先起腰【发】我就发腰、高级统计师论文+要我发先起腰【发】我就发腰、高级政工师论文+要我发先起腰【发】我就发腰、高级工程师论文+要我发先起腰【发】我就发腰、高级教师论文+要我发先起腰【发】我就发腰、副主任医师论文+要我发先起腰【发】我就发腰、高级农经师论文+要我发先起腰【发】我就发腰、高级农艺师论文+要我发先起腰【发】我就发腰、高级畜牧师论文+要我发先起腰【发】我就发腰、高级兽医师论文+要我发先起腰【发】我就发腰、高级水产师论文+要我发先起腰【发】我就发腰、副研究员论文+要我发先起腰【发】我就发腰,等。考评难度从小到大是:高级经济师(最简单)、高级会计师、高级审计师、高级统计师(最难)。证书都有用。如果聘用,涨工资。如果不聘用,可用证书包油条,防止油沾手。不能再搜:高级职称论文郑密路全国办、河南职称论文大学、郑州职称论文大学,全国太出名了,都被假冒了。只能搜:论文热线+要我爬山.起腰【爬】.我就爬腰(【爬】换成汉字八,其他换成10位数字再搜),永远无法假冒。11位电话号码=要我爬山.起腰爬.我就爬腰(谐音好记)=要我发.先起腰.发我就发腰(谐音好记)=要吾扒山.起腰扒.吾就扒腰(准确但不好记)。发现规律:搜任何论文问题答案、免费期刊、论文考试答辩取消、条件放宽文件政策,有两个办法,都是搜后翻到58页后。一、11位电话号码在后,搜:论文热线+要我爬山.起腰【爬】.我就爬腰(【爬】换成汉字八,其他换成数字,再搜,注意必须搜够11位。否则不但找不到,还会搜到假冒的。下同)、高级职称论文+要我爬山.起腰【爬】.我就爬腰、高级职称论文取消+要我爬山.起腰【爬】.我就爬腰、高级职称论文价格+要我爬山.起腰【爬】.我就爬腰、高级经济师论文+要我发先起腰【发】我就发腰、高级会计师论文+要我发先起腰【发】我就发腰、其他职称论文+要我发先起腰【发】我就发腰、职称论文要求+要我发先起腰【发】我就发腰、职称论文价格+要我发先起腰【发】我就发腰、职称论文网站+要我发先起腰【发】我就发腰、职称论文发表+要我发先起腰【发】我就发腰、职称论文怎么写+要我发先起腰【发】我就发腰、职称论文三大网站+要我发先起腰【发】我就发腰、职称论文任何问题+要我发先起腰【发】我就发腰、论文快速见刊+要我发先起腰【发】我就发腰。二、11位电话号码在前,搜:要我发先起腰【发】我就发腰(【发】换成汉字八,其他换成数字再搜)论文热线、前同+高级职称论文、前同+高级职称论文取消、前同+高级职称论文价格、前同+高级经济师论文、前同+高级会计师论文、前同+其他职称论文。以高级经济师为例,搜:高级经济师任何问题+要我爬山.起腰【爬】.我就爬腰(【爬】换成汉字八,其他换成数字,再搜),都能找到答案。如搜:高级经济师论文+要我爬山.起腰【爬】.我就爬腰、高级经济师论文取消+要我爬山.起腰【爬】.我就爬腰、高级经济师论文范文+要我爬山.起腰【爬】.我就爬腰、高级经济师论文选题+要我发先起腰【发】我就发腰、高级经济师报考条件+要我发先起腰【发】我就发腰、高级经济师评审条件+要我发先起腰【发】我就发腰、高级经济师考试科目+要我发先起腰【发】我就发腰、高级经济师考试用书+要我发先起腰【发】我就发腰、高级经济师评审业绩成果+要我发先起腰【发】我就发腰,等。把“经济”换成“会计、审计、统计、政工、工程、教师、医师等任何职称”再搜,都能找到答案。以高级职称论文为例,搜:高级职称论文任何问题+要我发先起腰【发】我就发腰(【发】换成汉字八,其他换成数字再搜),都能找到答案。如搜:高级职称论文的要求+要我发先起腰【发】我就发腰、高级职称论文价格+要我发先起腰【发】我就发腰、高级职称论文发表要求+要我发先起腰【发】我就发腰、高级职称论文有效期+要我发先起腰【发】我就发腰、高级职称论文期刊+要我发先起腰【发】我就发腰、高级职称论文答辩+要我发先起腰【发】我就发腰、高级经济师论文+要我发先起腰【发】我就发腰、高级会计师论文+要我发先起腰【发】我就发腰、其他职称论文+要我发先起腰【发】我就发腰。搜:任何省任何职称论文+要我发先起腰【发】我就发腰,如搜:河南高级经济师论文+要我发先起腰【发】我就发腰、山东高级会计师论文+要我发先起腰【发】我就发腰。必须搜:问题+11位(要我发先起腰【发】我就发腰,【发】换成汉字八,其他换成数字)。否则会搜到假冒。为什么只能搜11位电话号码?因为太出名了。30年创建的10多个享誉全国的名牌全部被假冒,甚至前几位电话号码也被假冒,唯一无法假冒的是11位电话号码。仅职称论文辅导一项,就引起全国几百人争相假冒。搜:要我爬山-起腰爬-我就爬腰(换成数字)论文热线30年创建的名牌被假冒经历。结论:防假冒唯一的办法是记住搜11位电话号码(第七位换成汉字八),此外再无办法。还必须搜11位,因为前几位也被假冒了。假冒已经到了登峰造极、无孔不入的程度。只能假冒名称和11位电话号码的前几位,无法假冒11位。第一阶段:1992年-今,假冒名称。现在搜:郑州职称论文大学、河南职称论文大学、郑密路论文,等。标“广告保障”的全是假冒,搜电话号码即可发现都不在郑州。第二阶段:2022年后,又开始假冒11位电话号码的前3-6位数。现在搜:论文网158、论文热线158、全国论文办158371、职称论文期刊158371、高级会计师论文158371,等。标“广告保障”的全是假冒。假冒已经到了登峰造极、无孔不入的程度。要我爬山-起腰爬-我就爬腰(换成数字)=要我发-先起腰-发我就发腰=要吾扒山-起腰扒-吾就扒腰论文热线全国出名到什么程度?30年创建的10多个享誉全国的名牌(河南郑州职称论文大学郑密路论文等)全部被假冒,并引发郑州论文热。搜“论文发表”类关键词,会发现标明【广告保障】河南郑州最多。其实,搜电话号码即可发现都不在郑州。由此产生顺口溜,搜:河南郑州职称论文,外地广告成群。假冒多到什么程度?网上已经出现顺口溜。搜:河南职称论文大学广告,外地假冒。郑州职称论文大学广告,外地假冒。河南郑州职称论文,外地广告成群。高级职称论文郑密路全国办广告,外地假冒。郑州高级职称论文大学广告,外地假冒。河南郑州郑密路论文,外地成群。看到广告保障,想到假冒上当。一眼看出(标明【广告】,一眼即可辨认),一搜确定(搜电话号码,不在郑州,多是)。河南郑州郑密路论文广告,外地假冒。高级职称郑密路全国办在郑州,假冒都标明【广告】不在郑州,全国只有郑州一个城市有郑密路。搜:简单两步查出论文。搜:要我爬山.起腰【爬】.我就爬腰(【爬】换成汉字八,其他换成数字再搜)论文热线防指南。第一步,一眼看出。标明【广告保障】的多是。搜:郑州职称论文大学、河南职称论文大学、郑州高级职称论文大学、高级职称论文郑密路全国办、高级经济师论文郑密路网,标明【广告保障】的全是。这些都是论文热线(要我爬山.起腰爬.我就爬腰,谐音好记)30年创建的享誉全国的名牌,全部被假冒。唯一无法假冒的是11位电话号码。甚至前几位电话号码也被假冒。搜:全国论文办158371、论文网158、高级会计师论文158371,标明【广告保障】的全是。第二步,一搜确定。搜【广告保障】的电话号码,不在郑州,全是。哪有河南郑州职称论文大学不在河南郑州的道理?加微信,问出公司名称,即可查出。搜公司名称,可查出法定代表人。搜公司名称法定代表人姓名是,看网上投诉。论文取消文件政策以后永远、且只能记住搜:论文热线+要我爬山.起腰【爬】.我就爬腰(【爬】换成汉字八,其他换成数字再搜,后同)、高级职称论文+后同、高级经济师论文+后同。再把“经济”换成“会计、审计、统计、政工、工程、教师、医师等任何职称”再搜,都能找到。永远忘记、不要再搜论文热线30年创建的享誉全国的名牌“郑州职称论文大学、河南职称论文大学、郑密路论文”,因为全部被假冒了,搜到的标明【广告保障】的全是假冒,搜【广告保障】的电话号码即可发现不在郑州。哪有河南郑州职称论文大学郑密路论文不在郑州的道理?
11月发表的sci论文算发表时间为发表年度。11月发表的sci论文算发表时间为发表年度。11月申请,本年度12月31日前发表通过,则是本年度发表,次年发表通过,则是次年发表年度。
职称论文的一大特点就是时效性,文章具备一定时效性就必须是一定时间段内发表的论文,太过久远的文章不符合时间要求,也就不具备时效性,也就不能用来申报职称,所以职称论文是由有效期的,是有时间限制的,时常有作者想用学生时代写作的论文申报职称,从时间要求上来说是不符合要求的,评职称论文有效期是多久?职称论文的有效期还是比较宽松的,一般是申报前3-5年内发表的文章,只要没有公开发表过,没有在其他方面使用过,就可以用来申报职称,作者需要注意,并不是只要时间符合的文章就可以拿来用,还要看文章的研究方向和内容是否适合本次申报,这是最关键的,因为有些文章的内容经过时间的推移可能已经没有创新价值了,内容是本学科内比较陈旧的东西,这样就不适合申报职称了。还需要注意的是职称论文不能反复使用,申报中级职称时的论文到了高级职称申报时就不能再次使用了,需要重新发表职称论文,由此看来,职称论文的发表要尽可能“新鲜”,研究内容尽可能走在学科发展前沿。所以职称论文还是越早准备越好的,一般省级和国家级期刊,发表周期为3-6个月;核心期刊发表周期为12个月左右,根据你的需要,适当的提前发表才好。什么时候发论文的难易程度都是一样,只不过每年年底可能人会多点,难易程度只跟你的论文质量,和期刊有关,跟发表时间无关。