• 回答数

    4

  • 浏览数

    151

情感白羊座
首页 > 论文发表 > 吴恩达发表的论文

4个回答 默认排序
  • 默认排序
  • 按时间排序

donkeybenben

已采纳

小西:小迪小迪,我发现人工智能发展史上很多事情都跟下棋有关呐。 小迪:是啊,人工智能发展史还是要从下棋说起,棋类游戏很多时候都被人类看做高智商游戏,在棋类游戏中让机器与人类博弈自然再好不过了。早在1769年,匈牙利作家兼发明家Wolfgang von Kempelen就建造了机器人TheTurk,用于与国际象棋高手博弈,但是最终被揭穿,原来是机器人的箱子里藏着一个人。虽然这是个,但是也体现了棋类游戏是人机博弈中的焦点。 小西:哇,这么早啊! 小迪:是啊,在1968年上映的电影《2001太空漫游》里,有个情节是机器人HAL与人类Frank下国际象棋,最终人类在机器人面前甘拜下风。 小西:哈哈,看来很早人们就觉得有一天,机器人会在下棋方面超过人类哦。 小迪:是啊,直到1997年,IBM的深蓝智能系统战胜了国际象棋世界冠军Kasparov,这是一次正式意义上的机器在国际象棋领域战胜了人类。不过,当时时代杂志发表的文章还认为,计算机想要在围棋上战胜人类,需要再过上一百年甚至更长的时间。因为围棋相比于国际象棋复杂很多,而IBM的深蓝也只是一个暴力求解的系统,当时的计算机能力在围棋千千万万种变化情况下取胜是不可能的。 小西:后来我知道。没有过100年,20年后AlphaGo在20年后的2016年打败了围棋高手李世石,这下人工智能引起了全世界的关注。 小迪:恭喜你,学会抢答了! 小西:哈哈,过奖过奖。除了下棋,人工智能发展史上有没有什么特别著名的事件或者有名的大师呢,快给我科普科普呀! 小迪:那可就太多了啊,无数科学家默默地耕耘才有了今天智能化的社会,三天三夜都说不完。我就说说近些年火爆的深度学习的发展史吧。 小西:好,洗耳恭听呢! 感知器的发明 1943年Warren McCulloch和Walter Pitts一起提出计算模型,在1957年康奈尔大学的Frank Rosenblatt提出了感知器的概念,这是整个深度学习的开端,感知器是第一个具有自组织自学习能力的数学模型。Rosenblatt乐观地预测感知器最终可以学习,做决定和翻译语言。感知器技术在六十年代非常火热,受到了美国海军的资金支持,希望它以后能够像人一样活动,并且有自我意识。 第一次低潮 Rosenblatt有一个高中校友叫做Minsky,在60年代,两人在感知器的问题上吵得不可开交。R认为感知器将无所不能,M觉得感知器存在很大的缺陷,应用有限。1969年,Minsky出版了新书《感知器:计算几何简介》,这本书中描述了感知器的两个重要问题: 单层神经网络不能解决不可线性分割的问题,典型例子:异或门;当时的电脑完全没有能力承受神经网络的超大规模计算。 随后的十多年,人工智能转入第一次低潮,而Rosenblatt也在他43生日时,因海事丧生,遗憾未能见到神经网络后期的复兴。 Geoffrey Hinton与神经网络 1970年,此时的神经网络正处于第一次低潮期,爱丁堡大学的心理学学士Geoffrey Hinton刚刚毕业。他一直对脑科学非常着迷,同学告诉他,大脑对事物和概念的记忆,不是存储在某个单一的地方,而是分布式的存在一个巨大的神经网络中。分布式表征让Hinton感悟很多,随后的多年里他一直从事神经网络方面的研究,在爱丁堡继续攻读博士学位的他把人工智能作为自己的研究领域。 Rumelhart与BP算法 传统的神经网络拥有巨大的计算量,上世纪的计算机计算能力尚未能满足神经网络的训练。1986年7月,Hinton和David Rumelhart合作在Nature杂志上发表论文系统地阐述了BP算法: 反向传播算法(BP)把纠错运算量下降到只和神经元数目有关;BP算法在神经网络中加入隐层,能够解决非线性问题。 BP算法的效率相比传统神经网络大大提高,计算机的算力在上世纪后期也大幅提高,神经网络开始复苏,引领人工智能走向第二次辉煌。 Yann Lecun与卷积神经网络 1960年Yann Lecun在巴黎出身,在法国获得博士学位后,追随Hinton做了一年博士后,随后加入贝尔实验室。在1989年,Lecun发表论文提出卷积神经网络,并且结合反向传播算法应用在手写邮政编码上,取得了非常好的效果,识别率高达95%。基于这项技术的支票识别系统在90年代占据了美国接近20%的市场。 但也是在贝尔实验室,Yann Lecun的同事Vladmir Vapnik的研究又把神经网络的研究带入了第二个寒冬。 Hinton与深度学习 2003年,Geoffrey Hinton在多伦多大学苦苦钻研着神经网络。在与加拿大先进研究院(CIFAR)的负责人Melvin Silverman交谈后,负责人决定支持Hinton团队十年来进行神经网络的研究。在拿到资助后,Hinton做的第一件事就是把神经网络改名为深度学习。此后的一段时间里,同事经常会听到Hinton在办公室大叫:“我知道神经网络是如何工作的了!” DBN与RBN 2006年Hinton与合作者发表论文——《A Fast Algorithm for Deep BeliefNet》(DBN)。这篇文章中的算法借用了统计力学中“波尔兹曼分布”的概念,使用了所谓的“受限玻尔兹曼机”,也就是RBN来学习。而DBN也就是几层RBN叠加在一起。RBN可以从输入数据进行预训练,自己发现重要的特征,对神经网络的权重进行有效的初始化。这里就出现了另外两个技术——特征提取器与自动编码器。经过MNIST数据集的训练后,识别错误率最低降到了只有1.25%。 吴恩达与GPU 2007年,英伟达推出cuda的GPU软件接口,GPU编程得以极大发展。2009年6月,斯坦福大学的Rajat Raina和吴恩达合作发表文章,论文采用DBNs模型和稀疏编码,模型参数高达一亿,使用GPU运行速度训练模型,相比传统双核CPU最快时相差70倍,把本来需要几周训练的时间降到了一天。算力的进步再次加速了人工智能的快速发展。 黄仁勋与GPU 黄仁勋也是一名华人,1963年出生于台湾,在1993年于斯坦福毕业后创立了英伟达公司,英伟达起家时主要做图像处理芯片,后来黄仁勋发明GPU这个词。相比于CPU架构,GPU善于大批量数据并行处理。而神经网络的计算工作,本质上就是大量的矩阵计算的操作,GPU的发展为深度学习奠定了算力的基础。 李飞飞与ImageNet 深度学习的三大基础——算法,算力和数据。上面提到的主要是算法与算力的发展,而数据集在深度学习发展也起到了至关重要的作用。又是一位华人学者——李飞飞,于2009年建立ImageNet数据集,以供计算机视觉工作者使用,数据集建立的时候,包含320个图像。2010年,ILSVRC2010第一次举办,这是以ImageNet为基础的大型图像识别大赛,比赛也推动了图像识别技术的飞速发展。2012年的比赛,神经网络第一次在图像识别领域击败其他技术,人工智能步入深度学习时代,这也是一个历史性的转折点。 Yoshua Bengio与RELU 2011年,加拿大学者Xavier Glorot与Yoshua Bengio联合发表文章,在算法中提出一种激活函数——RELU,也被称为修正线性单元,不仅识别错误率普遍降低,而且其有效性对于神经网络是否预训练过并不敏感。而且在计算力方面得到提升,也不存在传统激活函数的梯度消失问题。 Schmidhuber与LSTM 其实早在1997年,瑞士Lugano大学的Suhmidhuber和他的学生合作,提出了长短期记忆模型(LSTM)。LSTM背后要解决的问题就是如何将有效的信息,在多层循环神经网络传递之后,仍能传送到需要的地方去。LSTM模块,是通过内在参数的设定,决定某个输入参数在很久之后是否还值得记住,何时取出使用,何时废弃不用。 后记 小迪:其实还有好多有突出贡献的的大师,要是都列出来可以出一本很厚很厚的书啦! 小西:这些大师都好厉害呀,为了我们的智能化生活体验,辛勤付出了一辈子。 小迪:是啊,还有很多学者默默无闻地工作,一生清苦。 小西:他们都好伟大,有突出贡献的都应该发奖发奖金,对对对,诺贝尔奖! 小迪:哈哈。诺贝尔奖多数是为基础学科设立的。不过计算机界也有“诺贝尔奖”——图灵奖,这可是计算机界最高奖项哦!2019年3月27日,ACM宣布,Geoffrey Hinton,Yann LeCun ,和Yoshua Bengio共同获得了2018年的图灵奖。 小西:太棒了,实至名归! 小迪:当然,图灵奖在此之前也授予了很多在人工智能领域的大牛,像Minsky,John McCarthy这些,还有华人科学家,现在在清华大学任职从事人工智能教育的姚期智先生在2000也获得过图灵奖呢! 小西:大师们太不容易了,我们也要好好学习呀! 小迪:是呀!如今我们站在巨人的肩膀上,许多人都可以接触到深度学习,机器学习的内容,不管是工业界还是学术界,人工智能都是一片火热! 小西:希望这一轮人工智能的兴起不会有低潮,一直蓬勃发展下去,更好地造福人类。 小迪:嗯!

222 评论

liuyuecao110

吴恩达早期的工作包括斯坦福自动控制直升机项目,吴恩达团队开发了世界上最先进的自动控制直升机之一。吴恩达同时也是机器学习、机器人技术和相关领域的100多篇论文的作者或合作者,他在计算机视觉的一些工作被一系列的出版物和评论文章所重点引用。 早期的另一项工作是the STAIR (Stanford Artificial Intelligence Robot) project,即斯坦福人工智能机器人项目,项目最终开发了广泛使用的开源机器人技术软件平台ROS。2011年,吴恩达在谷歌成立了“Google Brain”项目,这个项目利用谷歌的分布式计算框架计算和学习大规模人工神经网络。这个项目重要研究成果是,在16000个CPU核心上利用深度学习算法学习到的10亿参数的神经网络,能够在没有任何先验知识的情况下,仅仅通过观看无标注的YouTube的视频学习到识别高级别的概念,如猫,这就是著名的“Google Cat”。这个项目的技术已经被应用到了安卓操作系统的语音识别系统上。 吴恩达是在线教育平台Coursera的联合创始人,吴恩达在2008年发起了“Stanford Engineering Everywhere”(SEE)项目,这个项目把斯坦福的许多课程放到网上,供免费学习。NG也教了一些课程,如机器学习课程,包含了他录制的视频讲座和斯坦福CS299课程的学生材料。吴恩达的理想是让世界上每个人能够接受高质量的、免费的教育。今天,Coursera和世界上一些顶尖大学的合作者们一起提供高质量的免费在线课程。Coursera是世界上最大的MOOC平台。 Deep Learning with COTS HPC SystemsAdam Coates, Brody Huval, Tao Wang, David J. Wu, Bryan Catanzaro and Andrew Y. Ng in ICML 2013.Parsing with Compositional Vector GrammarsJohn Bauer,Richard Socher, Christopher D. Manning, Andrew Y. Ng in ACL 2013.Learning New Facts From Knowledge Bases With Neural Tensor Networks and Semantic Word VectorsDanqi Chen,Richard Socher, Christopher D. Manning, Andrew Y. Ng in ICLR 2013.Convolutional-Recursive Deep Learning for 3D Object Classification.Richard Socher, Brody Huval, Bharath Bhat, Christopher D. Manning, Andrew Y. Ng in NIPS 2012.Improving Word Representations via Global Context and Multiple Word PrototypesEric H. Huang, Richard Socher, Christopher D. Manning and Andrew Y. Ng in ACL 2012.Large Scale Distributed Deep Networks.J. Dean, G.S. Corrado, R. Monga, K. Chen, M. Devin, Q.V. Le, M.Z. Mao, M.A. Ranzato, A. Senior, P. Tucker, K. Yang, A. Y. Ng in NIPS 2012.Recurrent Neural Networks for Noise Reduction in Robust ASR.A.L. Maas, Q.V. Le, T.M. O'Neil, O. Vinyals, P. Nguyen, and Andrew Y. Ng in Interspeech 2012.Word-level Acoustic Modeling with Convolutional Vector Regression Learning WorkshopAndrew L. Maas, Stephen D. Miller, Tyler M. O'Neil, Andrew Y. Ng, and Patrick Nguyen in ICML 2012.Emergence of Object-Selective Features in Unsupervised Feature Learning.Adam Coates, Andrej Karpathy, and Andrew Y. Ng in NIPS 2012.Deep Learning of Invariant Features via Simulated Fixations in VideoWill Y. Zou, Shenghuo Zhu, Andrew Y. Ng, Kai Yu in NIPS 2012.Learning Feature Representations with K-means.Adam Coates and Andrew Y. Ng in Neural Networks: Tricks of the Trade, Reloaded, Springer LNCS 2012.Building High-Level Features using Large Scale Unsupervised LearningQuoc V. Le, Marc'Aurelio Ranzato, Rajat Monga, Matthieu Devin, Kai Chen, Greg S. Corrado, Jeffrey Dean and Andrew Y. Ng in ICML 2012.Semantic Compositionality through Recursive Matrix-Vector SpacesRichard Socher, Brody Huval, Christopher D. Manning and Andrew Y. Ng in EMNLP 2012.End-to-End Text Recognition with Convolutional Neural NetworksTao Wang, David J. Wu, Adam Coates and Andrew Y. Ng in ICPR 2012.Selecting Receptive Fields in Deep NetworksAdam Coates and Andrew Y. Ng in NIPS 2011.ICA with Reconstruction Cost for Efficient Overcomplete Feature LearningQuoc V. Le, Alex Karpenko, Jiquan Ngiam and Andrew Y. Ng in NIPS 2011.Sparse FilteringJiquan Ngiam, Pangwei Koh, Zhenghao Chen, Sonia Bhaskar and Andrew Y. Ng in NIPS 2011.Unsupervised Learning Models of Primary Cortical Receptive Fields and Receptive Field PlasticityAndrew Saxe, Maneesh Bhand, Ritvik Mudur, Bipin Suresh and Andrew Y. Ng in NIPS 2011.Dynamic Pooling and Unfolding Recursive Autoencoders for Paraphrase DetectionRichard Socher, Eric H. Huang, Jeffrey Pennington, Andrew Y. Ng, and Christopher D. Manning in NIPS 2011.Semi-Supervised Recursive Autoencoders for Predicting Sentiment DistributionsRichard Socher, Jeffrey Pennington, Eric Huang, Andrew Y. Ng, and Christopher D. Manning in EMNLP 2011.Text Detection and Character Recognition in Scene Images with Unsupervised Feature LearningAdam Coates, Blake Carpenter, Carl Case, Sanjeev Satheesh, Bipin Suresh, Tao Wang, David Wu and Andrew Y. Ng in ICDAR 2011.Parsing Natural Scenes and Natural Language with Recursive Neural NetworksRichard Socher, Cliff Lin, Andrew Y. Ng and Christopher Manning in ICML 2011.The Importance of Encoding Versus Training with Sparse Coding and Vector QuantizationAdam Coates and Andrew Y. Ng in ICML 2011.On Optimization Methods for Deep LearningQuoc V. Le, Jiquan Ngiam, Adam Coates, Abhik Lahiri, Bobby Prochnow and Andrew Y. Ng in ICML 2011.Learning Deep Energy ModelsJiquan Ngiam, Zhenghao Chen, Pangwei Koh and Andrew Y. Ng in ICML 2011.Multimodal Deep LearningJiquan Ngiam, Aditya Khosla, Mingyu Kim, Juhan Nam, Honglak Lee and Andrew Y. Ng in ICML 2011.On Random Weights and Unsupervised Feature LearningAndrew Saxe, Pangwei Koh, Zhenghao Chen, Maneesh Bhand, Bipin Suresh and Andrew Y. Ng in ICML 2011.Learning Hierarchical Spatio-Temporal Features for Action Recognition with Independent Subspace AnalysisQuoc V. Le, Will Zou, Serena Yeung and Andrew Y. Ng in CVPR 2011.An Analysis of Single-Layer Networks in Unsupervised Feature LearningAdam Coates, Honglak Lee and Andrew Ng in AISTATS 14, 2011.Learning Word Vectors for Sentiment AnalysisAndrew L. Maas, Raymond E. Daly, Peter T. Pham, Dan Huang, Andrew Y. Ng, and Christopher Potts in ACL 2011.A Low-cost Compliant 7-DOF Robotic ManipulatorMorgan Quigley, Alan Asbeck and Andrew Y. Ng in ICRA 2011.Grasping with Application to an Autonomous Checkout RobotEllen Klingbeil, Deepak Drao, Blake Carpenter, Varun Ganapathi, Oussama Khatib, Andrew Y. Ng in ICRA 2011.Autonomous Sign Reading for Semantic MappingCarl Case, Bipin Suresh, Adam Coates and Andrew Y. Ng in ICRA 2011.Learning Continuous Phrase Representations and Syntactic Parsing with Recursive Neural NetworksRichard Socher, Christopher Manning and Andrew Ng in NIPS 2010.A Probabilistic Model for Semantic Word VectorsAndrew Maas and Andrew Ng in NIPS 2010.Tiled Convolutional Neural NetworksQuoc V. Le, Jiquan Ngiam, Zhenghao Chen, Daniel Chia, Pangwei Koh and Andrew Y. Ng in NIPS 2010.Energy Disaggregation via Discriminative Sparse CodingJ. Zico Kolter and Andrew Y. Ng in NIPS 2010.Autonomous Helicopter Aerobatics through Apprenticeship LearningPieter Abbeel, Adam Coates and Andrew Y. Ng in IJRR 2010.Autonomous Operation of Novel Elevators for Robot NavigationEllen Klingbeil, Blake Carpenter, Olga Russakovsky and Andrew Y. Ng in ICRA 2010.Learning to Grasp Objects with Multiple Contact PointsQuoc Le, David Kamm and Andrew Y. Ng in ICRA 2010.Multi-Camera Object Detection for RoboticsAdam Coates and Andrew Y. Ng in ICRA 2010.A Probabilistic Approach to Mixed Open-loop and Closed-loop Control, with Application to Extreme Autonomous DrivingJ. Zico Kolter, Christian Plagemann, David T. Jackson, Andrew Y. Ng and Sebastian Thrun in ICRA 2010.Grasping Novel Objects with Depth SegmentationDeepak Rao, Quoc V. Le, Thanathorn Phoka, Morgan Quigley, Attawith Sudsand and Andrew Y. Ng in IROS 2010.Low-cost Accelerometers for Robotic Manipulator PerceptionMorgan Quigley, Reuben Brewer, Sai P. Soundararaj, Vijay Pradeep, Quoc V. Le and Andrew Y. Ng in IROS 2010.A Steiner Tree Approach to Object DetectionOlga Russakovsky and Andrew Y. Ng in CVPR 2010.Measuring Invariances in Deep NetworksIan J. Goodfellow, Quoc V. Le, Andrew M. Saxe, Honglak Lee and Andrew Y. Ng in NIPS 2009.Unsupervised Feature Learning for Audio Classification Using Convolutional Deep Belief NetworksHonglak Lee, Yan Largman, Peter Pham and Andrew Y. Ng in NIPS 2009.Convolutional Deep Belief Networks for Scalable Unsupervised Learning of Hierarchical RepresentationsHonglak Lee, Roger Grosse, Rajesh Ranganath and Andrew Y. Ng in ICML 2009.Large-scale Deep Unsupervised Learning using Graphics ProcessorsRajat Raina, Anand Madhavan and Andrew Y. Ng in ICML 2009.A majorization-minimization algorithm for (multiple) hyperparameter learningChuan Sheng Foo, Chuong Do and Andrew Y. Ng in ICML 2009.Regularization and Feature Selection in Least-Squares Temporal Difference LearningJ. Zico Kolter and Andrew Y. Ng in ICML 2009.Near-Bayesian Exploration in Polynomial TimeJ. Zico Kolter and Andrew Y. Ng in ICML 2009.Policy Search via the Signed DerivativeJ. Zico Kolter and Andrew Y. Ng in RSS 2009.Joint Calibration of Multiple SensorsQuoc Le and Andrew Y. Ng in IROS 2009.Scalable Learning for Object Detection with GPU HardwareAdam Coates, Paul Baumstarck, Quoc Le, and Andrew Y. Ng in IROS 2009.Exponential Family Sparse Coding with Application to Self-taught LearningHonglak Lee, Rajat Raina, Alex Teichman and Andrew Y. Ng in IJCAI 2009.Apprenticeship Learning for Helicopter ControlAdam Coates, Pieter Abbeel and Andrew Y. Ng in Communications of the ACM, Volume 52, 2009.ROS: An Open-Source Robot Operating SystemMorgan Quigley, Brian Gerkey, Ken Conley, Josh Faust, Tully Foote, Jeremy Leibs, Eric Berger, Rob Wheeler, and Andrew Y. Ng in ICRA 2009.High-Accuracy 3D Sensing for Mobile Manipulation: Improving Object Detection and Door OpeningMorgan Quigley, Siddharth Batra, Stephen Gould, Ellen Klingbeil, Quoc Le, Ashley Wellman and Andrew Y. Ng in ICRA 2009.Stereo Vision and Terrain Modeling for Quadruped RobotsJ. Zico Kolter, Youngjun Kim and Andrew Y. Ng in ICRA 2009.Task-Space Trajectories via Cubic Spline OptimizationJ. Zico Kolter and Andrew Y. Ng in ICRA 2009.Learning Sound Location from a Single MicrophoneAshutosh Saxena and Andrew Y. Ng in ICRA 2009.Learning 3-D Object Orientation from ImagesAshutosh Saxena, Justin Driemeyer and Andrew Y. Ng in ICRA 2009.Reactive Grasping Using Optical Proximity SensorsKaijen Hsiao, Paul Nangeroni, Manfred Huber, Ashutosh Saxena and Andrew Y. Ng in ICRA 2009。

354 评论

粉红猪大大

吴恩达教授的水平肯定是要排在所有人之外的一档的,作为乔丹老先生的关门弟子,年纪...吴恩达 (Andrew Ng),斯坦福计算机系的副教授,师从机器学习的大师级人物 Michael I. Jordan。同门师兄弟包括Zoubin Ghahramani, Tommi Jaakkola, Eric Xing, David Blei, 徒子徒孙遍布美国名校,他们这一大学派的主要研究和贡献集中在 统计机器学习(Statistical Machine Learning)和图模型(Probabilistic Graphical model),具体的比如 Spectral clustering, Nonparametric Bayesian Methods,Variational Methods等等。现在图模型和 Nonparametric Bayesian Methods 都是机器学习领域炙手可热的研究方向。Michael Jordan的研究很好的将统计和机器学习联系了起来,将Variational Methods发扬光大,他也还身兼统计系和计算机系教职。吴恩达的学术研究兴趣比较广,做的东西有比较理论的,但更多的是理论和应用的结合。他的一作主要集中在Spectral Clustering ,Unsupervised Learning 和增强式学习(reinforcement learning),机器学习的很多方面都有涉及,比如feature selection, over-fitting,policy search。由于做reinforcement learning和unsupervised learning, 所以有很多项目是和机器人有关的,他也发起了ROS(Robot Operating System),一个开源的机器人操作系统,影响力很大。其他的参与的研究就很多了,Michael Jordan那一片的统计机器学习都有参与,在图模型领域也有很多非常优秀论文,比如自然语言处理(NLP)的神器Latent Dirchirelnt Allocation(LDA) 那篇论文他也有贡献。他现在的研究兴趣主要是深度学习(Deep Learning),深度学习说白了就是死灰复燃的神经网络(Neural Network), 神经网络的一代鼻祖是多伦多大学的Geoffrey Hinton。 Geoffrey Hinton和吴恩达一起在Google搞深度学习 (Google Brain Project),他们俩现在在这一块的论文很多,影响力很大。总体而言他是顶级的机器学习研究者,在斯坦福是tenured professor已经说明了这点,至于Lab Director,和学术无关,只要是教授都可以成立一个实验室自己当主任(Director),不要把主任拿过来说事。更重要的是,他在学术圈内圈外知名度很高!除了师承之外,还有一个重要原因是他在斯坦福公开课里面主讲机器学习,讲的的确是非常好,在工程界非常受欢迎,后来和Daphne Koller (机器学习界的一姐和大牛,《Probabilistic Graphical Models: Principles and Techniques》一书的作者)一起成立了Coursera。吴恩达对慕课(MOOC)和Coursera的贡献我就不赘述了。另外吴恩达会说中文,出生于英国,高中毕业于新加坡的Raffles Insitution,本科毕业于卡耐基梅隆大学,硕士在麻省理工,博士毕业于伯克利,早年在香港和英国生活过。

200 评论

阿迪思念

顶尖水平吴恩达(1976-,英文名:Andrew Ng),华裔美国人,是斯坦福大学计算机科学系和电子工程系副教授,人工智能实验室主任。吴恩达是人工智能和机器学习领域国际上最权威的学者之一。吴恩达也是在线教育平台Coursera的联合创始人

285 评论

相关问答

  • 吴承恩研究论文发表

    吴承恩(1501年-1582年),字汝忠,号射阳山人。汉族,淮安府山阳县(今江苏省淮安市淮安区)人。祖籍安徽桐城高甸(今枞阳县雨坛乡高甸),以祖先聚居枞阳高甸,

    我才是黄蓉 4人参与回答 2023-12-08
  • 发表论文感恩恩师的话语

    教师是孩子的镜子,孩子是老师的影子。下面是我为你整理的感谢论文指导老师的话,希望你喜欢。 1. 想念恩师断心肠。你我分别整十载,不知恩师可安康?今日发来我祝愿,

    吃货终结者0416 3人参与回答 2023-12-08
  • 发表论文感恩恩师的话怎么写

    论文中致谢老师的话(通用6篇) 论文最后都要附上论文致谢,其主要目的是感谢写作论文中各界人士对自己提供的帮助,以建立良好的人际关系,营造出良好的学术氛围,快开始

    Elaine暖阳 3人参与回答 2023-12-10
  • 发表论文感恩恩师的话怎么说

    本文是**老师的悉心指导和严格要求下,由本人独立完成的。导师渊博的知识、严谨的治学以及磊落真诚的为人之道,不仅为我提供了探索学术之门的钥匙,而且也为我今后的工作

    鼎御装饰 4人参与回答 2023-12-09
  • 达州市吴正文发表的论文

    文献综述和参考文献 导语:文献综述是科学文献的一种,而参考文献是文献综述的重要组成部分。下面是我分享的文献综述和参考文献,欢迎阅读! 文献综述 一、文献综述是什

    清水颐园 3人参与回答 2023-12-11