• 回答数

    5

  • 浏览数

    358

馨怡FANG
首页 > 论文发表 > gpt论文发表

5个回答 默认排序
  • 默认排序
  • 按时间排序

天天~甜甜

已采纳

2019 年可以说是「预训练模型」流行起来的一年。自 BERT 引发潮流以来,相关方法的研究不仅获得了 EMNLP 大会最佳论文等奖项,更是在 NLP、甚至图像领域里引领了风潮。

去年也有很多 游戏 AI 取得了超越人类的水平。人工智能不仅已经玩转德州扑克、星际争霸和 Dota2 这样复杂的 游戏 ,还获得了 Nature、Science 等顶级期刊的肯定。

机器之心整理了去年全年 在人工智能、量子计算等领域里最为热门的七项研究 。让我们以时间的顺序来看:

第一个重磅研究出现在 2 月,继发布刷新 11 项 NLP 任务记录的 3 亿参数量语言模型 BERT 之后,谷歌 OpenAI 于 2019 年 2 月再次推出了一种更为强大的模型,而这次的模型参数量达到了 15 亿。这是一种 大型无监督语言模型 ,能够生产连贯的文本段落,在许多语言建模基准上取得了 SOTA 表现。此外,在没有任务特定训练的情况下,该模型能够做到初步的阅读理解、机器翻译、问答和自动摘要。

该模型名为 GPT-2,它是基于 Transformer 的大型语言模型,包含 15 亿参数、在一个 800 万网页数据集上训练而成。训练 GPT-2 有一个简单的目标:给定一个文本中前面的所有单词,预测下一个单词。GPT-2 是对 GPT 模型的直接扩展,在超出 10 倍的数据量上进行训练,参数量也多出了 10 倍。

GPT-2 展示了一系列普适而强大的能力,包括生成当前最佳质量的条件合成文本,其中我们可以将输入馈送到模型并生成非常长的连贯文本。此外,GPT-2 优于在特定领域(如维基百科、新闻或书籍)上训练的其它语言模型,而且还不需要使用这些特定领域的训练数据。在 知识问答、阅读理解、自动摘要和翻译等任务 上,GPT-2 可以从原始文本开始学习,无需特定任务的训练数据。虽然目前这些下游任务还远不能达到当前最优水平,但 GPT-2 表明如果有足够的(未标注)数据和计算力,各种下游任务都可以从无监督技术中获益。

最后,基于大型通用语言模型可能会产生巨大的 社会 影响,也考虑到模型可能会被用于恶意目的,在发布 GPT-2 时,OpenAI 采取了以下策略: 仅发布 GPT-2 的较小版本和示例代码,不发布数据集、训练代码和 GPT-2 模型权重 。

机器学习顶会的最佳论文,总会引起人们的广泛讨论。在今年 6 月于美国加州举办的 ICML 2019(国际机器学习大会)上,由苏黎世联邦理工学院(ETH)、德国马普所、谷歌大脑共同完成的《Challenging Common Assumptions in the Unsupervised Learning of Disentangled Representations》获得了其中一篇最佳论文。研究者在论文中提出了一个与此前学界普遍预测相反的观点:对于任意数据,拥有相互独立表征(解耦表征)的无监督学习是不可能的。

论文链接:

在这篇论文中,研究者冷静地审视了该领域的最新进展,并对一些常见的假设提出了质疑。

首先,研究者表示从理论上来看,如果不对模型和数据进行归纳偏置,无监督学习解耦表征基本是不可能的;然后他们在七个不同数据集进行了可复现的大规模实验,并训练了 12000 多个模型,包括一些主流方法和评估指标;最后,实验结果表明,虽然不同的方法强制执行了相应损失「鼓励」的属性,但如果没有监督,似乎无法识别完全解耦的模型。此外,增加的解耦似乎不会导致下游任务学习的样本复杂度的下降。

研究者认为,基于这些理论,机器学习从业者对于超参数的选择是没有经验法则可循的,而在已有大量已训练模型的情况下, 无监督的模型选择仍然是一个很大的挑战 。

去年 6 月,来自德国波恩-莱茵-锡格应用技术大学和谷歌大脑的研究者发表了一篇名为《Weight Agnostic Neural Networks》的论文,进而引爆了机器学习圈。在该论文中,他们提出了一种神经网络架构搜索方法, 这些网络可以在不进行显式权重训练的情况下执行各种任务 。

论文链接:

通常情况下,权重被认为会被训练成 MNIST 中边角、圆弧这类直观特征,而如果论文中的算法可以处理 MNIST,那么它们就不是特征,而是函数序列/组合。对于 AI 可解释性来说,这可能是一个打击。很容易理解,神经网络架构并非「生而平等」,对于特定任务一些网络架构的性能显著优于其他模型。但是相比架构而言,神经网络权重参数的重要性到底有多少?

来自德国波恩-莱茵-锡格应用技术大学和谷歌大脑的一项新研究提出了一种神经网络架构搜索方法,这些网络可以在不进行显式权重训练的情况下执行各种任务。

为了评估这些网络,研究者使用从统一随机分布中采样的单个共享权重参数来连接网络层,并评估期望性能。结果显示,该方法可以找到少量神经网络架构,这些架构可以在没有权重训练的情况下执行多个强化学习任务,或 MNIST 等监督学习任务。

BERT 带来的影响还未平复,CMU 与谷歌大脑 6 月份提出的 XLNet 在 20 个任务上超过了 BERT 的表现,并在 18 个任务上取得了当前最佳效果。

来自卡耐基梅隆大学与谷歌大脑的研究者提出新型预训练语言模型 XLNet,在 SQuAD、GLUE、RACE 等 20 个任务上全面超越 BERT。

作者表示, BERT 这样基于去噪自编码器的预训练模型可以很好地建模双向语境信息,性能优于基于自回归语言模型的预训练方法 。然而,由于需要 mask 一部分输入,BERT 忽略了被 mask 位置之间的依赖关系,因此出现预训练和微调效果的差异(pretrain-finetune discrepancy)。

基于这些优缺点,该研究提出了一种泛化的自回归预训练模型 XLNet。XLNet 可以:1)通过最大化所有可能的因式分解顺序的对数似然,学习双向语境信息;2)用自回归本身的特点克服 BERT 的缺点。此外,XLNet 还融合了当前最优自回归模型 Transformer-XL 的思路。

延伸阅读:

2019 年 7 月,在无限制德州扑克六人对决的比赛中,德扑 AI Pluribus 成功战胜了五名专家级人类玩家。Pluribus 由 Facebook 与卡耐基梅隆大学(CMU)共同开发,实现了前辈 Libratus(冷扑大师)未能完成的任务,该研究已经登上了当期《科学》杂志

据介绍,Facebook 和卡内基梅隆大学设计的比赛分为两种模式:1 个 AI+5 个人类玩家和 5 个 AI+1 个人类玩家,Pluribus 在这两种模式中都取得了胜利。如果一个筹码值 1 美元,Pluribus 平均每局能赢 5 美元,与 5 个人类玩家对战一小时就能赢 1000 美元。职业扑克玩家认为这些结果是决定性的胜利优势。 这是 AI 首次在玩家人数(或队伍)大于 2 的大型基准 游戏 中击败顶级职业玩家 。

在论文中,Pluribus 整合了一种新的在线搜索算法,可以通过搜索前面的几步而不是只搜索到 游戏 结束来有效地评估其决策。此外,Pluribus 还利用了速度更快的新型 Self-Play 非完美信息 游戏 算法。综上所述,这些改进使得使用极少的处理能力和内存来训练 Pluribus 成为可能。 训练所用的云计算资源总价值还不到 150 美元 。这种高效与最近其他人工智能里程碑项目形成了鲜明对比,后者的训练往往要花费数百万美元的计算资源。

Pluribus 的自我博弈结果被称为蓝图策略。在实际 游戏 中,Pluribus 使用搜索算法提升这一蓝图策略。但是 Pluribus 不会根据从对手身上观察到的倾向调整其策略。

在人工智能之外的量子计算领域,去年也有重要的研究突破。2019 年 9 月,谷歌提交了一篇名为《Quantum supremacy using a programmable superconducting processor》的论文自 NASA 网站传出,研究人员首次在实验中证明了量子计算机对于传统架构计算机的优越性:在世界第一超算 Summit 需要计算 1 万年的实验中,谷歌的量子计算机只用了 3 分 20 秒。因此,谷歌宣称实现「量子优越性」。之后,该论文登上了《自然》杂志 150 周年版的封面。

这一成果源自科学家们不懈的努力。谷歌在量子计算方向上的研究已经过去了 13 年。2006 年,谷歌科学家 Hartmut Neven 就开始 探索 有关量子计算加速机器学习的方法。这项工作推动了 Google AI Quantum 团队的成立。2014 年,John Martinis 和他在加利福尼亚大学圣巴巴拉分校(UCSB)的团队加入了谷歌的工作,开始构建量子计算机。两年后,Sergio Boixo 等人的论文发表,谷歌开始将工作重点放在实现量子计算优越性任务上。

如今,该团队已经构建起世界上第一个超越传统架构超级计算机能力的量子系统,可以进行特定任务的计算。

量子优越性实验是在一个名为 Sycamore 的 54 量子比特的完全可编程处理器上运行的。该处理器包含一个二维网格,网格中的每个量子比特与其他四个相连。量子优越性实验的成功归功于谷歌改进了具有增强并行性的双量子比特门,即使同时操作多个门,也能可靠地实现记录性能。谷歌使用一种新型的控制旋钮来实现这一性能,该旋钮能够关闭相邻量子比特之间的交互。此举大大减少了这种多连通量子比特系统中的误差。此外,通过优化芯片设计来降低串扰,以及开发避免量子比特缺陷的新控制校准,谷歌进一步提升了性能。

虽然 AI 没有打败最强人类玩家 Serral,但其研究的论文仍然登上了 Nature。2019 年 10 月底,DeepMind 有关 AlphaStar 的论文发表在了当期《Nature》杂志上,这是人工智能算法 AlphaStar 的最新研究进展,展示了 AI 在「没有任何 游戏 限制的情况下」已经达到星际争霸Ⅱ人类对战天梯的顶级水平,在 Battle.net 上的排名已超越 99.8%的活跃玩家 。

回顾 AlphaStar 的发展历程,DeepMind 于 2017 年宣布开始研究能进行即时战略 游戏 星际争霸Ⅱ的人工智能——AlphaStar。2018 年 12 月 10 日,AlphaStar 击败 DeepMind 公司里的最强玩家 Dani Yogatama;12 月 12 日,AlphaStar 已经可以 5:0 击败职业玩家 TLO 了(TLO 是虫族玩家,据 游戏 解说们认为,其在 游戏 中的表现大概能有 5000 分水平);又过了一个星期,12 月 19 日,AlphaStar 同样以 5:0 的比分击败了职业玩家 MaNa。至此,AlphaStar 又往前走了一步,达到了主流电子竞技 游戏 顶级水准。

根据《Nature》论文描述,DeepMind 使用通用机器学习技术(包括神经网络、借助于强化学习的自我博弈、多智能体学习和模仿学习)直接从 游戏 数据中学习。AlphaStar 的 游戏 方式令人印象深刻——这个系统非常擅长评估自身的战略地位,并且准确地知道什么时候接近对手、什么时候远离。此外,论文的中心思想是将 游戏 环境中虚构的自我博弈扩展到一组智能体,即「联盟」。

联盟这一概念的核心思想是:仅仅只是为了赢是不够的。相反,实验需要主要的智能体能够打赢所有玩家,而「压榨(exploiter)」智能体的主要目的是帮助核心智能体暴露问题,从而变得更加强大。这不需要这些智能体去提高它们的胜率。通过使用这样的训练方法,整个智能体联盟在一个端到端的、完全自动化的体系中学到了星际争霸Ⅱ中所有的复杂策略。

2019 年在 AI 领域的各个方向上都出现了很多技术突破。新的一年,我们期待更多进展。

此外,机器之心于 2019 年 9 月底推出了自己的新产品 SOTA 模型,读者可以根据自己的需要寻找机器学习对应领域和任务下的 SOTA 论文,平台会提供论文、模型、数据集和 benchmark 的相关信息。

267 评论

贪吃的pinko酱

2020年,估计近600万篇经过同行评审的学术论文发表,比2019年增加了10%。但在这数百万篇论文中,有成千上万篇可能是造假文章。许多研究者受到“publish-or-perish(不发表就灭亡)”的影响,即使是糟糕的研究,也想将其发表出来。截图来源:Dimensions()最近,学术欺诈又出现了新招数,有的研究者利用软件以及新兴的人工智能技术来撰写文章,能逃过查重软件的检测。欺诈者为躲过查重软件,会使用无意义的扭曲短语(tortured phrases)来代替标准术语。什么是扭曲短语?扭曲短语就是将已存在的科学术语改写成一串无意义的词语。例如,"Artificial intelligence(人工智能)"改成"counterfeit consciousness(仿制意识)";"Mean square error(均方误差)"改成"mean square blunder";"Breast cancer "改成"Bosom peril"…截至2022年1月,一个名为“问题论文筛选器”的软件在3191篇已发表的同行评审论文中发现了这种扭曲短语,其中也有发表在顶级期刊上的论文。这些论文的作者,多数来自印度(71.2%),其次是中国(6.3%)。在一个发表此类论文较多的期刊中,从提交文章到论文发表的时间,2020年初平均为148天,2021年初已下降到仅需要42天。有问题文章的数量变化趋势链接:还有研究者从其他论文中复制摘要,对词语进行批量修改,最后就形成了没有任何意义的新文章。研究人员猜测扭曲短语的来源,可能是作者使用了自动改写软件,这种工具在网上很容易找到。研究人员还发现,这些已发表的问题论文似乎有一部分内容是用人工智能技术生成的。与改写软件不同,这些人工智能系统是凭空撰写文本。人工智能系统撰写的内容更难进行检测。例如,给定一个开头,像GPT-2这样的人工智能模型就可以对这个句子进行扩展,甚至生成整个段落,有些论文看起来就是由这样的系统产生的。研究人员用GPT-2检测器筛选了学术出版商爱思唯尔在2021年出版的约14万篇论文的摘要,结果发现,数百篇疑似为合成文本的可疑论文发表在几十个著名期刊上。这些造假是如何被发现的?去年春天,研究人员在审查各种论文的可疑异常时发现,有文章引用虚假的研究证据或对掠夺性期刊的文章进行引用。听说过“profound neural organization(深层神经组织)”这个词吗?有些人可能会认为这是对“deep neural network(深度神经网络)”的误写。研究人员在数据库中检索了这个短语,发现了还有其他一些文章也使用了同样的奇怪短语。研究人员接着发现了越来越多的文章出现了类似的扭曲短语,截至2022年1月,已经发现473个这样的奇怪短语。为了追踪含有扭曲短语的论文,有研究人员开发了一个“问题论文筛选器”的软件。该软件可以自动检索扭曲短语。问题论文筛选器链接:https://dbrech.irit.fr/pls/apex/f?p=9999:1::::::这些论文会造成什么影响?编辑和审稿人肯定会对这些扭曲短语进行审查,但仍有一部分论文躲过了审查,最终成功发表了。这意味着,其他研究者在检索时需要自行辨别这些有问题的论文。还有一个问题是,跨学科研究可能会被影响,比如一位公共卫生专家可能会与一位在欺诈性论文中发表了关于诊断工具的计算机科学家寻求合作。随着更多人工智能工具的出现,这些有问题的文章也可能会危及未来基于人工智能的研究。例如,在2019年,出版商Springer Nature利用人工智能分析了1086篇文章,并生成了一本关于锂离子电池的手册。人工智能对手册中涉及的文章进行了简要介绍,但是如果这类项目的源文章纳入了无意义的、存在扭曲短语的的论文,结果会如何呢?最近,扭曲短语也出现在了COVID-19相关文献中。但是,学术界在解决论文造假问题上可以采取的措施并不多。鼓励同行评审期间和论文发表后进行更严格的检查,也许能缓解这一问题。例如,在PubPeer.com上对发表后论文进行同行评审。参考文章:

167 评论

bigsunsun001

GPT-3.5是OpenAI发布的最新一代自然语言处理模型,它是一种基于深度学习的自然语言处理技术,可以帮助机器理解和生成自然语言。GPT-3.5的主要优势在于它可以在没有任何监督的情况下,通过分析大量的文本数据,学习到自然语言的结构和语义,从而实现自然语言处理的任务。GPT-3.5的模型结构是一种双向的Transformer,它可以更好地捕捉句子中的上下文信息,从而更准确地理解自然语言,并能够更准确地生成自然语言。

211 评论

liuruojing

gpt写论文查重率不高。

从检测的结果,可以发现,初稿的重复率基本上可以控制在30%以下,一般的本科高校要求是20%,比较宽松的是30%。作为论文的初稿,是完全可以接受的。使用AI辅助的流畅程度更好,虽然专业性差点,但是可以后面做小范围的修改。

目前,人工智能聊天工具ChatGPT的功能正在被人们充分挖掘,学生是最早开始使用这一工具的群体之一,其引发的一些问题也引起了教育界的关注。

在国外,已有学校禁止使用ChatGPT,因为担心学生可能会用它作弊。在国内,《每日经济新闻》记者调查发现,网购平台上仍然在售卖五花八门的AI工具。

针对这个情况,每经记者采访了北京、上海、四川等地的重点大学的一线教师,他们正密切关注学生对于ChatGPT的使用情况。有的老师明确向记者表示,已经发现有学生用ChatGPT撰写论文。某位高校老师甚至直言,估计今年开学后会出现一些ChatGPT所引发的学术乱象问题。

ChatGPT的优点:

1、自然流畅的对话:ChatGPT通过对海量对话数据的学习,具有自然流畅的对话能力,能够与用户进行逼真的自然语言交互。

2、能够理解语境:ChatGPT能够理解语境,不仅能根据上下文生成回答,还能识别当前对话的主题,更好地满足用户需求。

3、多语言支持:ChatGPT支持多种语言,可以用于跨语言交互,帮助用户解决跨语言沟通的问题。

254 评论

dyanne1987

GPT-3.5是一种人工智能技术,它是一种自然语言处理(NLP)技术,可以让机器学习系统自动分析和理解自然语言文本,并且能够根据文本内容自动生成新的文本内容。GPT-3.5使用了深度学习技术,可以根据文本内容自动生成新的文本内容,而不需要人工干预。GPT-3.5的优势在于,它可以自动理解自然语言文本,并且可以根据文本内容自动生成新的文本内容,这使得它在自然语言处理领域具有重要的应用价值。您可以使用GPT-3.5来自动生成文本内容,从而提高文本内容的质量和准确性。

247 评论

相关问答

  • 发表论文发表

    怎么样发表论文: 1、想要发表论文,事先要做的就是写好一篇查重率合格,且具备一定价值的论文,论文查重率的具体要求,要根据想要发表的期刊来定,若为普通期刊,则查重

    susanwangyue 4人参与回答 2023-12-11
  • 论文发表发表

    看你上面的刊期,在职称评定中,是以刊期为准的。如果是5月份的刊期,即使是8月份收到的,也是按5月份算的。

    慧心永梅 5人参与回答 2023-12-06
  • 发表发表论文

    六个发表论文的流程:准备论文、投稿、审核、录用、出刊、上网。 1、准备论文:如果论文已经准备好了,按照论文找合适的期刊就好;如果论文没写好,建议还是先找合适的期

    wuyan841106 3人参与回答 2023-12-05
  • gpt论文发表

    2019 年可以说是「预训练模型」流行起来的一年。自 BERT 引发潮流以来,相关方法的研究不仅获得了 EMNLP 大会最佳论文等奖项,更是在 NLP、甚至图像

    馨怡FANG 5人参与回答 2023-12-06
  • 发表论文职称论文发表

    评职称很多人会选择发表职称论文,这就涉及到了期刊的选择,作者们在学术领域可能非常权威,但是对于发表论文来说,很多人可能还是个小白,有些作者文章是发表了,评职称时

    麻辣de火锅 3人参与回答 2023-12-09