acl论文发表
acl论文发表
acl是什么级别的会议介绍如下:
ACL国际顶会是自然语言处理与计算语言学领域最高级别的学术会议,由计算语言学协会主办,每年一届(学术等级A级)。主要涉及对话(Dialogue)、篇章(Discourse)、评测(Eval)、信息抽取Q(IE)、信息检索( IR)、语言生成(LanguageGen)、语言资源(LanguageRes),机器翻译(MT)、多模态(Multimodal)音韵学/形态学( Phon/ Morph)、自动问答(QA)、
语义(Semantics)、情感(Sentiment)、语音(Speech)、统计机器学习(Stat ML)、文摘(Summarisation)、句法(Syntax)等多个方面。其历年会议举办情况如下:
ACL2022
时间|地点|举办方式:5月22日至27日、欧洲爱尔兰都柏林、线上/线下混合。
论文接受情况: 2022年,在ARR中ACL共计接受3378篇,ACL2022收到有效投稿1918篇,主会议共计接收了701篇论文,(长篇604篇,短篇97篇),总接收率为36.5%,占总接受论文的20.75%。共有361篇论文被纳入ACL2022 Findings。在361篇论文中,有30篇论文拒绝了该提议,导致331篇论文将发表在ACL2022 Findings种。
ACL2021
时间|地点|举办方式:8月1日至6日、完全线上。
论文接受情况:ACL2021收到有效投稿3350篇,共计接收了710篇论文,(长篇571筒,短篇139篇),总接收率为21.2%,长篇论文的接受率为28%,短篇论文接受率为23%。在3350份完整提交的论文中,有493篇论文被邀请纳入Findings,36篇论文拒绝了该提议,导致457篇论文(118篇短篇和339篇长篇)将发表在《ACL Findings: ACL-IJCNLP 2021》中。
acl会议含金量
acl会议含金量如下:
ACL2023会议的结果将会在2023年6月底前公布。
1.结果公布时间
ACL2023会议是自然语言处理领域最重要的国际会议之一,每年吸引着众多来自世界各地的学者和研究人员参与。这个会议通常在年初发布主题征稿,随后经过严格的评审和挑选,会于年末或者次年初举办。而会议结果则会在接下来的几个月内逐渐公布。
2.评审过程
ACL2023会议的评审过程是非常严格和细致的。所有提交的论文都会被分配给三名匿名评审专家进行评审,评审专家会根据论文的质量、创新性、实用性等方面给出评价,并提出改进建议。在根据论文的各项评价得分和综合排名,评委会最终确定了哪些论文可以被录用为会议文章。
3.录用率和结果公布
一般来说,ACL会议的录用率比较低,因此能够被接收到会议上发表的论文也非常具有价值。因此,在ACL的官方网站上公布结果后,会议组织方会向所有参与者发出通知,告知他们是否被接受。此外,会议组织方还会在会议官网上公布录用论文的列表及作者名单,以便参会者更好地了解会议的主题、内容和水平。
4.会议后续
一旦ACl2023会议结束,会议组织方也会安排相关活动,如特邀讲座、研讨会、工作坊等,为参会者提供更多交流的机会。此外,对于没能入选的论文,会议组织方也会给予评审意见和建议,帮助作者更好地改进论文,在下一次参加会议时获得更大的成功。
综上所述,ACL2023会议的结果将在2023年6月底前公布,由于严格的评审过程和低的录用率,被接收到的论文具有极高的价值。对于没有录用的论文作者,可以通过会议组织方的意见和建议改进论文来提高下一次的成功机会。
如何写出好论文:投递ACL2021总结
目录
如何写出好论文:投递ACL2021总结... 1
简介... 1
1.“为什么要写论文?”. 2
2.“什么样的论文才是好论文?”. 2
2.1读者(审稿人)要什么?. 2
2.2怎样满足审稿人?... 3
2.3审稿人的期望分析... 3
2.3.1读者对文章结构的期望... 3
2.3.2读者对句子的期望... 3
2.3.3读者对段落的期望... 4
2.3.4读者对方法/实验步骤的期望... 4
3.“好论文是如何写出来的”. 4
3.1如何写摘要... 5
3.2如何写引言... 6
3.3如何写相关工作... 7
3.4如何写正文... 7
3.5如何写结果... 7
3.6如何写讨论... 8
3.7如何写结论... 8
4.总结... 8
References 9
2021年4月1日ACL2021的论文rebuttal阶段结束,经过一个多月的写论文,做实验和反复修改到最后回复评审意见的痛苦过程,感慨和收获都很多。在此期间对如何写好论文的思考和了解更深入了。因此特别总结了一下。中间我也查阅了写论文的相关资料,其中[1,2]让我感触最深。[1]从哲学角度提出了针对写论文的灵魂三问,[2]提出要迎合读者预期的方法论。这次将[1,2]的论点进行整理后,针对本次没有写好introduction的问题,加入了[3]中如何写introduction的方法论,最终成文。
本文主要针对写论文的三个哲学问题整合文献[1,2]的资料进行回答,因为本人才疏学浅,有不到之处还请海涵。在写论文之前,我们都会问三个关键问题:
下面会分三个章节来分别回答上述问题。
除了评职称,完成KPI等世俗的原因背后,其实还有一些论文备受推崇的底层原因:
写文章的时候应该力求简单到可以被新手理解,同时深刻到可以引起专家的兴趣。一篇文章只有在不需太多努力就可以理解的情况下才会被广泛地引用。文章清晰的关键就是使读者能在他们想找的地方找到他们需要的东西。简而言之为以下两点:
文章在发表前必须经过审稿人的评审。他们一般是相关领域的专家甚至是你的竞争者。他们会尽力寻找你文章 中的毛病。有时,由于不同的观点和竞争的需要,审稿人或许会试图阻止你的文章发表。因此,文章必须写得理由充足。在被别人挑剔之前 ,自己必须首先鸡蛋里挑骨头,预先回答审稿人的可能质疑 。
1). 只提出“一”个中心命题。论文里的观点太多,不但不好写,问题也容易多,读者也不易记住你要说什么。
2). 在这个中心命题的基础上,用一个迷人(但绝不夸张)的标题来吸引审稿人的兴趣。无偿审稿使审稿人只审批感兴趣的论文。如果你不能引起审稿人的兴趣,那最好不要发表那篇文章。编辑们有时候会很郁闷,因为找不到有兴趣的审稿人。
3). 合理解释每一个参数,合理说明每一个步骤。审稿人没时间考虑细节。程序和参数的合理化显示出你知道你在做什么,而不是凑数据。 没理由要找理由,有理由要强调。
4). 问问你自己是否提供了足够重复你工作的所有细节。审稿人(或读者)越容易再现你的工作,他就越可能接受你的文章。当然,审稿人并不会真正去重做你的工作,但你必须通过你的描述使他相信可以重做。
5). 必须有说服力!尽量做彻底而不是半成品的工作!用多方面测试来证明你的中心命题。要使文章像律师证明无罪官司,预先回答一切可能提出的疑问。
6). 引用所有重要的研究工作,特别是经典力作。写作的时候要再做全面文献检索。为了达到这些目标,写科学论文的时候必须遵照一定的框架结构。
典型的科学论文包括标题、摘要、引言、方法/实验步骤、结果、讨论、致谢,和参考文献。这样的结构是用来帮助读者快速找到他们感兴趣的信息。把信息放错地方会使读者糊涂。
好文章的所有 句子都应该这样从旧到新地平滑过渡 。写好一句开头的金科玉律是问问你自己:“我以前有没有提过 这个概念?”大多数文章很难读是因为很多新概念在没有被介绍之前就使用了。
读者想在 主语之后立刻看到行为动词 。对一个说明谁在做什么的句子,读者需要找到动词才能理解。如果动 词和主语之间相隔太远,阅读就会被寻找动词打断。而打断阅读就会使句子难以理解。尽量避免过长的主语和过短的宾语。这就像头重脚轻的人很难站稳。短的主语紧跟着 动词加上长的宾语效果会更好。
读者期望每句只有一个重点,这个 重点通常在句尾 。比较下面两个句子,我们可以感觉到他们着重强调不同的东西。把最好的,最重要的,和想要读者记住的东西放在句尾。
每一个段落都应该只讲一个故事 。在一段里表述多个观点会使读者很难知道该记住什么、这段想表达什么。一段的第一句要告诉读者这一段是讲什么的。这样读者想跳过这段就可以跳过。一段的最后一句应该是这段的结论或 者告诉读者下一段是什么。段落中的句子应该由始到终通过逻辑关系连接,实现由旧信息到新信息的流动
首句描述了整段的主题。最后一句时总结整段。 很明显,新旧信息的连接是理解这段的关键。从旧信息到新信息的流动是使读者轻松阅读的最佳方式。写文章的目的不是去测试读者的阅读能力,而是考验作者的表达能力。不能怪人没看懂,只能怪自己没写清楚
如果文章是关于新的方法、技术或算法,要非常详细地写它的新颖之处。要用有逻辑的、合理的方式来描述它。 这会帮助读者抓住新方法的要领。如果这个方法使用参数,则要把每一个参数(或参数的取值)合理化,或者是以前 用过的,或者可以从物理或数学推导出来,或者通过了广泛的测试及优化。如果无法保证它的合理性,那就必须描 述改变它会造成的影响(实际的结果应该在结果部分或讨论部分,方法部分仅包含影响的描述)。如果没有测试它们 的合理性,你应该解释为什么(做的代价太贵了?太费时间了?或者需要延期到将来做)。
针对审稿人对一篇好文章的期望,我们可以有针对性的进行写作。
[1]提出如上图的写作经验,具体如下:
如果总是先写中文再译成英文,英语很难提高。直接用英语写作,刚开始可能很困难,可能写完5行字,就已经花了一小时,但是万事开头难,迈出第一步,路会越走越顺。对于我的学生,我一般会认真指导他们完成第一篇,从第二篇开始,就基本上不用太费心。其次,要用自己最熟悉的、确定不会产生歧义的单词。不要用金山词霸等软件直接查词,选择自己没有使用过的词,这样很容易产生歧义。第三,每段只讲一个要点,并且要明确。第四,毕竟是在进行科技文献写作,注意语言要正式,要进行提炼,用语不要过于琐碎家常。第五,要避免“毫无疑问”(no doubt)、“绝对”(absolutely)、“显然”(obviously)这类绝对化的用词。第六,不要使用复杂的语句,要尽量简单明晰,便于读者理解。另外,要注意衔接过过渡,选择正确的过渡词与联接词,还要注意转折,注意连贯性,避免行文跳跃。最后,现在很多字处理软件都提供拼写检查功能,对于软件提示可能出错的字,一定要仔细再检查。
下面按照论文通常的结构逻辑来给出如何写好论文的建议。
摘要就是给出论文的概况,吸引读者。在这里要给一些适当的细节,简略描述你的方法是如何实现的、有哪些组成组成部分(components)、实验结果如何、比现有的技术提高了多少。
引言部分很重要,首先要讲明做本研究动机,讲明为什么本文所述的研究很重要?为什么该研究是值得做的?如果不能很好地论证,后面写得再好也没有用,因为大家不会浪费时间在“没有用”的东西上。其次,本文的贡献、创新性要明确突出,不要让人误认为你的研究与别人相似。第三,介绍你的方法时要比摘要详细些,但是不要给太多的细节。
每一个引言应该包括研究领域的介绍和意义,做这工作的具体原因,结果和隐含的意义。一般而言,读者读完引言,对论文的来龙去脉就应该清清楚楚了
第一件该做的事就是围绕中心命题来收集所有相关文献。搜索并研究所有最近和相关的文章(通过对中心命题关键字的搜索或用引用索引)。确认你有所有最新的论文。引用所有 重要的文章。如果你不引用别人的文献,别人也不会引用你的!如果你想谁引用你的工作,你要先引用他的。你引用的文章越多,他们越可能阅读并引用你的文章。因为人们更加关注引用他们的论文。仔细读你所引用的文章,避免引用错误。在引用上,不要偷懒。
Introduction(引言)的主要任务是向读者勾勒出全文的基本内容和轮廓。它可以包括以下五项内容中的全部或其中几项(具体要根据你论文的长短等实际情况来决定) [3]:
如何合理安排以上这些内容,将它们有条有理地给读者描绘清楚,并非容易之事。经验告诉我们,引言其实是全文最难写的—部分。这是因为作者对有关学科领域的熟悉程度,作者的知识是渊博、还是贫乏,研究的意义何在、价值如何等问题,都在引言的字里行间得以充分体现。 我们可以将引言的内容分为三到四个层次来安排。第一层由研究背景、意义、发展状况等内容组成,其中还包括某一研究领域的文献综述;第二层提出目前尚未解决的问题或急需解决的问题,从而引出自己的研究动机与意义;第三层说明自己研究的具体目的与内容;最后是引言的结尾,可以介绍一下论文的组成部分。
2) 引言第二层主要的目的是表明目前研究尚未解决的问题(Indicating the problem that has not been solved by previous research, raising a relevant question)
阐述自己研究领域的基本内容。要尽量简洁明了,不罗嗦;须知看文章者都是该领域的专家,所以一些显而易见的知识要用概括性的而不是叙述性的语言来描述。
相关工作是为了证明你的工作的新颖性的。因此对前人的研究的引用要完整,并且一定要尊重相关文献的作者,可以指出其缺点,但一定要礼貌,要以建设性的方式提出。
正文用来介绍技术上的细节,终极目的是要让人理解你的方法并能重现实验结果。首先,逻辑要清晰,其次,技术上的细节不能缺失。但是,如果细节可能喧宾夺主,则要适当删减或挪到附录甚至补充材料里,以免干扰正常的阅读节奏。如果文章比较复杂,可以叙述一下方法的组成部分,画出框图,展示方法、内容及其关系。文章的实验结果要证明“我的方法的确比现有最好的方法还要好”。有一个细节需要注意:有些同学在文中用红、绿、蓝色来指示对象,但经常图片打印出来都是灰色的,对象难以区分,所以最好不要用颜色来指示图片里的对象,而要尽量用不同样式的线型、填充模式等,再打印出来确认不同对象的确是可以区分的。另外,对于所有的图、表,要在正文里加以说明,对于反常规的结果尤其要突出地论述其原因。
当你开始写结果部分时,先考虑一下结果的意义。也就是说,你理解你的结果吗?这些结果是不是告诉了你更 深刻的东西?你能从很多不同角度来理解结果吗?你能设计证明或者反驳你的一些解释的新测试吗? 如果你发现了新现象,你必须证明你的结果不是你方法制造出来的(讨论部分的一个好内容)。它可以在不同的 条件下重复吗?如果你发展了一个新方法,你必须证明这个方法的重要性。它是否改进了现有的方法?你的结果部 分必须用不同的角度或多重测试来支持新发现或验证新方法的重要性。
一旦你对结果有更好的理解,你需要决定卖点,也就是说这篇文章最有意义的一个观点是什么?确定这篇文章 的中心命题之后要组织所有的段落来证明、支持它,用数据(有必要的话再加数据)来证明它。同时也要排除其它可 能性。放弃与中心命题无关的数据,即使这些数据是很辛苦得来的。
现在到了你写论文的最后一部分。很多人认为讨论部分最难写。他们常常不知道该写什么。学生常常不能把结 果从他们的解释、含意和结论中分离出来。此外,他们不善于思考可能存在的其他解释。好的讨论通常以得到的结 果和解释的评论开始。其它可用于讨论的内容有:参数改变对结果的影响,与其他研究相比还有待解决的问题,将 来或正在进行的工作(防止别人从事你显而易见的,立刻就能实现的后续工作)。这里有一段文章中的讨论部分
结论部分是给读者留下印象的最后机会,要进一步突出自己的贡献。
你还可以开诚布公地承认自己的 缺点 ,其实这会让审稿人留下好印象,并且给其它读者以提升空间,让他们沿着你的方向继续前行。
有一个很不好的做法,就是将摘要、导言里对方法的介绍和结论用同样的话进行表述,甚至互相拷贝。文章的摘要、介绍、结论,要在不同的细节层次上介绍你的方法、强调你的贡献。
[1]给出写好论文的经验如下图所示:
[2]给出的写好论文的经验如下:
我自己的经验是要写好引言,这次ACL2021的审稿人意见主要就是论文的引言部分没有满足审稿人预期。以后论文要重点加强引言和相关工作。
[1] 想法好、表达好、语言好才是好论文,
[2] 好论文要迎合读者预期,
[3] 如何写好introduction,
阿里专场,6位分享嘉宾,ACL 2020 系列论文解读火力全开!
2017年 10 月 11 日,阿里巴巴达摩院正式成立,马云的一句 “ 活得要比阿里巴巴长”,让外界对它的未来发展,有了更 “意味深长” 的期待。
在近三年多的时间里,达摩院在人工智能学术科研与应用上齐头并进,无论在国际学术顶会以及各类竞赛上,还是在推动学术成果的商业化落地上,都交出了亮眼的成绩单,这也反过来吸引着人工智能领域的顶尖研究者们都汇聚于此。
对于这些顶尖研究者们目前正在开展的研究工作,想必大家都充满了探知欲!
7月9日(晚)19:30-21:00 ,AI科技评论就将联合阿里达摩院,外加阿里集团在学术科研上同样“坚挺”的存在——阿里安全,给大家呈上一场 “ACL 2020 系列论文解读·阿里巴巴专场” 直播!
届时,来自阿里达摩院机器智能技术团队和阿里安全安全智能团队的 6 位高级算法专家、算法工程师以及研究型实习生们,将分别聚焦于多任务学习、少样本文本分类、 任务型对话、神经机器翻译、知识蒸馏、跨域分词标注等NLP 细分领域,为大家带来一场论文解读盛宴!
本次分享的嘉宾具体都有谁呢?下面一一揭晓:****分享主题: SpanMlt:一种基于跨度的用于属性词和观点词配对抽取的多任务学习框架 ****分享嘉宾:黄龙涛
分享内容:
属性词和观点词抽取,是细粒度的基于属性的情感分析(ABSA)的两个关键问题。属性-观点词对( aspect-opinion pairs)可以为消费者和观点挖掘系统提供相关产品或服务的全局配置文件。但是,传统方法无法在没有给定属性词和观点词的情况下,直接输出属性-观点词对。尽管研究者最近提出了一些共提取方法来联合提取属性词和观点词,但是并不能配对抽取两者。为此,本文提出了一种端到端方法来解决属性词和观点词的配对抽取(PAOTE)任务。此外,本文从联合词和关系抽取的角度而非此前大多数工作中执行的序列标注方法的角度,来处理该问题。我们提出了一个基于共享跨度的多任务学习框架,其中在跨度边界的监督下提取词。同时,使用跨度表示法来联合识别配对关系。大量实验表明,我们的模型始终优于 SOTA 方法。
分享内容:
现有的工作往往使用元学习(meta learning)的方法,通过在一系列meta-task中切换来获得少样本学习的能力,但是在task间的切换会带来遗忘的问题,因此考虑使用记忆机制来辅助meta learning的训练。在本工作中,我们将监督学习得到的分类参数作为meta learning的全局记忆,并提出了动态记忆路由算法,基于dynamic routing的方式将全局记忆信息融入到meta task的训练和预测阶段。此外,动态记忆路由算法还可以使用query信息来增强归纳类别表示的能力,对口语场景下的语言多样性表达有更好的泛化性能。在中英文场景少样本分类任务数据集上,均取得了STOA的结果。
分享主题:多领域对话动作和回复联合生成****分享嘉宾:田俊峰
分享内容: 在任务型对话中,产生流畅且信息丰富的回复至关重要。现有pipeline方法通常先预测多个对话动作,然后使用它们的全局表示来辅助回复生成。这种方法有两个缺陷:第一,在预测对话动作时,多领域的固有结构被忽略了;其次,在生成回复时没有考虑到对话动作和回复之间的语义联系。为了解决这些问题,我们提出了一种同时生成对话动作和回复的神经联合生成模型。与以往的方法不同,我们的对话动作生成模块可以保留多领域对话动作的层次结构,同时我们的回复生成模块可以动态地关注到相关的对话动作。在训练时,我们采用不确定性损失函数来自适应地调整两个任务的权重。在大规模MultiWOZ数据集上进行了评估,实验结果表明,我们的模型在自动评估和人工评估上都比SOTA模型有很好的提升。****分享主题:神经机器翻译的多尺度协同深度模型******分享嘉宾:魏相鹏**
近年来,神经机器翻译(NMT)方法凭借其出色的翻译性能在大量应用场景中取代了基于统计的机器翻译方法。目前,制约NMT模型性能的因素主要包括模型的特征表达能力和数据规模。因此,我们提出一种基于多尺度协作(MSC)机制的深度神经机器翻译模型,以提高模型对底层(具象化)和高层(抽象化)特征的建模能力。
实验证明,(1) 多尺度协作机制有助于构建极深的NMT模型的同时带来性能上的提升,(2) 基于MSC机制的深度NMT模型能够更好地翻译语义结构复杂的自然语言句子。
****分享主题:多语种序列标注的结构级知识蒸馏******分享嘉宾:王新宇**
多语言序列标注是一项使用单一统一模型预测多语言标签序列的任务。与依赖于多个单语模型相比,使用多语言模型具有模型规模小、在线服务容易和对低资源语言通用的优点。然而,由于模型容量的限制,目前的多语种模型仍然远远低于单独的单语模型。本文提出将多个单语言模型(teachers)的结构知识提取到统一的多语言模型(student)中,以缩小单语言模型与统一的多语言模型之间的差距。我们提出了两种基于结构层次信息的知识挖掘方法:
****分享主题:跨域中文分词的远程标注与对抗耦合训练******分享嘉宾:丁宁**
完全监督神经方法在中文分词(CWS)的任务上取得了重大进展。但是,如果由于域间的分布差异和集外词(OOV)问题导致域迁移,则监督模型的性能始终一直大幅下降。为了实时缓解此问题,本文将跨域中文分词的远程标注和对抗性训练直观地结合在一起。
7月9日,6位来自阿里的分享嘉宾,与大家不见不散!
ACL 2020原定于2020年7月5日至10日在美国华盛顿西雅图举行,因新冠肺炎疫情改为线上会议。为促进学术交流,方便国内师生提早了解自然语言处理(NLP)前沿研究,AI 科技评论将推出「ACL 实验室系列论文解读」内容,同时欢迎更多实验室参与分享,敬请期待!
上一篇:专升本发表论文
下一篇:道尔顿发表论文