论文发表被认可的刊物有:EI、 ssci 、sci
1、 SCI 《科学引文索引》收录自然科学方向的核心期刊,分为四个区,一区、二区期刊影响因子高,含金量也很高,发表国际核心论文比较受认可。
2、SSCI《社会科学引文索引》收录社会科学方向的核心期刊,也是分为四个区,是目前世界上可以用来对不同国家和地区的社会科学论文的数量进行统计分析的大型检索工具。
3、EI《工程索引》在全球的学术界、工程界、信息界中享有盛誉,是科技界共同认可的重要检索工具。收录的EI期刊和EI会议论文水平都是很高的,在知网数据库中,EI标识表示被工程索引(美)收录。
4、A&HCI艺术与人文科学引文索引,是艺术与人文科学方面重要的数据库,收录了很多核心期刊,发表论文含金量也很高。论文发表核心期刊往往指的就是上述几类刊物,除此之外还有其他几类常见刊物收录等级,比如:JST 《日本科学技术振兴机构数据库》,CA 《化学文摘》, РЖ,AJ 《文摘杂志》等,在知网数据库也常见到类似的标识,选择这类期刊安排论文,含金量还是很高的,更多详情也可以询问专业学术顾问。
有一个《海外英语》,还有《青春岁月》这两个刊物可以刊出全英文稿件,除此以外,英语专业的也可以考虑,比如《校园英语》之类
1、论文发表等级-第一级-T类-特种刊物论文。在《SCIENCE》和《NATURE》两本期刊上发表的论文为特种刊物论文。 2、论文发表等级第二级-A类:权威核心刊物论文,被国际通用的SCIE、EI、ISTP、SSCI以及A&HCI;检索系统所收录的论文(以中国科技信息研究所检索为准),或同一学科在国内具有权威影响的中文核心刊物上发表的论文,论文不含报道性综述、摘要、消息等。 3、论文发表等级第三级-B类。重要核心刊物论文,在国外核心期刊上刊登的论文(见《国外科技核心期刊手册》)或在国内同一学科的中文核心期刊中具有重要影响的刊物上发表的论文。 4、论文发表等级第四级-C类:一般核心刊物论文,在《全国中文核心期刊要目总览》刊物上发表的论文。由中国知网、中国学术期刊网和北京大学图书馆期刊工作研究会联合发布中文核心期刊目录。1992年推出《中文核心期刊目录总览》,1996年推出(第二版),2000年推出(第三版),2004年推出(第四版),2008年推出(第五版),2011年推出(第六版),第七版(2014版) 5、论文发表等级第五级-D类:一般公开刊物论文,在国内公开发行的刊物上双刊号期刊(有期刊号“CN”“ISSN”,有邮发代号)发表的论文。 6、论文发表等级第六级-E类:受限公开刊物论文,指在国内公开发行的但受发行限制的刊物上(仅有期刊号、无邮发代号)发表的论文。 7、内部刊物发表的论文分为三个级别(类):内部刊物必须为教育部门主办,以主办单位级别分为:第七级-国家级内刊(中国教育学会及其专委会、教育部等自办刊物),第八级-省级内刊,第九级-区级内刊。
科研出版社,这个出版社很多英文期刊都还不错,你可以试试,希望能帮到你
sci论文是国际学术界的顶尖论文。你说你的学术水平在某一领域达到国际水平,却没有sci论文来证明,是缺少说服力的,是很难得到学术界圈内人士认可的。足见,sci论文地位之高。从发表论文代表的学术水平来说,从低到高依次是省级论文、国家级论文、国内核心论文、国际核心论文。其中,国内核心论文,就是常说的北大核心论文、南大核心论文、科技核心论文。国际核心论文,常见的就是sci论文。可以说,sci论文的级别比国内核心还要高。当然这并不代表,国内所有的科研机构,对sci论文认可度比国内核心高。但在国际舞台上,国内核心论文,是不被认可的。sci论文它可以代表本专业在全球的最先进技术以及发展趋势。凡是在sci期刊发表的论文,都属于sci论文。而sci期刊是一个目录表,有很多期刊组成,而不同的sci期刊之间,影响因子也有差异,所以就根据影响因子的不同,把sci期刊划分了四个区,分别是一区、二区、三区、四区。找不同去的sci期刊发表论文,所代表的含金量有不同,影响因子越高的,说明sci论文的等级越高。总的来说,有成果发表的sci论文,可以让自己的学术水平被圈内人认可,也给自己的地位和荣誉带来辅助加成。但并不代表sci论文一定比国内核心论文更难发表,只要论文内容质量过硬,发sci论文也是很吃香的。若你缺少发表sci论文的经验,或者英文水平不够,可以找我们给予润色和指导,让sci论文不因这些细节被拒稿。
SCl论文的级别就是国际核心期刊。SCI论文在众多学术论文里面属于级别高的论文,SCI指来源刊为3500多种的SCI印刷版和SCI光盘版(SCI Compact Disc Edition, 简称SCI CDE), SCI-E(SCI Expanded)是SCI的扩展库,收录了5600多种来源期刊,可通过国际联机或因特网进行检索。
SCI论文是国际学术界的顶尖论文,它可以代表本专业在全球的最先进技术以及发展趋势。论文级别一般是按照SCl期刊的影响因子进行划分的,影响因子越高,就说明SCI期刊论文的等级越高,因此SCI论文对于很多作者来说,是对自身学术水平的最高认可。
SCI期刊是一个庞大的目录表,收录了很多期刊,并且根据影响因子不同划分为四个区,从一到四依次排列,其中以一区是最高级别的。能在一区发表一篇论文是莫大的认可,也是一种极高的荣誉,但不是普通作者可以达到的往往都是业内的顶级大牛才能做到。
特别是现在评职称,很多单位已经越来越重视SCl论文,有的单位甚至有这样的规定,如果能发表SCl论文予以作者相应的奖励。在评职称评高级职称的时候,一篇SCI论文完全可以顶得上一篇核心论文,有的时候甚至是两篇。光从这点上就能看得出来SCI的分量有多重了。
SCI论文本身来说,我国科研工作者大多面临英语能力匮乏的缺陷,尤其对于年龄大和专业性强的科技工作者来说,内容不是问题,英语往往成为了制约的瓶颈。 scl论文是什么意思 SCI论文是被SCI(ScientificCitationIndex,《科学引文索引》)收录的期刊所刊登的论文,我国科技界对SCI论文概念模式,小部分研究者误认为SCI是一本期刊,由南京大学引用并成为各大高校和科研机构学术评价和奖惩的一类刊物。 scl创立背景 SCI(ScientificCitationIndex)是美国科学信息研究所(ISI)编辑出版的引文索引类刊物,创刊于1964年。分印刷版、光盘版和联机版等载体。印刷版、光盘版从全球数万种期刊中选出3300种科技期刊,涉及基础科学的100余个领域。每年报道60余万篇最新文献,涉及引文900万条。进入SCI这一刊物的论文即为SCI论文。
SCI论文要发表在SCI期刊上
sci论文期刊包括以下:
1、北京科技大学学报(MMM英文版)2材料科学技术(英文版)
2、大气科学进展(英文版)4代数集刊(英文版)
3、地球物理学报 6地质学报、土壤圈(英文版)
4、分析化学 8钢铁研究学报(英文版)
5、高等学校化学学报 10高等学校化学研究(英文版)
6、高分子科学(英文版)12高分子学报
7、高能物理与核物理 14固体力学学报(英文版)
8、光谱学与光谱分析(中文)16红外与毫米波学报(中文)
9、化学学报 18计算数学(英文版)
10、结构化学 20科学通报(英文版)
省级期刊省级期刊指由各省、自治区、直辖市及其所属部、委办、厅、局主办的期刊以及由各本、专科院校主办的学报(刊)。国家级期刊国家级期刊指由国家部委、全国性团体、组织、机关、学术机构主办的刊物。核心期刊目前国内有7大核心期刊(或来源期刊)遴选体系,凡是这些来源期刊目录里有的刊物均可认为核心期刊,包括北京大学图书馆“中文核心期刊”、南京大学“中文社会科学引文索引(CSSCI)来源期刊”、中国科学院文献情报中心“中国科学引文数据库(CSCD)来源期刊”、中国科学技术信息研究所“中国科技论文统计源期刊”(又称“中国科技核心期刊”)、中国社会科学院文献信息中心“中国人文社会科学核心期刊”、中国人文社会科学学报学会“中国人文社科学报核心期刊”、万方数据股份有限公司正在建设中的“中国核心期刊遴选数据库”。
大部分论文都在期刊上发表,CN期刊。
少数的是发表到国外的期刊,或者直接是在杂志的官网上线,比如SCI。对于大多数人来说,发表CN期刊就可以了。
期刊,定期出版的刊物。如周刊、旬刊、半月刊、月刊、季刊、半年刊、年刊等。由依法设立的期刊出版单位出版刊物。期刊出版单位出版期刊,必须经新闻出版总署批准,持有国内统一连续出版物号,领取《期刊出版许可证》。
广义上分类
从广义上来讲,期刊的分类,可以分为非正式期刊和正式期刊两种。非正式期刊是指通过行政部门审核领取“内部报刊准印证”作为行业内部交流的期刊(一般只限行业内交流不公开发行),但也是合法期刊的一种,一般正式期刊都经历过非正式期刊过程。
正式期刊是由国家新闻出版署与国家科委在商定的数额内审批,并编入“国内统一刊号”,办刊申请比较严格,要有一定的办刊实力,正式期刊有独立的办刊方针。
“国内统一刊号”是“国内统一连续出版物号”的简称,即“CN号”,它是新闻出版行政部门分配给连续出版物的代号。“国际刊号”是“国际标准连续出版物号”的简称,即“ISSN号”,我国大部分期刊都配有“ISSN号”。
此外,正像报纸一样,期刊也可以不同的角度分类。有多少个角度就有多少种分类的结果,角度太多则流于繁琐。一般从以下三个角度进行分类:
按学科分类
以《中国图书馆图书分类法.期刊分类表》为代表,将期刊分为五个基本部类:
(1)思想(2)哲学(3)社会科学(4)自然科学(5)综合性刊物。在基本部类中,又分为若干大类,如社会科学分为社会科学总论、政治、军事、经济、文化、科学、教育、体育、语言、文字、文学、艺术、历史、地理。
按内容分类
以《中国大百科全书》新闻出版卷为代表,将期刊分为四大类:
(1)一般期刊,强调知识性与趣味性,读者面广,如我国的《人民画报》、《大众电影》,美国的《时代》、《读者文摘》等;
(2)学术期刊,主要刊载学术论文、研究报告、评论等文章,以专业工作者为主要对象;
(3)行业期刊,主要报道各行各业的产品、市场行情、经营管理进展与动态,如中国的《摩托车信息》、《家具》、日本的《办公室设备与产品》等;
(4)检索期刊,如我国的《全国报刊索引》、《全国新书目》,美国的《化学文摘》等。
按学术地位分类
可分为核心期刊和非核心期刊(通常所说的普刊)两大类。
关于核心期刊
核心期刊,是指在某一学科领域(或若干领域)中最能反映该学科的学术水平,信息量大,利用率高,受到普遍重视的权威性期刊。
有省级期刊,国家级期刊,核心期刊。省级期刊是由各省、自治区、直辖市的各部门、委办、厅、局、所,省级社会团体和机构以及各高等院校主办,在新闻出版部门有登记备案,国内外公开发行的学术期刊。私:六零16四八26四国家级期刊,即由党中央、国务院及所属各部门,或中国科学院、中国社会科学院、各民主党派和全国性人民团体主办的期刊及国家一级专业学会主办的会刊。
前面写了对话系统中的SLU之领域 分类/意图识别 、 槽填充 、 上下文LU和结构化LU 以及 NLG ,DST是对话管理(DM)的一部分,而DM是任务型对话中至关重要的一部分。说个 非严格的对比 :如果把对话系统比作计算机的话,SLU相当于输入,NLG相当于输出设备,而DM相当于CPU(运算器+控制器)。
对话系统按功能来划分的话,分为闲聊型、任务型、知识问答型和推荐型。在不同类型的聊天系统中,DM也不尽相同。
闲聊型对话中的DM就是对上下文进行序列建模、对候选回复进行评分、排序和筛选等,以便于NLG阶段生成更好的回复;
任务型对话中的DM就是在NLU(领域分类和意图识别、槽填充)的基础上,进行对话状态的追踪(DST)以及对话策略的学习(DPL,下次分享),以便于DPL阶段策略的学习以及NLG阶段澄清需求、引导用户、询问、确认、对话结束语等。
知识问答型对话中的DM就是在问句的类型识别与分类的基础上,进行文本的检索以及知识库的匹配,以便于NLG阶段生成用户想要的文本片段或知识库实体。
推荐型对话系统中的DM就是进行用户兴趣的匹配以及推荐内容评分、排序和筛选等,以便于NLG阶段生成更好的给用户推荐的内容。
什么是对话状态?其实状态St就是一种 包含0时刻到t时刻的对话历史、用户目标、意图和槽值对的数据结构 ,这种数据结构可以给DPL阶段提供学习策略(比如定机票时,是询问出发地还是确定订单?)继而完成NLG阶段的回复。
对话状态追踪(DST)的作用: 根据领域(domain)/意图(intention) 、曹植对(slot-value pairs)、之前的状态以及之前系统的Action等来追踪当前状态 。他的 输入是Un(n时刻的意图和槽值对,也叫用户Action)、An-1(n-1时刻的系统Action)和Sn-1(n-1时刻的状态),输出是Sn(n时刻的状态) 。 这里用户Action和系统Action不同,且需要注意
S = {Gn,Un,Hn},Gn是用户目标、Un同上、Hn是聊天的历史,Hn= {U0, A0, U1, A1, ... , U −1, A −1},S =f(S −1,A −1,U )。
DST涉及到两方面内容: 状态表示、状态追踪 。另外为了解决领域数据不足的问题,DST还有很多迁移学习(Transfer Learning)方面的工作。比如基于特征的迁移学习、基于模型的迁移学习等。
为了在抽象的建模的基础上加深理解,看个小例子:
通过前面的建模和实例化,不难看出对话状态数跟意图和槽值对的数成 指数关系 ,维护所有状态的一个分布非常非常浪费资源,因此需要比较好的状态表示法来减少状态维护的资源开销(相当于特定任务下,更合理的数据结构设计,好的数据结构带来的直接影响就是算法开销变小)。
常见的状态表示法包括两种:
Hidden Information State Model (HIS)
这种方法就是:使用 状态分组 和 状态分割 减少跟踪复杂度。其实就是类似于二分查找、剪枝。
Bayesian Update of Dialogue States (BUDS)
这种方法就是:假设不同槽值的转移概率是相互独立的,或者具有非常简单的依赖关系。这样就将状态数从意图和槽值数的 指数 减少到了 线性 。
下面简单对比下两种不同状态表示法的优缺点:
讲到DST就不得不讲DSTC,DSTC是 Dialog System Technology Challenge ,主要包括6个Challenge。DSTC对DST的作用就相当于目标函数对机器学习任务的作用,真正起到了评估DST技术以及促进DST技术发展的作用。之所以在DST前先说DSTC是因为后面的很多DST的方法是在某个DSTC(大多是DSTC2、DSTC3、DSTC4、DSTC5)上做的。
先来看看DST的形象化
再来看看我总结的DST的方法汇总,注意我没有整理基于规则的DST( 基于规则的方法虽然可以较好利用先验知识从而可以较好解决冷启动等问题,但是需要太多人工、非常不灵活、扩展性和移植性很差、不能同时追踪多种状态 )。
下面分别介绍一下对话系统中的不同DST技术。
论文: ( Lee, SIGDIAL 2013 )( Kim et al., 2014 )
从BUDS中对不同槽值的转移概率是相互独立的假设(是不是很像马尔可夫假设?)以及St的预测需要Un、An-1和Sn-1(转移概率和发射概率),是不是想到了HMM和CRF?没错,前期的基于统计的DST就是用了很多CRF。 n = (S −1, A −1, U )。
Lee, SIGDIAL 2013 的主要思想如下:
Kim et al., 2014 的主要思想如下:
论文: ( Mrkšić et al., ACL 2015 )( Henderson et al., 2013 )( Henderson et al., 2014 )( Zilka el al., 2015 )
关于神经网络的介绍、神经网络的好处和坏处,不再赘述,已经烂大街。基于神经网络的很多方法是在DSTC上做的,这里选取了几篇有针对性的经典论文简单介绍下。
Mrkšić et al., ACL 2015 是ACL2015的一篇论文,它是用RNN进行多领域的对话状态追踪,主要贡献是证明:利用多个领域的数据来训练一个通用的状态追踪模型比利用单领域数据训练追踪模型效果要好。
Henderson et al., 2013 是利用DNN来解决DSTC,它把DST当分类问题,输入时间窗口内对话轮次提取的特征,输出slot值的概率分布。该方法不太容易过拟合,领域迁移性很好。模型结构图如下:
Henderson et al., 2014 ,基于DRNN和无监督的自适应的对话状态鲁棒性跟踪,从论文名字就能看出因为使用DRNN和无监督的自适应导致DST 鲁棒性很好 。
先来看看特征提取的办法:主要提取f,fs,fv三种特征,f是针对原始输入提取,fs和fv是对原始输入中的词做Tag替换得到 泛化特征 。
再来看下模型结构:对slot训练一个模型,利用无监督的自适应学习,将模型泛化到新的domain以便于提高模型的泛化能力。
Zilka el al., 2015 ,基于增量LSTM在DSTC2做对话状态追踪,具体思想如下:
( Williams 2013 )( Mrkšic, ACL 2015 )
目前对话系统数据较少,我比较看好迁移学习在任务型对话中的应用,尤其是DST这种较复杂的任务。
Williams 2013 ,这是通过 多领域学习与泛化 来做对话状态追踪,比较好的解决了数据目标领域数据不足的问题。
Mrkšic, ACL 2015 ,这是ACL 2015的一篇paper,基于RNN做多领域的对话状态追踪,主要贡献是证明:利用多个领域的数据来训练一个通用的状态追踪模型比利用单领域数据训练追踪模型效果要好。顺便说一句,这篇论文涵盖了很多任务型对话领域比较高产的学者。
Shietal., 2016 ,基于 多通道卷积神经网络 做 跨语言 的对话状态跟踪。为每一个slot训练一个多通道CNN(中文character CNN、中文word CNN、英文word CNN),然后跨语言做对话状态追踪,我个人很喜欢这篇paper,也非常推荐大家好好读读这篇paper。
先来看看方法的整体结构:
再来看看多通道CNN的结构图:
最后看看输入之前的预处理:
( Mrkšić et al., ACL 2017 )
这是发表于ACL 2017的一篇论文,个人觉得水平很高。
先来看一下基于word2vec的表示学习模型,本文提出两种架构:NBT-DNN、NBT+CNN,结构图如下:
再来看看整个模型的结构图,它包含语义解码和上下文建模两部分:语义解码:判断槽值对是否出现在当前query;上下文建模:解析上一轮系统Act,系统询问(tq)+ 系统确认(ts+tv)。
模型还有一部分:二元决策器,用来判定当前轮的槽值对的状态。本文的状态更新机制采用简单的基于规则的状态更新机制。
另外,ACL 2018在本文的基础上提出完全NBT( Fully NBT) ,主要变动是修改基于规则的状态更新机制,把更新机制融合到模型来做 联合训练 。具体更新状态的机制包括One-Step Markovian Update( 一步马尔科夫更新,使用两个矩阵学习当前状态和前一时刻状态间的更新关系和系数)和Constrained Markovian Update(约束马尔科夫更新,利用对角线和非对角线来构建前一种方法中的矩阵,对角线学习当前状态和前一时刻状态间的关系,非对角线学习不同value间如何相互影响)。总之,这个工作扩展的比较细致。
其实还有很多种对话状态追踪的方法,比如基于贝叶斯网络做DST、基于POMDP(部分可观测马尔可夫决策过程)做DST等,因为时间相对比较久远,这里不再赘述。
以上介绍了多种对话系统中的DST技术,下面简单总结下它们的优势和劣势。
任何一项技术想要取得进步,那么他的评测方法是至关重要的(就相当于目标函数之于机器学习算法),所以我列出一些关于DST的评估。遗憾的是,目前DST的评估我感觉并不成熟,这也是制约DST发展的一个重要原因,如果谁能想出更好的评估方法或整理出一个业内公认的高质量数据集,那么一定会在DST(甚至是对话系统)领域有一席之地,引用量也会蹭蹭的上涨。
6.1.Dialog State Tracking Challenge (DSTC)
Williams et al. 2013, Henderson et al. 2014, Henderson et al. 2014, Kim et al. 2016, Kim et al. 2016, Hori et al. 2017
6.2. State Representation:
6.2.1 HIS
Steve Young, Jost Schatzmann, Karl Weilhammer, and Hui Ye. The hidden information state approach to dialog management.
6.2.2 BUDS
Blaise Thomson, Jost Schatzmann, and Steve Young. Bayesian update of dialogue state for robust dialogue systems.
6.3.DST
6.3.1 CRF
Sungjin Lee. Structured discriminative model for dialog state tracking. In Proceedings of the SIGDIAL 2013 Conference. Lee, SIGDIAL 2013
Seokhwan Kim and Rafael E Banchs. Sequential labeling for tracking dynamic dialog states. Kim et al., 2014
6.3.2 NN-Based DST
Multi-domain Dialog State Tracking using Recurrent Neural Network, Mrkšić et al., ACL 2015
Deep Neural Network Approach for the Dialog State Tracking Challenge, Henderson et al., 2013
Robust dialog state tracking using delexicalised recurrent neural networks and unsupervised adaptation, Henderson et al., 2014
Incremental lstm-based dialog state tracker, Zilka el al., 2015 .
6.3.3 Neural Belief Tracker
Neural Belief Tracker: Data-Driven Dialogue State Tracking , Mrkšić et al., ACL 2017
6.3.4 Multichannel Tracker
A Multichannel Convolutional Neural Network For Cross-language Dialog State Tracking, Shi et al., 2016
6.3.5 Transfer learning for DST
6.3.5.1 Feature based transfer for DST
Jason Williams. Multi-domain learning and generalization in dialog state tracking . In Proceedings of SIGDIAL. Williams 2013
Hang Ren, Weiqun Xu, and Yonghong Yan. Markovian discriminative modeling for cross-domain dialog state tracking .
6.3.5.2 Model based transfer for DST
Nikola Mrkšic, Diarmuid O Séaghdha, Blaise Thomson,Milica Gaši ́c, Pei-Hao Su, David Vandyke, Tsung-Hsien Wen, and Steve Young. Multi- domain dialog state tracking using recurrent neural networks . Mrkšic, ACL 2015
2017年 10 月 11 日,阿里巴巴达摩院正式成立,马云的一句 “ 活得要比阿里巴巴长”,让外界对它的未来发展,有了更 “意味深长” 的期待。
在近三年多的时间里,达摩院在人工智能学术科研与应用上齐头并进,无论在国际学术顶会以及各类竞赛上,还是在推动学术成果的商业化落地上,都交出了亮眼的成绩单,这也反过来吸引着人工智能领域的顶尖研究者们都汇聚于此。
对于这些顶尖研究者们目前正在开展的研究工作,想必大家都充满了探知欲!
7月9日(晚)19:30-21:00 ,AI科技评论就将联合阿里达摩院,外加阿里集团在学术科研上同样“坚挺”的存在——阿里安全,给大家呈上一场 “ACL 2020 系列论文解读·阿里巴巴专场” 直播!
届时,来自阿里达摩院机器智能技术团队和阿里安全安全智能团队的 6 位高级算法专家、算法工程师以及研究型实习生们,将分别聚焦于多任务学习、少样本文本分类、 任务型对话、神经机器翻译、知识蒸馏、跨域分词标注等NLP 细分领域,为大家带来一场论文解读盛宴!
本次分享的嘉宾具体都有谁呢?下面一一揭晓:****分享主题: SpanMlt:一种基于跨度的用于属性词和观点词配对抽取的多任务学习框架 ****分享嘉宾:黄龙涛
分享内容:
属性词和观点词抽取,是细粒度的基于属性的情感分析(ABSA)的两个关键问题。属性-观点词对( aspect-opinion pairs)可以为消费者和观点挖掘系统提供相关产品或服务的全局配置文件。但是,传统方法无法在没有给定属性词和观点词的情况下,直接输出属性-观点词对。尽管研究者最近提出了一些共提取方法来联合提取属性词和观点词,但是并不能配对抽取两者。为此,本文提出了一种端到端方法来解决属性词和观点词的配对抽取(PAOTE)任务。此外,本文从联合词和关系抽取的角度而非此前大多数工作中执行的序列标注方法的角度,来处理该问题。我们提出了一个基于共享跨度的多任务学习框架,其中在跨度边界的监督下提取词。同时,使用跨度表示法来联合识别配对关系。大量实验表明,我们的模型始终优于 SOTA 方法。
分享内容:
现有的工作往往使用元学习(meta learning)的方法,通过在一系列meta-task中切换来获得少样本学习的能力,但是在task间的切换会带来遗忘的问题,因此考虑使用记忆机制来辅助meta learning的训练。在本工作中,我们将监督学习得到的分类参数作为meta learning的全局记忆,并提出了动态记忆路由算法,基于dynamic routing的方式将全局记忆信息融入到meta task的训练和预测阶段。此外,动态记忆路由算法还可以使用query信息来增强归纳类别表示的能力,对口语场景下的语言多样性表达有更好的泛化性能。在中英文场景少样本分类任务数据集上,均取得了STOA的结果。
分享主题:多领域对话动作和回复联合生成****分享嘉宾:田俊峰
分享内容: 在任务型对话中,产生流畅且信息丰富的回复至关重要。现有pipeline方法通常先预测多个对话动作,然后使用它们的全局表示来辅助回复生成。这种方法有两个缺陷:第一,在预测对话动作时,多领域的固有结构被忽略了;其次,在生成回复时没有考虑到对话动作和回复之间的语义联系。为了解决这些问题,我们提出了一种同时生成对话动作和回复的神经联合生成模型。与以往的方法不同,我们的对话动作生成模块可以保留多领域对话动作的层次结构,同时我们的回复生成模块可以动态地关注到相关的对话动作。在训练时,我们采用不确定性损失函数来自适应地调整两个任务的权重。在大规模MultiWOZ数据集上进行了评估,实验结果表明,我们的模型在自动评估和人工评估上都比SOTA模型有很好的提升。****分享主题:神经机器翻译的多尺度协同深度模型******分享嘉宾:魏相鹏**
近年来,神经机器翻译(NMT)方法凭借其出色的翻译性能在大量应用场景中取代了基于统计的机器翻译方法。目前,制约NMT模型性能的因素主要包括模型的特征表达能力和数据规模。因此,我们提出一种基于多尺度协作(MSC)机制的深度神经机器翻译模型,以提高模型对底层(具象化)和高层(抽象化)特征的建模能力。
实验证明,(1) 多尺度协作机制有助于构建极深的NMT模型的同时带来性能上的提升,(2) 基于MSC机制的深度NMT模型能够更好地翻译语义结构复杂的自然语言句子。
****分享主题:多语种序列标注的结构级知识蒸馏******分享嘉宾:王新宇**
多语言序列标注是一项使用单一统一模型预测多语言标签序列的任务。与依赖于多个单语模型相比,使用多语言模型具有模型规模小、在线服务容易和对低资源语言通用的优点。然而,由于模型容量的限制,目前的多语种模型仍然远远低于单独的单语模型。本文提出将多个单语言模型(teachers)的结构知识提取到统一的多语言模型(student)中,以缩小单语言模型与统一的多语言模型之间的差距。我们提出了两种基于结构层次信息的知识挖掘方法:
****分享主题:跨域中文分词的远程标注与对抗耦合训练******分享嘉宾:丁宁**
完全监督神经方法在中文分词(CWS)的任务上取得了重大进展。但是,如果由于域间的分布差异和集外词(OOV)问题导致域迁移,则监督模型的性能始终一直大幅下降。为了实时缓解此问题,本文将跨域中文分词的远程标注和对抗性训练直观地结合在一起。
7月9日,6位来自阿里的分享嘉宾,与大家不见不散!
ACL 2020原定于2020年7月5日至10日在美国华盛顿西雅图举行,因新冠肺炎疫情改为线上会议。为促进学术交流,方便国内师生提早了解自然语言处理(NLP)前沿研究,AI 科技评论将推出「ACL 实验室系列论文解读」内容,同时欢迎更多实验室参与分享,敬请期待!