meiguihualei
人们的日常交际分为言语交际和非言语交际,一直以来人们往往重视言语交际而忽略非言语交际。直到20世纪50年代,才有一些学者对非语言交际进行了一些系统的研究。时至今日,非语言交际以取得了一些成果并以发展成为了一门边缘性学科。体态语是非语言交际的一个重要组成部分。Birdwhistell对同一文化的人在对话中语言行为和非语言行为做了一个量的估计,认为语言交际最多只占整个交际行为中的30%左右而非语言行为(主要是身势语)所传达的信息高达65%。80年代以来 ,国内相继开展了对体态语的研究 ,出版了一些体态语研究方面的著作。国内最早以专著形式出版的非语言交际的研究成果是耿二岭的《体态语概说》差不多就设这样吧,我当年写的也是这个题目,我记得我写的大概就是这些~~~你再找点别的什么,加点东西~~
靓掣魅影
源文地址:
对话系列的系列文章,我都是学习上面链接大佬的文章,准备将整个对话系统脉络先走通,一边学习一边加以记录,使得自己学习效果更加深刻一点。想看的人还是建议去看大佬源文。
自然语言理解(NLU)就是要获得一个计算机能 直接使用的语义表示 。比如分布式语义表示(Distributional semantics)、框架语义表示(Frame semantics)、模型语义表示(Model-theoretic semantics)等,本文采用的是frame semantics。NLU在很多NLP领域或任务都有涉及,比如问答、信息检索、阅读理解、对话系统以及很多需要NLG的任务等。不同任务下的NLU也不一样,今天我们简单来聊聊对话系统中的NLU。对话系统的自然语言理解(NLU) 部分我们称之为SLU。
因为SLU内容较多,所以打算分3次写。第1次写领域分类和意图识别,第2次写槽填充,第三次写Structural LU、Contextual LU、各种NLU方法的对比以及评测标准。
对话系统按照功能划分为:闲聊型、任务型、知识问答型和推荐型。在不同类型的聊天系统中,NLU也不尽相同。
闲聊型对话中的NLU就是根据上下文进行意图识别、情感分析等, 并作为对话管理(DM)的输入;
任务型对话中的NLU就是领域分类和意图识别、槽填充。他的输入是用户的输入Utterance,输出是Un =(In, Zn), In是intention,Zn是槽植对。
知识问答型对话中的NLU主要是根据用户的问题,进行问句类型识别与问题分类,以便于更精准的进行信息检索或文本匹配来生成用户需要的知识(知识、实体、片段等)。
推荐型对话系统中的NLU就是根据用户各种行为数据和爱好进行兴趣匹配,以便于找到更精准的推荐候选集。
先来看看我汇总的任务型对话系统中的NLU之Domain/Intent Classification
下面分别介绍下对话系统中不同Domain/Intent Classification技术。
这个就是用传统的SVM或MaxEnt,模型方面就是传统的MaxEnt或SVM(几个不同变种、几种不同核函数等),特征主要就是用户的输入Utterance的句法、词法、词性等特征,分类的label集合是事先确定的,这方面paper也不少,不过比较久远了。相信大家都懂,不再赘述。
这种方法基于Deep belief network,它是一种生成模型,由多个限制玻尔兹曼机(Restricted Boltzmann Machines)层组成,被“限制”为可视层和隐层,层间有连接,但层内的单元间不存在连接。隐层单元被训练去捕捉在可视层表现出来的高阶数据的相关性。
具体到这篇论文,主要思路:无监督训练权重,然后用BP做Fine-tuning。另外,还对比了与SVM、最大熵、boosting的效果。
这是一种基于Deep convex network(一种可扩展的模式分类体系结构)做NLU,具体可以参考Li Deng大牛在2011的Interspeech的paper。
这个工作的主要思路:用n-grams对用户的Utterance做特征选择,然后把简单的分类器做 Stacking ,Stacking跟Bagging与Boosting一样,也是一种ensemble的方法。 Stacking 指训练一个模型用于组合其他各个模型, 在这里相当于二次分类 。首先训练多个不同的模型,然后把训练的各个模型的输出作为输入来训练一个模型以得到最终输出。
另外,基于DCN的方法还被扩展到kernel-DCN( Deng et al., 2012 ).
这种方法使用了RNN和LSTM,模型方面不用赘述了吧,都烂大街了。最终结论是,输入完所有词再进行意图分类效果更好。
这个方法是用RNN+CNN做对话的act分类,提出了基于RNN和CNN并融合preceding short texts的模型。短文本如果出现在一个序列中,使用preceding short texts可能提高分类效果,这就是本文的最大的动机和创新点,事实证明也确实达到了SOTA的效果。
本文的两部分:使用RNN/CNN把短文本变成向量表示,基于文本的向量表示和preceding short texts做act分类。
另外,还有rule-based的方法做Domain/Intent Classification,比如CFG、JSGF,感兴趣的可以看看。基于RNN的细分的话,还有RCNN(Lai et al., 2015)和C-LSTM(Zhou et al., 2015)两种方法。
以上是我关于对话NLU中Domain/Intent Classification的一些总结。下面贴出了一些代表性的paper,大家可以深入学习。另外,如果看完论文还是不太懂的欢迎微信找我讨论。
Deep belief nets for natural language call-routing, Sarikaya et al., 2011
Towards deeper understanding: Deep convex networks for semantic utterance classification, Tur et al., 2012
Use of kernel deep convex networks and end-to-end learning for spoken language understanding, Deng et al., 2012
Recurrent Neural Network and LSTM Models for Lexical Utterance Classification, Ravuri et al., 2015
Sequential Short-Text Classification with Recurrent and Convolutional Neural Networks, Lee et al., NAACL 2016
本科生毕业论文是高校教学过程中的一个十分重要的环节。为此,下面由我为大家整理电话销售的毕业论文范文相关内容,欢迎参阅。 电话销售的毕业论文范文篇一
在毕业和升职过程中,论文发挥了很大的作用,这是我们无法回避的问题,这也是衡量论文通过与否的标准。今天paperfree小编给大家讲解毕业论文查重过程中的技术分析
要看你用什么样的系统,不同厂家,型号的系统布线也不一样的。不过一般布一颗视频线+一颗6芯线足够了(从对讲主机到每个分机),但是你布线前,最好还是确定好系统,根据
求本科英语专业 毕业论文一篇题目为 《 傲慢与偏见 》的幽默与讽刺 要求 符合英语专业论文要求 英文论文 字数 五千字左右 不可抄袭 要求原创 (有网站可检测)
现如今,随着社会经济发展,机器人开始被广泛应用于各行各业中,替工人进行一些复杂、繁重的体力劳动,能减轻人们的工作负担。下面是由我整理的工业机器人技术论文 范文