• 回答数

    2

  • 浏览数

    294

墨剂先生
首页 > 期刊论文 > 机器翻译理论研究报告论文

2个回答 默认排序
  • 默认排序
  • 按时间排序

千羽YUmi

已采纳

翻译是跨学科的,注定要采取多学科的视角研究翻译现象和翻译问题。一、选题范围 1、翻译与文化:可以从宏观和微观两个方面考虑。宏观方面,一般从翻译在目的语社会文化中的生产、接受、翻译在目的语社会文化中所起的功能等角度讨论,可以从社会、文化、历史、交际的...1、选题意义和背景。随着中国加入世界贸易组织,中国企业的对外联系也日益增多。中国企业要想打入国际市场,提高在国际市场上的知名度,企业网站或宣传册上的企业简介扮演着十分重要的地位。通过阅读企业宣传资料,读者可以看出企业外宣材料既有关于企业的基本信息介绍,也有企业所做的文字上、句法上、结构上的这染来达到推广企业、大市场的目的。汉语企业外宣材料的翻译在英译过程中会涉及到与目的语不同的语言习惯、行文方式以及文化因素、社会政治因素、心理因素和审美因素等,这就需要译者对原文本做出适当调整,从内容和形式上对语篇进行重构,以此实现对交际意图的顺应。根据赖斯的文本类型说,本文有三种类型,分别是“信息型”、“表达型”和“诱导型”.笔者认为,企业外宣翻译属于“信息型”和“诱导型”文本兼而有之,而且更侧重于“诱导型”.因此,外宣翻译要更加注重文本的交际功能,要更多的考虑如何使译文所传递的信息更便于目的语读者理解和接受,并让读者产生共鸣,继而付诸行动,实现译文预期的功能。比利时语用学家维索尔伦(Verschuem)提出了顺应论,将语言的使用过程看做语言为顺应不同的交际目的和交际对象进行动态选择的过程。因而可以从顺应论的视角研究语言使用。翻译作为一种特殊的交际方式,也可以从顺应论的视角对其进行研究。优秀的企业宣传材料不仅会提高企业的知名度,还会为企业带来不可估量的经济效益,因此任何一个想打入国际市场的企业务必在其外宣材料的翻译上做足功夫。由于中西方文化背景、历史渊源、生活环境的不同,译者在翻译企业外宣材料时为了获取目的语读者的认可并激发他们付诸行动,就要顺应目的语读者的阅读习惯、审美习惯以及心理因素、文化因素等对原文做出形式上和内容上的调整,而这一顺应的过程也是语篇重构的过程。本文突破性的将顺应论与语篇重构结合起来,并结合西麦克展览公司宣传材料和海天调味食品股份有限公司宣传材料及其翻译,试图从顺应论的视角分析企业外宣翻译中的语篇重构现象。2、论文综述/研究基础。1987年维索尔伦(Verschueren)提出顺应论之后,在语用学界引起了很大反响,不久国内学者就将其引进到中国来。国内学者不仅从理论层面对顺应论进行研究和探索,而且将顺应论应用到翻译理论和实践、外语教学、二语习得、文化传播等领域。在这些领域中,成果最大的当属顺应论对翻译理论和其应用的研究。我国真正将顺应论引入翻译研究开始于21世纪初希望能帮到你

254 评论

yy瘦胖纸

近年来, 深度学习 的研究越来越深入,在各个领域也都获得了不少突破性的进展。基于注意力(attention)机制的神经网络成为了最近神经网络研究的一个热点。Attention机制最早是在视觉图像领域提出来的,应该是在九几年思想就提出来了,但是真正火起来应该算是google mind团队的这篇论文《Recurrent Models of Visual Attention》[14],他们在RNN模型上使用了attention机制来进行图像分类。随后,Bahdanau等人在论文《Neural Machine Translation by Jointly Learning to Align and Translate》 [1]中,使用类似attention的机制在机器翻译任务上将翻译和对齐同时进行,他们的工作算是是第一个提出attention机制应用到NLP领域中。接着类似的基于attention机制的RNN模型扩展开始应用到各种NLP任务中。最近,如何在CNN中使用attention机制也成为了大家的研究热点。在介绍NLP中的Attention之前,我想大致说一下图像中使用attention的思想。就具代表性的这篇论文《Recurrent Models of Visual Attention》 [14],他们研究的动机其实也是受到人类注意力机制的启发。人们在进行观察图像的时候,其实并不是一次就把整幅图像的每个位置像素都看过,大多是根据需求将注意力集中到图像的特定部分。而且人类会根据之前观察的图像学习到未来要观察图像注意力应该集中的位置。下图是这篇论文的核心模型示意图。 该模型是在传统的RNN上加入了attention机制(即红圈圈出来的部分),通过attention去学习一幅图像要处理的部分,每次当前状态,都会根据前一个状态学习得到的要关注的位置 l 和当前输入的图像,去处理注意力部分像素,而不是图像的全部像素。这样的好处就是更少的像素需要处理,减少了任务的复杂度。可以看到图像中应用attention和人类的注意力机制是很类似的,接下来我们看看在NLP中使用的attention。这篇论文算是在NLP中第一个使用attention机制的工作。他们把attention机制用到了神经网络机器翻译(NMT)上,NMT其实就是一个典型的sequence to sequence模型,也就是一个encoder to decoder模型,传统的NMT使用两个RNN,一个RNN对源语言进行编码,将源语言编码到一个固定维度的中间向量,然后在使用一个RNN进行解码翻译到目标语言,传统的模型如下图: 这篇论文提出了基于attention机制的NMT,模型大致如下图: 图中我并没有把解码器中的所有连线画玩,只画了前两个词,后面的词其实都一样。可以看到基于attention的NMT在传统的基础上,它把源语言端的每个词学到的表达(传统的只有最后一个词后学到的表达)和当前要预测翻译的词联系了起来,这样的联系就是通过他们设计的attention进行的,在模型训练好后,根据attention矩阵,我们就可以得到源语言和目标语言的对齐矩阵了。具体论文的attention设计部分如下: 可以看到他们是使用一个感知机公式来将目标语言和源语言的每个词联系了起来,然后通过soft函数将其归一化得到一个概率分布,就是attention矩阵。 从结果来看相比传统的NMT(RNNsearch是attention NMT,RNNenc是传统NMT)效果提升了不少,最大的特点还在于它可以可视化对齐,并且在长句的处理上更有优势。这篇论文是继上一篇论文后,一篇很具代表性的论文,他们的工作告诉了大家attention在RNN中可以如何进行扩展,这篇论文对后续各种基于attention的模型在NLP应用起到了很大的促进作用。在论文中他们提出了两种attention机制,一种是全局(global)机制,一种是局部(local)机制。首先我们来看看global机制的attention,其实这和上一篇论文提出的attention的思路是一样的,它都是对源语言对所有词进行处理,不同的是在计算attention矩阵值的时候,他提出了几种简单的扩展版本。 在他们最后的实验中general的计算方法效果是最好的。我们再来看一下他们提出的local版本。主要思路是为了减少attention计算时的耗费,作者在计算attention时并不是去考虑源语言端的所有词,而是根据一个预测函数,先预测当前解码时要对齐的源语言端的位置Pt,然后通过上下文窗口,仅考虑窗口内的词。 里面给出了两种预测方法,local-m和local-p,再计算最后的attention矩阵时,在原来的基础上去乘了一个pt位置相关的高斯分布。作者的实验结果是局部的比全局的attention效果好。这篇论文最大的贡献我觉得是首先告诉了我们可以如何扩展attention的计算方式,还有就是局部的attention方法。 随后基于Attention的RNN模型开始在NLP中广泛应用,不仅仅是序列到序列模型,各种分类问题都可以使用这样的模型。那么在深度学习中与RNN同样流行的卷积神经网络CNN是否也可以使用attention机制呢?《ABCNN: Attention-Based Convolutional Neural Network for Modeling Sentence Pairs》 [13]这篇论文就提出了3中在CNN中使用attention的方法,是attention在CNN中较早的探索性工作 传统的CNN在构建句对模型时如上图,通过每个单通道处理一个句子,然后学习句子表达,最后一起输入到分类器中。这样的模型在输入分类器前句对间是没有相互联系的,作者们就想通过设计attention机制将不同cnn通道的句对联系起来。 第一种方法ABCNN0-1是在卷积前进行attention,通过attention矩阵计算出相应句对的attention feature map,然后连同原来的feature map一起输入到卷积层。具体的计算方法如下。 第二种方法ABCNN-2是在池化时进行attention,通过attention对卷积后的表达重新加权,然后再进行池化,原理如下图。 第三种就是把前两种方法一起用到CNN中,如下图这篇论文提供了我们在CNN中使用attention的思路。现在也有不少使用基于attention的CNN工作,并取得了不错的效果。 最后进行一下总结。Attention在NLP中其实我觉得可以看成是一种自动加权,它可以把两个你想要联系起来的不同模块,通过加权的形式进行联系。目前主流的计算公式有以下几种: 通过设计一个函数将目标模块mt和源模块ms联系起来,然后通过一个soft函数将其归一化得到概率分布。目前Attention在NLP中已经有广泛的应用。它有一个很大的优点就是可以可视化attention矩阵来告诉大家神经网络在进行任务时关注了哪些部分。 不过在NLP中的attention机制和人类的attention机制还是有所区别,它基本还是需要计算所有要处理的对象,并额外用一个矩阵去存储其权重,其实增加了开销。而不是像人类一样可以忽略不想关注的部分,只去处理关注的部分。

174 评论

相关问答

  • 机器翻译软件研究论文

    随着毕业季的结开始,各位本科生也开始了毕业论文的创作,在论文写作过程中我们肯定需要查询国内外该领域的论文,英文翻译因此也是必不可少的,不论是汉译英还是英译汉都在

    guaziqiaqia 6人参与回答 2023-12-06
  • 大数据研究论文翻译实践报告

    可以。毕业论文翻译实践报告是可以用机翻的,但是翻译过后需要自己检查改正一下,以免有错误。毕业论文(graduation study)是专科及以上学历教育为对本专

    纯度装饰 2人参与回答 2023-12-07
  • 翻译研究论文和翻译实践报告

    MTI专业毕业论文一般会选择写翻译实践报告,而翻译实践报告则要求提供至少10000字的翻译材料(双语)附在翻译实践报告之后,即附录。

    诗酒趁年少r 3人参与回答 2023-12-06
  • 计算机学报翻译

    学报一般分为专科学报,本科学报和核心学报三个级别。学报一般是以各个学校命名的,所以要分清到底是本科学报还是专科学报首先要弄明白这个学校是本科高校还是专科高校。一

    遇见你之前的我 6人参与回答 2023-12-09
  • 国内外机器翻译研究现状分析论文

    摘要近十多年来,我国的翻译研究取得了可喜的成就,研究视野也更加开阔,但在理论建构,研究深度和创新性方面尚存在一定的不足之处。本文从三个方面简要概括了国内翻译研究

    super阿狸 3人参与回答 2023-12-08