有乐观和悲观的周期在领域的NLP (我们当前可能到在一个更加乐观的阶段之内); 虽然一些非常真正的前进被做了,一个一般NLP系统的目标依然是逃避。 历史上,计算机学家经常是远太过于乐观关于NLP,大概着名的某些的原因以上。 是确切正确地从外边因而是重要的任务为什么是困难的。 It也是重要注意到,有自然语言之间的区别。 由于美国研究员的重要性更多工作在英语大概被完成了比在其他语言,主要,虽然有非常活跃工作者在欧洲和日本。 然而,因为它使用少量变化并且沉重依靠词序,英语在一些方面是一种非典型语言。 用英语和其他介绍来源写的课本很少包含关于语言的NLP的充分讨论与明显不同的语法结构。 We可能区别至少三个分明‘水平’在处理NL : Sounds Grammar Meaning Each可以被划分成两个或多个分段,不需要有关我们这里。 什么我在这简要的介绍想要做是说明某些在处理每个水平的问题。 Consider这三个词,讲话由从英国的南部的一个当地讲英语者: 输入,入口,收入。 是确切全部三个词包含元素与同一个意思。 要输入是投入某事; 水泵的入口是水被采取的地方; 您的收入是您赢得,即进来的金钱。 Is元素在发音了同样在所有三个词(由指定的报告人) ? 仔细听表示,它不是。 词输入是显著的,好象被拼写的imput,而入口发音如被拼写。 如果我们让声音通常被拼写的ng的N立场用英语(即在词象唱歌或歌手),则收入是 因为苏格兰语英语许多报告人这样,不表现I指定了从英国的南部的当地讲英语者; 反而他们一贯地发音所有三个词的第一个元素,当它被拼写,即作为(象可以所有讲英语者,当慢慢地和强调地讲话)时。 Interestingly,讲英语者对这些区别通常是相当未察觉的,在他们自己的讲话和其他的讲话上。 这不是,因为他们不可能区别在三声音m、n和N.之间。 三个词兰姆酒、奔跑和阶在这三声音仅不同并且是相当分明的对所有当地讲英语者。
介绍自然语言处理 一个自然语言' (荷兰)是任何自然语言使用的人,即不是一种人为的或人为的语言,如一种编程语言。 '自然语言处理' (自由党)是一个方便的描述,所有企图利用计算机来处理自然语言。 [ 1 ]的NLP包括: 语音合成:虽然这可能不是乍一看似乎很'聪明' ,合成的自然冠冕堂皇的讲话,是在技术上复杂,几乎肯定需要一些理解,什么是口语,以确保举例来说,正确的语调。 语音识别:基本上是连续减少声波分立的话。 自然语言理解:这里当作从孤立的话(无论是书面或决心通过语音识别)的'意义' 。这可能涉及完整的模型系统或'前端' ,带动其它项目由荷兰命令。 自然语言生成:荷兰创造适当的反应不可预测的投入。 问题补充:这个想法的使用数字电脑的NLP是'旧' ,这可能是因为第一个利用计算机,打破军事守则在第二次世界大战中。一些计算机科学家似乎都认为,俄罗斯(例如)是英语在不同的代码。在这种情况下,因为代码可以被打破,因此可以俄文。这种想法假设有一个共同'的含义基地'的所有自然语言,无论其表面的分歧。压倒一切的共识,语言学家是,这是不正确的。 人工语言处理'的形式,编译器和口译编程语言,是一个关键组成部分,成功的数字化电脑从最早的天。这一成功无疑鼓舞研究的NLP (还鼓励和乐观的态度) 。
在自然语言处理的领域内有乐观与悲观的周期性存在(我们现在大概是出于乐观期);虽然(技术上)真的有一些进步,但是达到一个全面自然语言处理系统的目标仍然遥不可及。(这里我没有用elusive的直译,难以捉摸,因为放进中文里会很怪,没有人说目标难以捉摸。)历史上,计算机专家有时对于自然语言处理(的挑战性)过于乐观,其原因很可能就是以上提到的(周期性)。因此从一开始就清楚这个(自然语言处理)的难度的原因是很重要的。同时,了解自然语言之间的不同也是很重要的一点。相对于其他自然语言来说,更多的研究重点放在了英文上,主要是因为美国研究者(在这个领域里)的重要性,尽管日本和欧洲也有很积极的研究学者。可是,在某一方面来讲,英文不是一个具有代表性的语言:它没有音调变化,并且严重依赖单词顺序。教课书和其他英文版的(自然语言处理)启蒙书籍几乎没有包括任何有关(与英语有)不同语法结构的语言的自然语言处理的合适论述。我们可以区别起码三个完全不同的自然语言处理级别:声音语法语义每一个都可以被再分为两到三个亚级别,但这不是本文的重点。在这个简介里我想要做的是阐明在处理每个级别中会遇到的一些问题。这里有以英文为母语的南英格兰人说的三个词:输入,纳入,收入(input, intake, income);(请大家)思考这三个词。很显然的,三个词都有相同语义的元素。输入,指的是把什么东西放进去;抽水机的纳入指的是水被抽进去的地方,你的收入指的是你赚的钱(就是进你口袋的钱)。三个词中的in元素(在指定说话人的情况下)都发一样的音吗?如果注意听的话就会发现并不是这样。Input 这个词在发音的时候听起来像是拼法是imput的词,而intake听起来就和它的拼法一样。 如果我们用N代表English 里边ng的发音,那么Income就有点iNcome的感觉。我特地点出了说话者是从南英格兰来的本土人,因为很多苏格兰人说英文的时候都没有这种习惯,就像所有其他英文母语者在慢慢地富有感情的说这三个词的时候一样,他们都会将in的发音发成和它拼法一样。有趣的是,不论在他们自己或是其他人的言语中,以英文为母语者通常都不会注意到这些差别。这不是因为他们没办法分辨m ,n ,N 这三种发音。Rum, Run, Rung这三个词就只有m, n, N这三个发音处不同而已,所有英文母语者都可以很好的区别它们。
最近出于兴趣和需要,重新回顾中文分词技术,期间有些心得,以及一些关于自然语言处理的浅薄之见,这里简单分享一下。 首先, 中文分词_百度百科 里面简单介绍了其中主要的分词算法以及相应的优缺点,包括字符匹配法、统计法以及理解法,其中字符匹配法和统计法比较流行且可以取到相对不错的效果,而理解法则相对比较复杂高级,但是我认为这才是真正解决中文分词任务的根本算法。 如今用于中文分词的算法和模型虽算不上比比皆是,但也算是唾手可得,开源的如jieba、ltp、Hanlp等等,提供中文分词服务的如腾讯云、百度大脑、讯飞AI平台等,以及其他如Jiagu等。 其实这些平台算法的差距并不算太大,分词准确率基本上都是在80%以上,然而在98%以下(这里胡诌个数),在一些不太严格的应用场景下基本已经够用了,只要挑一个在自己的业务场景下表现最好的即可。 在我看来,对于中文分词这项任务而言,最关键最核心的其实并不是算法模型,这些都不是所谓的瓶颈,最重要的其实是高质量、大规模的词典。对于字符匹配法而言,词典是基础,没有词典自然连分都分不出来;对于统计学习法而言,其效果一方面取决于算法和模型的选择,一方面取决于其训练数据的数量与质量,需要堆人力物力,比如找专门的标注公司标注数据等。但是就算是人标的数据,也难免有所错误遗漏,所以在有错误的训练数据下,模型也不可能学的太好,同时训练数据再大,也难以覆盖全部语料,总会出现OOV,总有些句子会训练不到,此时还强求模型可以做到“举一反三”有些不切实际。 词条中还提到了关于中文分词的技术难点:歧义识别与新词识别,关于歧义识别,上面并没有提具体的解决思路,对于新词识别而言,这又是自然语言处理领域很基础并且很重要的点,可以参见一下我之前的文章: 《NLP基础任务之新词发现探索之路》 | lightsmile's Blog ,也有另一个思路,比如说爬取网上一些网站的相关条目,比如百度百科等。 简单看了一下 jieba 、 ansj_seg 、 Jiagu 的分词词典,发现其中jieba的词典质量最差,其中不少词性都是错误的,Jiagu的词典还算不错,就是一些新词不全,ansi_seg的没有细看。 尽管这些工具在一些评测数据的结果可以达到90以上的成绩,但是在我看来,还是不够的,我觉得中文分词这个基础而又艰巨的任务还是要到99%以上才可以,否则分词都分不对,那些在分词基础之上的任务更是不行,毕竟词是基本的语义单元。 然而在现在深度学习盛行的潮流下,许多任务如文本分类、命名实体识别等并不一定需要依赖于分词,直接基于字符(char)的Embedding也可以取得不错的效果,并且也可以规避OOV(out of vocabulary words,未登录词)的问题。 但是深度学习,尤其是监督学习的很关键之处是得有大规模的高质量训练数据,不然巧妇难为无米之炊,再好的模型也难以从垃圾中学到有用的知识。 话说回来,虽然自然语言处理是计算机科学与其他领域的交叉学科,深度学习、机器学习算是人工智能的一部分,然而许多时候往往十分依赖人工,而所谓的智能其实也不智能。 无论是计算机视觉领域里的图像分类还是自然语言处理领域的文本分类,其任务都是学习一个从输入 映射到输出或者说标签 的函数 ,具体来说就是将 表征为多维向量 ,将 表征为多维向量 ,然后让 进入一个模型进行一系列的运算后得到一个 ,通过不断地比较 和 的值并调整模型的参数使模型的运算结果 更为准确即更加贴近 (过程有点类似于 “猜数字”游戏 ),从而最终得到一个近似函数 ,我们就可以用来代替未知的 用于预测未来的样本 ,得到它对应的 。 我们可以发现,以上学习算法确实可以得到能够解决问题的模型,然而局限之处在于它也只能做这个任务,即对输入 预测 ,别的啥也干不了。 同时在基于深度学习的自然语言处理模型中,基本套路都是Embedding+Encoder+Decoder,其中Embedding是基于字还是基于词,是使用预训练词向量还是随机初始化,这些选择所导致的效果的差异都随着训练轮数的增加而最终减小。然而,由于梯度下降以及解空间的特点,基于bert的效果确实是要比Word2Vec的要好,那些词向量确实比Word2Vec的嵌入了(或者说学到了)更多的语言知识。 关于模型的选择和取舍,工业界和学术界的标准其实差别很大。学术界里有的论文是开创性的,而许多论文其实都是在原来基础上小修小改,将最近的较新的思想和算法一堆,实验结果比原来指标高一点又是一篇文章,程序运行占用多大内存、跑了多长时间这些都不是主要因素,也就是一切向指标看齐。 而工业界则更加看重的是性价比,不同的公司、不同的部门、不同的阶段其主要矛盾不同。比如说Facebook之前出的fastText,尽管模型很简单,最终效果可能比不上一些其他复杂的模型,但是其训练速度超快、基于CPU就可以,并且可以很方便地对模型进行压缩。许多时候,一些指标高低差几个点并没有那么关键,模型大小、训练时间、预测时间在很多时候是比较关键的因素,除非由于甲方或客户不满意,或者家大业大,有的是资源,那么这时候效果和指标又成为主要矛盾,这时的优化可能要以一定的时间和空间为代价。 原来的自然语言处理各任务基本上都构建在分词的基础之上,粗略来说有一个 语法 、 语义 到 语用 的递进的过程。这一层一层的任务虽然耦合的很好,但是 这种Pipline将会导致下层的错误都将会被积累到上层,其直接影响就是越到上层其准确率越低,甚至低到惨不忍睹的程度。然而在表示学习,尤其是深度学习崛起以后,其强大的特征学习能力,使得现在的模型多为end-to-end模型,其结果是一方面可以使得相关人员摆脱繁琐的特征工程,可以将特征提取与组合设计的工作交给神经网络模型去隐形完成,大大解放了生产力;令一方面可以将模型视为整体的一部分,即它的输入直接对应原始输入,它的输出直接是我们想要的结果,有点直达病灶的意思,摆脱了原来Pipline错误累积的困境。 不过我个人看来成也end-to-end,败也end-to-end,虽然简化了任务,但是有点太过开门见山,得到的模型一个个都是彼此孤立的,各做各的事情,然而从整体论的角度来看它们都是整个自然语言处理系统的一部分,一些特征本来是可以共享,一些结果是彼此相互依赖的。这也又涉及到参数共享、多任务学习等概念,不细表。由于神经网络的可解释性较差,这使得模型更加像一个黑盒,训练调参的过程更像是在炼丹,因为谁也不知道具体能炼出个什么玩意儿。 如下图很形象地诠释了这一现状: 下面就深度学习下的自然语言处理四大任务进行简单对比(都是个人浅薄之见,难免有不足之处,还望海涵)。自然语言处理四大任务分别是:序列标注、文本分类、句子关系、文本生成。 序列标注任务的原始语料是一连串的句子,经过标注后的语料格式大概如下(以命名实体识别为例): 我们可以发现,每一行的格式都是一个字符以及它所对应的类别,如 B_{type} 、 O ,那么对于每一个字符模型需要预测的类别数量总计为 2*len(types) + 1 ,其中2是指 BI 这种标注规范, len(types) 指类型种类的数量(如人名、地名、机构名共三种),1是指 O 。可以发现模型需要拟合的函数的值域还是很小的,即 O(len(types)) 。 文本分类任务的标注语料格式大概如下(以情感极性分析为例): 每一行的格式都包含原始文本以及它所对应的类别(或者说标签),我们可以发现模型需要预测的类别数量总计为 len(types) ,即类型种类的数量(以新闻语料分类,如 娱乐 、 军事 、 科技 、 体育 等),可以发现模型需要拟合的函数的值域也是较小的,即 O(len(types)) 。 句子关系任务的标注语料格式大致如下(以语句相似度为例): 每一行都是两个句子以及它们的关系( 1 代表语义相同, 0 代表语义不同),我们可以发现模型需要预测的类别数量总计为 len(relations) ,即关系种类的数量,可以发现模型需要拟合的函数的值域也是较小的,即 O(len(relations)) 。 文本生成任务的标注语料格式大致如下(以机器翻译为例): 我们可以发现每一行都是源语言句子以及目标语言的对应翻译。虽然此时模型和序列标注模型一样都需要对于单个样本预测多次,但是序列标注模型需要预测的次数直接等于字符的数量,是确定的,但是文本生成任务模型需要预测的次数是不确定的,并且每次预测的值域都是目标语言所有word(或者character)所组成的整体集合,即 O(len(words)) ,其规模可能是十万级或百万级的。因此我们很容易发现文本生成任务的难度和复杂程度是要远远高于其他任务的。对话任务如生成式闲聊机器人更是如此。 可能是之前的AlphaGo过于吸引广大群众的眼球,做相关业务的公司吹的太厉害,以及“人工智能”、“深度学习”这几个词听起来逼格满满,导致许多外行人认为现在的人工智能已经发展到很厉害的层次,并且可以做各种各样的事情,似乎无所不能。但是内行人心里却明白:“什么人工智能,人工智障吧”、“所谓人工智能,多是智能不够,人工来凑”。外行人看不到深度模型算法的局限性,如许多模型的精度并不能达到那么高;也看不到深度模型算法的前提条件,如高质量、大规模的数据集,他们以为模型大约聪明到随便喂点数据便成为终结者般的存在。这也就导致了他们刚开始预期很高,然而在投资或找到外包后发现效果远远不能达到预期,大失所望而潦草结束或撤资离场的局面。 如下一张图大概有点这个意思: 统观学术界与工业界,和计算机视觉领域相比,自然语言处理这种更深层次的、涉及到认知智能的领域的进展虽悠久但缓慢,并且许多任务目前为止距离真正商用还有很大的距离。然而正是科学史上如阿基米德、牛顿等伟大人物与其他相对无名之辈默默耕耘,前赴后继,才使得如今之人类齐享先辈之成果,即所谓“前人栽树后人乘凉”也。 我辈也无需悲观,须戒骄戒躁,搞算法的就多己见、少盲从,少水论文;搞工程的就多积累经验,提升实践能力,多做高质量的项目。功夫不负有心人。
自然语言处理(概念)简介自然语言(略缩为NL)指的是任何自然而然为人类所使用的语言,而非任何人造的或合成的语言,例如程序设计语言。自然语言处理(略缩为NLP),是所有试图用电脑处理自然语言的适合描述。[1]自然语言处理包括:语音合成:虽然这乍看起来不是很高端(的科技),但其实合成听起来自然的语音需要很复杂的技术并在一定程度上‘理解’在说的话,这样才能确保比如说,正确的语调。语音识别:基本上就是将持续不断的声波转换成独立的词语。自然语言理解:在这里将独立的词语(书面文件或者从语音识别得来的资料)进行处理并赋予意思。这可能会涉及完全模型系统或者‘前端’,以自然语言命令带动其他程序。自然语言生成:针对不可预测的输入问题生成恰当的的自然语言回答。补充:在自然语言处理中使用数字计算机的想法已经算旧(概念)了,这可能是因为二战时期军用解码就是计算机的应用之一。有些计算机专家甚至曾认为(其他语言)例如俄文,不过是换了一组代码的英文而已。这样想的话,因为代码可以被解开,那么俄文也可以(被翻译)。这个想法假设不论这些自然语言表面如何变化,他们都有一个共同的‘语义基’。(对此)语言学家有压倒性的共识,那就是这根本是不正确的。在程序编制器和编程语言通译器的形式下,由早期开始,‘人工语言处理’是就数字计算机的成功中不可或缺的重要部分。此成就无疑鼓励了人们进入自然语言处理的研究(领域),并同时提倡积极乐观的研究态度。
自然语言处理领域的相关内容,我明白的
title: 自然语言处理综述 date: 2021-11-18 11:03:11 自然语言是指人类日常使用的语言,比如:中文、英语、日语等。自然语言灵活多变,是人类社会的重要组成部分,但它却不能被计算机很好地理解。为了实现用自然语言在人与计算机之间进行沟通,自然语言处理诞生了。自然语言处理(Natural Language Processing, NLP)是一个融合了语言学、计算机科学、数学等学科的领域,它不仅研究语言学,更研究如何让计算机处理这些语言。它主要分为两大方向:自然语言理解(Natural language Understanding, NLU)和自然语言生成(Natural language Generation, NLG),前者是听读,后者是说写。 本文将从自然语言处理的历史与发展讲起,进而分析目前深度学习在自然语言处理领域的研究进展,最后讨论自然语言处理的未来发展方向。 1950年,计算机科学之父图灵提出了“图灵测试”,标志着人工智能领域的开端。而此时,正值苏美冷战,美国政府为了更方便地破译苏联相关文件,大力投入机器翻译的研究,自然语言处理从此兴起。从这之后的一段时期内,自然语言处理主要采用基于规则的方法,这种方法依赖于语言学,它通过分析词法、语法等信息,总结这些信息之间的规则,从而达到翻译的效果。这种类似于专家系统的方法,泛化性差、不便于优化,最终进展缓慢,未能达到预期效果。 到了20世纪80、90年代,互联网飞速发展,计算机硬件也有了显著提升。同时,自然语言处理引入了统计机器学习算法,基于规则的方法逐渐被基于统计的方法所取代。在这一阶段,自然语言处理取得了实质性突破,并走向了实际应用。 而从2008年左右开始,随着深度学习神经网络在图像处理、语音识别等领域取得了显著的成果,它也开始被应用到自然语言处理领域。从最开始的词嵌入、word2vec,到RNN、GRU、LSTM等神经网络模型,再到最近的注意力机制、预训练语言模型等等。伴随着深度学习的加持,自然语言处理也迎来了突飞猛进。 接下来,我将介绍自然语言处理与深度学习结合后的相关进展。 在自然语言中,词是最基本的单元。为了让计算机理解并处理自然语言,我们首先就要对词进行编码。由于自然语言中词的数量是有限的,那就可以对每个词指定一个唯一序号,比如:英文单词word的序号可以是1156。而为了方便计算,通常会将序号转换成统一的向量。简单做法是对单词序号进行one-hot编码,每个单词都对应一个长度为N(单词总数)的向量(一维数组),向量中只有该单词序号对应位置的元素值为1,其它都为0。 虽然使用one-hot编码构造词向量十分容易,但并不是一个较好的方法。主要原因是无法很好地表示词的语义,比如苹果和橘子是相似单词(都是水果),但one-hot向量就无法体现这种相似关系。 为了解决上述问题,Google的Mikolov等人于2013年发表了两篇与word2vec相关的原始论文[1][2]。word2vec将词表示成一个定长的向量,并通过上下文学习词的语义信息,使得这些向量能表达词特征、词之间关系等语义信息。word2vec包含两个模型:跳字模型(Skip-gram)[1] 和连续词袋模型(continuous bag of words,CBOW)[2],它们的作用分别是:通过某个中心词预测上下文、通过上下文预测某个中心词。比如,有一句话"I drink apple juice",Skip-gram模型是用apple预测其它词,CBOW模型则是用其它词预测出apple。 首先介绍CBOW模型,它是一个三层神经网络,通过上下文预测中心词。以某个训练数据"I drink apple juice"为例,可以把apple作为标签值先剔除,将"I drink juice"作为输入,apple作为待预测的中心词。 Skip-gram模型与CBOW类似,也是一个三层神经网络模型。不同在于,它是通过中心词预测上下文,即通过"apple"预测出"I drink juice"。接下来简单介绍Skip-gram模型中各层: 两种模型训练结束后,会取 作为词向量矩阵,第i行就代表词库中第i个词的词向量。词向量可用来计算词之间的相似度(词向量点乘)。比如,输入 I drink _ juice 上下文,预测出中心词为apple、orange的概率可能都很高,原因就是在 中apple和orange对应的词向量十分相似,即相似度高。词向量还可以用于机器翻译、命名实体识别、关系抽取等等。 其实这两种模型的原型在2003年就已出现[3],而Mikolov在13年的论文中主要是简化了模型,且提出了负采样与层序softmax方法,使得训练更加高效。 词向量提出的同时,深度学习RNN框架也被应用到NLP中,并结合词向量取得了巨大成效。但是,RNN网络也存在一些问题,比如:难以并行化、难以建立长距离和层级化的依赖关系。而这些问题都在2017年发表的论文《Attention Is All You Need》[4]中得到有效解决。正是在这篇论文中,提出了Transformer模型。Transformer中抛弃了传统的复杂的CNN和RNN,整个网络结构完全由注意力机制组成。 Transformer最核心的内容是自注意力机制(Self-Attention),它是注意力机制(Attention)的变体。注意力的作用是从大量信息中筛选出少量重要信息,并聚焦在这些信息上,比如:人在看一幅图像时,会重点关注较为吸引的部分,而忽略其它信息,这就是注意力的体现。但注意力机制会关注全局信息,即关注输入数据与输出数据以及中间产物的相关性。而自注意力机制则减少了对外部其它数据的关注,只关注输入数据本身,更擅长捕捉数据内部的相关性。 自注意力机制的算法过程如下: 自注意力机制不仅建立了输入数据中词与词之间的关系,还能并行地高效地计算出每个词的输出。 Transformer的总体架构如下: 它分为两部分:编码器(Encoder)和解码器(Decoder)。 编码器的输入是词向量加上位置编码(表明这个词是在哪个位置),再通过多头自注意力操作(Multi-Head Attention)、全连接网络(Feed Forward)两部分得到输出。其中,多头自注意力就是输入的每个词对应多组q、k、v,每组之间互不影响,最终每个词产生多个输出b值,组成一个向量。编码器是transformer的核心,它通常会有多层,前一层的输出会作为下一层的输入,最后一层的输出会作为解码器的一部分输入。 解码器包含两个不同的多头自注意力操作(Masked Multi-Head Attention和Multi-Head Attention)、全连接网络(Feed Forward)三部分。解码器会运行多次,每次只输出一个单词,直到输出完整的目标文本。已输出的部分会组合起来,作为下一次解码器的输入。其中,Masked Multi-Head Attention是将输入中未得到的部分遮掩起来,再进行多头自注意力操作。比如原有5个输入,但某次只有2个输入,那么q1和q2只会与k1、k2相乘,。 如果深度学习的应用,让NLP有了第一次飞跃。那预训练模型的出现,让NLP有了第二次的飞跃。预训练通过自监督学习(不需要标注)从大规模语料数据中学习出一个强大的语言模型,再通过微调迁移到具体任务,最终达成显著效果。 预训练模型的优势如下: 预训练模型的关键技术有三个: 关于预训练模型的架构,以Bert为例:输入是词的one-hot编码向量,乘上词向量矩阵后,再经过多层transformer中的Encoder模块,最终得到输出。 本文介绍了NLP领域的流行研究进展,其中transformer和预训练模型的出现,具有划时代的意义。但随着预训练模型越来越庞大,也将触及硬件瓶颈。另外,NLP在一些阅读理解、文本推理等任务上的表示,也差强人意。总而言之,NLP领域依旧存在着巨大的前景与挑战,仍然需要大家的长期努力。 [1]Mikolov, T., Sutskever, I., Chen, K., Corrado, G. S., & Dean, J. (2013). Distributed representations of words and phrases and their compositionality. In Advances in neural information processing systems (pp. 3111-3119). [2]Mikolov, T., Chen, K., Corrado, G., & Dean, J. (2013). Efficient estimation of word representations in vector space. arXiv preprint arXiv:. [3]Yoshua Bengio, R´ejean Ducharme, Pascal Vincent, and Christian Janvin. A neural probabilistic language model. The Journal of Machine Learning Research, 3:1137–1155, 2003. [4]Vaswani A, Shazeer N, Parmar N, et al. Attention is all you need[C]//Advances in neural information processing systems. 2017: 5998-6008. [5]Peters M E, Neumann M, Iyyer M, et al. Deep contextualized word representations[J]. arXiv preprint arXiv:, 2018. [6]Radford A, Narasimhan K, Salimans T, et al. Improving language understanding by generative pre-training[J]. 2018. [7]Devlin J, Chang M W, Lee K, et al. Bert: Pre-training of deep bidirectional transformers for language understanding[J]. arXiv preprint arXiv:, 2018. [8]Houlsby N, Giurgiu A, Jastrzebski S, et al. Parameter-efficient transfer learning for NLP[C]//International Conference on Machine Learning. PMLR, 2019: 2790-2799.
在自然语言处理的领域内有乐观与悲观的周期性存在(我们现在大概是出于乐观期);虽然(技术上)真的有一些进步,但是达到一个全面自然语言处理系统的目标仍然遥不可及。(这里我没有用elusive的直译,难以捉摸,因为放进中文里会很怪,没有人说目标难以捉摸。)历史上,计算机专家有时对于自然语言处理(的挑战性)过于乐观,其原因很可能就是以上提到的(周期性)。因此从一开始就清楚这个(自然语言处理)的难度的原因是很重要的。同时,了解自然语言之间的不同也是很重要的一点。相对于其他自然语言来说,更多的研究重点放在了英文上,主要是因为美国研究者(在这个领域里)的重要性,尽管日本和欧洲也有很积极的研究学者。可是,在某一方面来讲,英文不是一个具有代表性的语言:它没有音调变化,并且严重依赖单词顺序。教课书和其他英文版的(自然语言处理)启蒙书籍几乎没有包括任何有关(与英语有)不同语法结构的语言的自然语言处理的合适论述。我们可以区别起码三个完全不同的自然语言处理级别:声音语法语义每一个都可以被再分为两到三个亚级别,但这不是本文的重点。在这个简介里我想要做的是阐明在处理每个级别中会遇到的一些问题。这里有以英文为母语的南英格兰人说的三个词:输入,纳入,收入(input, intake, income);(请大家)思考这三个词。很显然的,三个词都有相同语义的元素。输入,指的是把什么东西放进去;抽水机的纳入指的是水被抽进去的地方,你的收入指的是你赚的钱(就是进你口袋的钱)。三个词中的in元素(在指定说话人的情况下)都发一样的音吗?如果注意听的话就会发现并不是这样。Input 这个词在发音的时候听起来像是拼法是imput的词,而intake听起来就和它的拼法一样。 如果我们用N代表English 里边ng的发音,那么Income就有点iNcome的感觉。我特地点出了说话者是从南英格兰来的本土人,因为很多苏格兰人说英文的时候都没有这种习惯,就像所有其他英文母语者在慢慢地富有感情的说这三个词的时候一样,他们都会将in的发音发成和它拼法一样。有趣的是,不论在他们自己或是其他人的言语中,以英文为母语者通常都不会注意到这些差别。这不是因为他们没办法分辨m ,n ,N 这三种发音。Rum, Run, Rung这三个词就只有m, n, N这三个发音处不同而已,所有英文母语者都可以很好的区别它们。
很抱歉,我是小学毕业的老糟头子。视频、图像处理,涉及领域非常广阔,任何一个应用,都可以写出无数篇有价值的论文。比如CT图像的电脑判读,比如润滑油的色度检测,比如违章人脸识别,比如人脸图像的历史年轮,视频特效,图像特效等等。至于自然语言,不知道你想说啥。计算机领域没有自然语言,只有程序语言。程序语言不外乎是C、Delphi,外加VB。如果你更专,那就必须会汇编语言。不管什么语言,必须能控制硬件、数据库、媒体文件、HTML5等等。但无论如何不要碰python,那是庞氏。搞程序,随便完成一个课题,都可以用代码来实现课题中的程序控制部分,写论文也很容易。其实不管选图像、视频处理,还是程序语言,关键是你得选择一个适合自己的课题,用你的计算机技术来完成这个课题,那就是论文了。
数据科学专业的表示NLP需要的训练集太大了,也不好找。只能拿预训练模型针对特殊应用做二次开发,而且对硬件要求很高。图像/视频较NLP来说开放的训练集也好找,而且主题也很多,而且你自己编一个好实现又很实际的商用需求就比较好结题。
自然语言处理( Natural Language Processing, NLP)是计算机科学领域与人工智能领域中的一个重要方向。
它研究能实现人与计算机之间用自然语言进行有效通信的各种理论和方法。自然语言处理是一门融语言学、计算机科学、数学于一体的科学。因此,这一领域的研究将涉及自然语言,即人们日常使用的语言,所以它与语言学的研究有着密切的联系,但又有重要的区别。
自然语言处理并不是一般地研究自然语言,而在于研制能有效地实现自然语言通信的计算机系统,特别是其中的软件系统。因而它是计算机科学的一部分 。
不一定,但最好是摘要里面的
您好,根据您的要求,以下是刘勰时序论文的题目:1.时序分析在社会网络分析中的应用2.时序分析在虚拟社会中的应用3.时序分析在智能家居中的应用4.时序分析在智能交通系统中的应用5.时序分析在智能医疗系统中的应用6.时序分析在智能安全系统中的应用7.时序分析在自然语言处理中的应用8.时序分析在智能商业系统中的应用9.时序分析在智能制造系统中的应用10.时序分析在智能环境监测系统中的应用
据学术堂了解,关键词是论文中的文献检索标识,是表达文献主题概念的自然语言词汇。论文的关键词是从其题名、层次标题和正文中选出来的,能反映论文主题概念的词或词组。
刘勰时序论文的题目包括:《基于非线性时序分类的全局特征选择方法》、《基于重叠时间序列模型的心电图分类》、《时序数据分类中的哈希映射》、《基于时序检测器的行为表征识别》、《基于最小距离聚类-支持向量机方法的时序数据分类》。
毕业论文是电大各专业每位学员都必须完成的集中实践性教学环节,不能免修。要求每位学员在学校指定的指导教师的指导下,独立完成论文的写作。 一、论文选题的要求和范围 1.要求:(1)论文的选题限定在汉语言文学专业范围内;(2)要尽可能选择课程范围内自己熟悉的、感兴趣的课题;(3)要尽可能选择具有一定探索性和创新性的课题;(4)选题要考虑论文所要求的理论性和深刻性:(5)选题宜小不宜大,要确保在规定时间内能够按要求完成,切忌选择内容空泛、大而无当的问题。 2.范围:汉语言文学专业的选题范围包括以下几个方面:(1)中国古代文学方面;(2)中国现当代文学方面;(3)语言学方面;(4)汉语方面(包括现代汉语和古代汉语);(5)文学理论方面(包括文学的基本理论、中国古代文论和西方文论);(6)外国文学(尤其是二十世纪外国文学)方面;(7)比较文学方面;(8)美学方面。(可参考《汉语言文学专业选题参考》) 二、论文程序和时间分配 1.确定一个适当的选题。所谓“适当”,是指符合选题要求的课题。选题要得到指导教师的指导并经指导教师认可。论文选题的程序和方法是:首先在一个比较大的课题范围内尽可能广泛地浏览相关研究资料,并向他人请教,了解这一范围的研究状况,同时进行积极思考,从中选出一个合适的研究课题。真正选好课题的标志是形成解决这个课题的设想。 2.收集资料和写出提纲。在选题阶段广泛浏览的基础上,确定重点阅读的资料,对有的资料要精心研读。需要记录的资料,要根据资料的性质、特点和重要程度,采用摘录、提要、心得札记、复印、网上下载等形式随时记录下来。收集资料的过程也是对课题进行积极思考的过程,这个过程结束,就应该形成解决课题的思路,就应该知道怎样运用这些材料,就应该能写出论文提纲。提纲须经指导教师审阅并认可。如果指导教师对提纲提出修改意见,要认真修改后方可进行下一程序。提纲的内容包括:题目、论点、论述思路的逻辑架构,主要论据(资料)。提纲应分条列项,并尽可能详细:提纲的详细程度反映思路的成熟程度。 选题和收集资料是整个作业过程中两个最关键环节,只要确定一个好的选题并获取充足的资料,在此基础上写成一篇论文是水到渠成之事,不要误认为写作成稿是最主要过程。 3.撰写初稿、修改定稿。首先写出初稿,交指导教师审阅;按指导教师提出的修改意见进行修改后,再交指导教师审阅。如果指导教师认可,就可定稿。如果指导教师不认可,就要继续修改,直到指导教师认可后,方能定稿。 4.答辩 三、论文格式要求 论文应符合通行的格式规范,要求必须具备如下格式:题目、署名、完成日期、摘要、关键词、正文、参考文献。 题目要明确地揭示论文内容,切忌摸棱两可或不知所云。 摘要是论文内容不加注释和评论的简短陈述,宜控制在200字左右,最多不超过300字。不要分段,也不要分条列项。 关键词是从论文中选取出来用以标示论文主要内容的专业术语或具有专业术语性质的词语。一般三至五个,最多不超过八个。 正文一般包括引言、本论、结论三部分。文中一般不出现“引言”、“本论”、“结论”字样,但一般应有引言段和结论段。本论是论文的主体,一般要分几个部分和几个论述层次,要求加上小标题或数字序号,以显示文章清晰的思路。 论文要有一定的理论深度,不能仅停留在经验和操作层面。论文是研究成果的表达,表述必须客观、冷静,不带感情色彩。论文要求使用准确、简洁、规范、平易的书面语言,不要口语化,尽量不用文学修辞。 论文正文不得少于3000字。 参考文献是指作者所收集到的对本文的论述有重要参考价值并足以支撑本文论述的资料。格式如下: 期刊类:序号、作者、篇名,刊名,期号和出版时间。 专著类:序号、作者、书名,出版社,出版时间。 网页类:序号、作者、篇名,网址,发表年月。(如果网上文章来自期刊或专著,应以书面文献为准) 定稿的论文要求打印装订,请参看《汉语言文学专业(本科)毕业论文打印格式》。 四.论文答辩 论文完成后,要通过答辩确认论文的真实性,评定论文成绩。为使论文能够顺利通过,应充分做好答辩准备。答辩分论文介绍和回答问题两个部分,做答辩准备要从这两个方面着手。 论文介绍主要是三个方面:一是选题原因,说明自己为什么选择这个论题,这个论题的意义何在。二是研究背景,说明前人对这个论题作了哪些研究,有哪些重要的研究成果,提出了什么重要观点等。对研究背景的介绍能够直接反映出论文的真实性和对论题的研究程度,因此应是论文介绍的重点。三是对论文本身的介绍,主要介绍论文的的创新之处、基本观点和论述思路,以及本文的不足之处等。在准备论文答辩时,应该就这三个方面准备一份介绍提纲。介绍论文的时间控制在10分钟之内。 对回答问题的准备包括熟悉论文与熟悉相关资料和知识两个方面。首先要认真地反复阅读论文,弄清楚文中使用的每一概念、尤其是重要概念的涵义,能够准确地解释每一条引用资料,发现论文中的不足之处,设想答辩中可能提出的问题,并设想,如果老师提出这个问题,我怎样回答,这就要熟悉与论文相关的资料和知识。 (提出答辩问题的两个原则:一是论文中已经写明白的问题不提;二是与论文无关的问题不提)
汉语言文学是一门有关语言的专业,其对语言文字的修养及其能力也是相对较高的。下文是我为大家整理的关于汉语言文学的毕业论文范文的内容,欢迎大家阅读参考!
浅谈重视汉语言文学专业教学
【摘要】汉语言文学专业不是应用型较强的专业,为适应当前的就业形式,本文提出从两个角度指导该专业的教学:从实用性的角度,优化课程,强化学生的专业知识结构和强化课程应用性,提高学生本专业的应用能力;从创新的角度,突破专业限制,进行教学内容创新,并重视学生创新思维的构建。这有利于提高学生的专业素质,丰富他们的知识结构,增强其在社会立足的本领。
【关键词】汉语言文学;专业人才;教学探讨
汉语言文学专业的教学特点
汉语言文学专业很难和一些实用性较强的专业,如工程、建筑、医学、会计等一样获得准确的职业定位,更是很难直接和应用型人才挂钩。它作为传统的人文学科,是体现人文精神的最直接的载体,担当着传承与提升全民语言与文化素质的重任[1]。其主干内容是中外的优秀文学文化遗产,而核心内容则是对人类生存意义和价值的关怀,是对自身、他人、集体、民族、国家,乃至对人类的一种认识与社会责任感。为此,汉语言文学专业的教学特点在于:所培养的学生主要是从事人的工作的,注重培养学生的人文素养;教学不体现在应用性,而是体现在对社会观念与精神取向的影响上;不注意直接创造可以计量的经济效益,而在于创造无法用数字统计出来的社会效益等。由于社会的进步和当前就业压力的增大,教学实用主义成为了教学的主要目标,对于汉语言文学专业教学而言,也必须进行一些必要的改革,在保持传统的基础之上,积极和社会接轨。
2用实用性理念指导专业教学
《中国大学生就业》杂志给出该专业的就业方向为教师、各类编辑职务、文秘、文案策划人员等。但事实上,该专业的毕业生就业岗位大多集中在政府机关、教育科研、新闻出版、企业公司等中国单位,还有少数人涉足律师、房地产、金融外贸等新兴行业。由此可见汉语言文学专业具有较宽的职业适应性,但同时,由于相关行业存在文秘、新闻、广告、公共管理专业的毕业生,造成了对他们较大的冲击力。从现实意义来看,从实用性的角度指导教学应注意:
优化课程,强化学生的专业知识结构。汉语言文学专业课程包含现代汉语、古代汉语、中国现当代文学、中国古代文学等十余门课程,有必要从以下三个角度对课程进行优化:精简课程内容,每门课都要根据对本领域最新知识结构的分析来设计教学内容,强化核心内容;优化课程结构,按照学科发展的当下高度来考虑学科基础,设计课程内容体系;整合各课程之间的内容,避免内容交叉重复,如写作学和文学概论中的文体学知识。
强化课程应用性,提高学生本专业的应用能力。以就业的观点指导教学改革,就必须讲求专业的实用性,只有这样学生才能在社会上立足。结合该专业学生的就业方向,对汉语言文学专业学生的核心竞争力,即现代“读”、“写”、“说”这三个方面的能力,必须加以强化[2]。该专业的实用性教学应体现在五个方面:古今各种文体的阅读能力,现代各类文体的写作能力,口头表达能力,语文教学能力,信息调研能力等。学校和教师必须精心设置课程体系,安排教学内容,形成本专业课程的应用模块,通过系统的应用技能课程的设置,以保证学生在学校能够提高这五个方面的能力,获得将来从事语言文字工作的应用能力,成为汉语言文学专业的应用型人才。
3用创新的理念指导专业教学
创新包括教学内容创新,教学方法创新,教学思维创新等。本文强调:
突破专业限制,进行教学内容创新。该专业的学生就业范围较广,但往往不精,竞争力上不如其他专业学生。鉴于该专业的特殊性,教学过程中不必过分拘泥于语言与文学本身,而可以结合汉语言文学的历史发展与就业现状,对学生进行相关职业技能的培养。事实上很多新专业如新闻、广告、文秘,甚至公共管理基本上都是从汉语言文学这个专业发展而来的。因此,在保证专业根基扎实的前提下,应打破人为设定的专业界限,以便更大限度地发挥汉语言文学的专业优势。如教育与教学、新闻传播、文秘与公关、社区文化管理、广告文案等等都可以设计成汉语言文学专业的应用模块,学生通过这些模块的学习获得动手能力和从业能力。
重视学生创新思维的构建。汉语言文学专业本身要求学生具备丰厚的东方文化底蕴。该专业有极强的文化特征,其教学直接影响学生对汉语的感情,对东方文化的亲合及从中汲取创新精神动力,并影响学生创新素质的形成。因此汉语言教学中必须重视对学生创新思维的构建[3]。首先,教师应有强烈的创新教育意识,思想上要勇于开拓,力求提出独特的、新的教育活动思路,行为上善于探索,潜心实验,不断总结和不断进取。在教学中不能满足做文化的传声筒,要适当的通过文化评论等多种方式激发学生的思维,并对社会文化现象进行思考,如博客,新媒体等多种文化传播方式都可以成为学生思考的问题。其次要勤于思敏于行,发展创新思维能力。教师应以其丰富的知识做背景,在教学中不断抛出新观点,给学生以震撼,激励他们也去发现、思考、创新。可以说汉语言文学专业教师必须在不讷于言的同时,还要敏于行。沉默寡言不是该专业的个性,只有言行结合,才能让学生让自己更自信,更有思考的动力。
参考文献
[1]伍建华.汉语言文学专业应用型人才培养的基本思路[J].2008,(11):204-205.
[2]陈吉猛.汉语言文学专业人文应用型人才培养模式初探[J].中国电力教育,2008,(9):74-76.[3]丁琴海.大学人文教育的几点思考[J].国际关系学院学报,2007,(3).
解析汉语言文学教学方式创新
摘 要:对于汉语言文学的陈旧的教学方法进行实施改革办法,对于现阶段的素质教育有着非常重要的保证,要求教师在教授基础知识以及讲解的过程中,还要对于学生自身的人文关怀进行加强,对于中华民族悠久灿烂的文化资源进行发展利用,做到学生在对课本知识进行学习的时候,还可以对自身的认知能力进行提高,提高自身的人文素质,成为国家未来发展的栋梁。
关键词:汉语言文学;教学方式;创新
1 导言
随着现代科技的不断发展,给当前的汉语言文学的教学工作带来了新的工作契机。整合古典文学和现代文学的系统知识,创新好教学方法,现代汉语言文学的教学工作才能彰显其独特魅力,不断地吸引学生的注意力,并让汉语言文学教学工作趋于领先的水平。
2 我国汉语言文学教学的现状
学生基础薄弱
汉语言文学对学生的语文素养要求高,尤其是对文言文,要求学生具有较好的理解和表达能力,能自行阅读和理解文言文,如对通假字、同音字等,要求学生有较为系统的文学知识。但我国大学生由于高中进行文理分科,并没有投入大量的精力在语文上,更别说相对晦涩难懂汉语言了,导致我国学生普遍文科基础薄弱。此外,大部分学生对汉语言的兴趣不大,很多是"被选"为汉语言文学专业的学生,在大学期间也没有通过扩大阅读量等方式提高自己的基础。
教学只注重知识理论而缺乏实践
目前我国很多地区的汉语言文学教学只对书本上的理论知识有要求而对学生的合理利用所学知识的要求很低甚至不作要求。不能否认汉语言文学的理论性很强,但是在这个世界飞速发展的21世纪,理论型书呆子的需求量很小,现在社会更多的是需要知识储备丰富、实践操作能力强的双向人才。教师只要求学生记忆理论知识,会使学生理论和实践严重脱节,实际应用表达水平严重不足,现在的社会需要用言语把自己推销出去,这时候的口语表达水平就十分重要了。简单的说在参加面试时面对面试官都不能巧妙的展示自己的才能特长,怎能赢得面试人员的青睐?口语表达看似简单却是个人素质的全面体现,具备较高的口语能力足以体现一个人的德、学、才、识。所以,我们现在的汉语言文学教学不能单纯的要求记忆理论知识更要强化学生的实践意识及能力。
汉语言文学教学的师资队伍专业水平不够
随着时代的发展,汉语言文学本来就已经渐渐变得冷门,再加上其教学方式传统落后,导致社会中人们普遍对汉语言文学这门学科的研究大幅度减少,所以,能够真正胜任汉语言文学教学的老师一直在减少,而且由于现在社会风气的败坏,导致学校在招聘教汉语言文学老师的门槛一直在降低,所以,有越来越多没有足够资历能力的人进入学校鱼龙混珠。而且,由于学校对汉语言文学这一学科的不重视,给教汉语言文学的老师安排了很多政务,使得老师对汉语言文学的教学变成一种兼职,学校的行政工作非常繁重杂乱,如此繁杂的工作已经导致老师精疲力竭,他们没有更多的精力投身于汉语言文学的教学中去,导致学校的汉语言文学的教学一直荒废,无法进步。
3 汉语言文学教学方式需要改革创新
需要加强学生的实践意识
汉语言文学具有较强的理论性但是也不能一味的进行理论知识的灌输,应该注重汉语言文学的实践性。加强学生的实践性需要教师在教学过程中很巧妙的锻炼学生的实践意识。在教学过程中,教师可以多增加互动,在互动中可以调动学生的参与热情,在参与中实践的能力也能够得到提升。同时我们的教学要把重心由听放到说、读、写上,在课堂上可以随机安排学生进行口语练习,例如可以设置特殊的场景让学生模拟当事人自由发挥随即表演,安排这样的实践活动可以锻炼提升学生的自我表达能力和应变能力,在理论学习中适当穿插汉语言文学实践活动,这样可以很巧妙的将理论和实践结合。也可以给学生布置主题限时演讲、汉字听写大会、诗歌朗诵会等形式多样的课堂活动,提高学生的参与热情,增强学生的自主学习意识,锻炼提高学生的心理素质,更好的与人交流。实践证明学生对于参与性、实践性教学的积极性兴趣高涨,教学效果良好。
对汉语言文学的教材进行改革创新
如今的教育都是以开放教育为主且着重培养实用型人才,所以在教学过程中,一定要注重教学的实践性。首先。我们应该做的是对汉语言文学的教材内容进行改革创新,随着时代的进步,社会的发展,汉语言文学的教材内容应该顺应时代的发展,适应新形势下汉语言文学教学的发展,以必要的理论知识为核心,在教材中融入更多的实践性强的实验应用,注重培养学生的实践能力,以及对汉语言文学的研究能力。
教学过程中要做到理论和实践之间有效的结合
在对汉语言文学的教学过程中,不能单单的让汉语言文学整体的教育方法方式仅仅停留在教育的表面。学校对于汉语言文学进行教学的过程中应当做到推陈出新,一定要打破陈旧传统的汉语言教育方式模式,真正做到提高整个汉语言文学自身教学过程中的社会适用性。在汉语言文学的教学实践具体的过程中,参与教学的教师一定要摒弃陈旧的教学方式,一味的对学生进行灌输知识,采取单一呆板的教学模式,教师要充分的结合讲授法和引导法以及采取探究式的学习方法以及采取小组合作的办法等诸多的形式进行教学,实现教学过程中师生之间的交流和互动。教师应从学生学习兴趣出发,赋予汉语言文学教学新的时代语言,开创新的汉语言文学教学格局,让学生能够从内心深处喜欢汉语言文学学习。
4 结论
汉语言文学的教学方式随着时代的进步和社会对于这方面人才的需要不断丰富和发展,为了提高学生的学习热情带动学习兴趣,老旧的教学方式必须改革创新。汉语言文学的教学中我们应该摒弃循规蹈矩的教学思想,积极的创新的教学方式,让汉语言文学的文化精髓通过创新教学的模式发扬光大。
参考文献:
[1]赵君玉.汉语言文学教学中审美教育的实施[J].才智,2014,07:292.
[2]张晔.当代汉语言文学教学模式之我见[J].中国科教创新导刊,2013,07:90.
[3]徐景宏.论汉语言文学教学策略及教学改革[J].中国科教创新导刊,2013,28:113+115.
[4]次旺罗布.浅析汉语言文学教学改革与创新[J].课程教育研究,2014,06:95.
汉语言文学是研究中国词语、句法和传统的诗词、 散文 等文学作品的课程,是通过对其基础知识的理解和认知来学习汉语言的主要能力,其在学习的过程中要具有中国语言功底和写作能力,更是追求各种文字美的关键。下面是我为大家整理的汉语言文学 毕业 论文,供大家参考。
汉语言文学毕业论文 范文 一:汉语言文学专业应用性问题分析
一、研究背景
汉语言文学专业,也就是早年间人们口中的中文系。毋庸置疑,汉语言文学专业有着十分源远流长的教学历史,同时在时间的沉淀之下,也形成了独具一格的教学传统。在新中国还没有成立时,也就是我国的民国时期,近代 教育 刚刚萌芽,中文系应运而生,这也就是现在的汉语言文学专业的雏形。中文系承载着我国熠熠生辉的 传统 文化 ,蕴含着无数先人的人生菁华。即便是在战乱时期,也没有让一个个的热血青年放弃对中文的热爱。在不断的积累沉淀后,汉语言文学专业形成了自己稳定的教学模式,其教学内容也逐步固定下来。在很长一段时间内,汉语言文学专业的高校招生比例非常大,同时就业率也相对较高。然而近年来社会经济发展迅速,社会上对于经济专业,管理专业的人才需求增加,汉语言文学专业的地位受到了来自各个方面的挑战,至今汉语言文学专业仍然处于一个瓶颈时期,如何进行有效的转型成为了众多汉语言文学教育专家首要解决的问题。按照现代教育学理论来看,应用性是衡量一个学科教育模式是否先进,教学体制是否健全,教学发展水平高低的一个非常关键的标准。而现在的汉语言文学专业恰恰缺乏的就是专业的应用性。显而易见,这是由于汉语言文学专业的历史决定,传统的教学模式不足以适应如今社会的发展,就导致了近年来报考汉语言文学专业的学生大大减少,就读汉语言文学专业的不少学生都是被调剂的,社会对于汉语言文学专业的认识也发生了微妙的变化。提高汉语言文学应用性俨然成为了奔赴在汉语言文学教育前线的工作者们的不得不面对的一个亟待解决的问题。从教育学原来角度来看,一个学科的应用性指的便是该学科所涉及到的在实践过程中转变为解决问题的能力或者说指导解决问题的能力,除此之外,还包括该专业的毕业生是否能够运用专业知识来发挥所长,狭隘的来讲,就是能否在工作中灵活运用自己专业的知识。笔者将以北京师范大学汉语言文学专业来展开分析研究。
二、汉语言文学教育的现状特征
1、汉语言文学专业历史悠久,教学内容固定
在近现代高等教育刚刚产生之初,北京师范大学也就是京师大学堂师范馆创建于1902年,随着学校的建立,汉语言文学专业也随之出现,至今已有110余年的历史,为国家建设培养了大批英才,也为二十世纪中文学科的建设和发展作出了巨大贡献。鲁迅、钱玄同、刘半农、黎锦熙、沈从文、沈兼士、顾随、余嘉锡、吴承仕、黄药眠、钟敬文、谭丕模、穆木天、叶丁易、刘盼遂、李长之、李何林、陆宗达、萧璋、俞敏会通开新,炳耀学界;启功、郭预衡等先贤奠定了文学院稳重求实不务虚名、锐意创新不断进取,既坚守学术家园,又保持现实关怀的良好学风。
2、文学性人才多于实用性人才
长久以来,无论是在世人的眼中,还是事实上,汉语言文学专业已然成为了诗人的摇篮,知识分子的海洋,但是这些名号称谓都不能称之为社会意义上的职业,其应用性也相对较低。不少高校因此开具了新闻学,翻译学,对外汉语等专业,来平衡汉语言文学的应用性与文学性。但是现实是残酷的,随着近年来汉语言文学专业就业率持续降低,为了躲避就业压力,不少学生都选择读研,而读研之后又不知何去何从。汉语言的文学性太强,以至于不少人认为汉语言文学专业是贵族专业,是不愁吃穿,不担心就业的学生选读的专业。归根究底,便是课程设置方面文学内容连篇累牍,而实践性课程较少。
3、汉语言文学专业实践性教学内容缺乏
汉语言文学专业的实践性教学内容缺乏是大多数汉语言文学专业的短板。以北京师范大学为例,北京师范大学汉语言文学专业是国内数一数二的汉语言文学专业,其研究水平和北京大学不相上下,也是北京师范大学的三大王牌专业之一。但其实践性课程较少却是不争的事实。语文教育学,创意写作,翻译理论与实践是为数不多的实践性课程,却是选修课程,并不能覆盖到全部学生。有的学生更偏重文学性,就会避开实践性的选修课,一定程度上讲,实践课程教学任务大于理论课程,这也就导致了学生尽可能地避免实践性课程的选择。笔者认为,可以给学生最大的自由,但是更应该给学生一个引导,可以让学生在实践课程的范围内,必须选定相应数量的课程来提高学生的实践性。
三、为什么要提高汉语言文学专业应用性
1、提高汉语言文学专业的应用性是顺应社会发展的必然
二十一世纪,社会对于人才的需求不仅仅需要具备丰富的知识,同时还需要具备较强的应用能力,综合性人才是当今社区缺乏的人才,也是我国高校需要重点培育的人才。因此,汉语言文学专业必须顺应时代的潮流,培养既具有文学性,又具备应用性的综合性人才,促进汉语言文学专业学生更好地就业。
2、提高汉语言文学专业的应用性是我国素质教育的要求
早年间,我国不断推进素质教育,在中小学开展综合培养,而在我国高校,也正如火如荼的开展素质教育。素质教育的目标便是提升我国预备人才的综合能力,使得学生全面发展。
四、如何提高汉语言文学专业的应用性
1、推进学科教育体制建设
教育体制包括了教学内容,教学模式。要想增强汉语言文学专业的实用性,就要与时俱进地更新教学内容,丰富教学样式。以北京师范大学为例,在2015年左右,进行了教学内容的大改革。将原有的大篇幅的文学史的教学,进行了压缩,设置了精读名著的单独课程,最大程度了满足了学生的兴趣,同时也实现了学有所专,学有所用。并设立了导师制,学生参与到导师的教学研究中,大大增加了学生的实践 经验 。由此可见,实现汉语言文学专业的实用性,就需要通过课程的设置,完善必修课和选修课的选定方式,优化学生的知识结构,增强他们运用语言的实践能力。
2、改善陈旧的教学方式
由于汉语言文学专业的传统性,加之汉语言文学专业人数众多,不少汉语言文学课堂充斥着满堂灌,照本宣科的状况。老师讲课是老师的事,学生听课是学生的事,教与学剥离开来。这种陈旧的教学方式,早就应该被高校淘汰。理科专业实用性强的一个原因,便是学生和老师一起进行实验研究。那么提高汉语言文学专业的实用性,也需要教学相长,老师带领着学生一起研究,利用现代化信息手段来支持教学,是必经之路。
3、加强学生语言应用能力的提升
汉语言文学专业学生应该具备的一个重要技能便是语言运用能力,然而语言运用能力不仅仅包括写作,还包括口头表达能力,阅读理解能力。因此,高校不能够仅仅凭借写作能力来判断学生语言运用能力的高低。这就需要,学校注重对各个方面的语言运用能力的培养,能够让学生挥发所长,尽可能地让学生全面发展,具备过硬的综合能力。
4、树立创新的教学观念
汉语言文学专业的转型势必要推陈出新。只有学校倡导教师和学生具有创新的观念,营造出思维活跃,百花齐放的自由的思想氛围,才能够让教师们解放思想,让学生们自由翱翔。培养学生的自主创新能力,势在必行。
汉语言文学毕业论文范文二:汉语言文学专业人才培养模式探究
1、前言
汉语言文学专业被誉为文科的万能专业,毕业生能够从事与社会人文领域相关的全部工作,但是随着市场化竞争的日益激烈,汉语言文学专业的就业形势不容乐观。主要原因之一就在于汉语言文学专业的人才培养体系缺乏应用性,而人文应用型人才是指掌握一些实用技能及相应人文知识的人才,集应用性与人文性于一身,秉受人文精神,希望能够基于精神层面来对世界和社会予以改造,从而更好地为我国的文化建设、经济建设、社会建设服务。本文就汉语言文学专业人文应用型人才培养模式进行探究。
2、汉语言文学专业人文应用型人才培养目标定位
从目前来看,各个行业、各个部门之间的交流与融合日益增多,单纯的汉语言文学专业毕业生已经很难满足社会的需要,这就要求我们要深入研究汉语言文学专业的人才培养目标,重新定位。基于不同行业、不同部门对于汉语言文学专业人才的需求来形成具有特色的培养模式。与此同时,汉语言文学专业毕业生还应该具有熟练运用现代媒体的能力,以及过硬的听说读写能力,融合多种知识,只有这样,才能够有效地满足社会的发展需要。
3、汉语言文学专业人文应用型人才培养模式的构建 措施
合理设置人文应用型课程体系
基于市场经济的要求,应该要为汉语言文学专业学生建立起灵活多样、厚基础、因材施教、多方向的培养模式,实行“基础课程+提升课程+应用行文课程”三结合。
(1)基础课程基础课程的主要目的在于培养学生从事语言教育科研和语言教学的能力,可开设 演讲与口才 、现代职业礼仪、基础教育课程改革、语文教学艺术、教师职业技能训练、教育研究 方法 、 语文教材 篇目研究与教学设计、语文课件制作、教师发展研究等多门课程。
(2)提升课程提升课程的主要目的在于升造学生的综合能力,训练科研能力,提升专业理论,可开设外国文学专题、杂文创作艺术论、现代汉语语法专题研究、唐诗宋词、音韵学、现代汉语虚词研究、中国当代文学专题、修辞学研究、中国古代文学专题、文字学、中国语言学史、国外汉学研究、文献学、影视艺术欣赏、汉语语法学史、中国现代文学专题、明清小说研究、逻辑学等多门课程。
(3)应用行文课程应用行文课程的主要目的在于培养学生从事机关文员的工作能力,可开设办公室礼仪、档案管理学、新闻采访与写作、应用写作、 人力资源管理 、公务员基础知识管理学、秘书学、 广告 学、行政法学、公共关系学、编辑与采访等多门课程。
以社会需求为导向,扎实推进教育教学改革。
务必要坚持立足地方、面向基层,积极推进汉语言文学专业人才培养模式改革,结合社会、市场及行业发展需求突出培养特色,深化学分制改革,完善选课制、弹性学制,研制适应市场需求的人才培养方案,实施校地合作、校企互动的实践教学模式,不断加强与地方政府、企业的全面联系与深度合作,使汉语言文学专业人才培养更符合社会需求,提高汉语言文学专业毕业生就业核心竞争力。
广建基地,深挖功能
为了进一步加强校地合作,拓展专业实习和就业 渠道 ,进一步提升汉语言文学专业学生的人文应用性,各高校应该应该要多与企业、地方合作建立起一批学生容纳能力强、专业对口性强的汉语言文学专业实习基地,倡导和鼓励大学生将实习与就业结合起来,避免为实习而实习,强调实习是就业的敲门砖,与此同时,还可以邀请实习基地领导来学校作就业指导讲座。一方面加大与实习单位产学研的合作,另一方面帮助.汉语言文学专业学生感受就业氛围,调适就业心态,树立正确就业观念。
全程辅助职业生涯规划
汉语言文学专业新生在入学教育时就应该被灌输 职业规划 的理念,积极引导学生树立起正确的成才观和就业观,并且要制定出符合自身实际的大学四年规划;对于汉语言文学专业大二学生,则应该对他们进行详实的就业形势分析,端正他们的就业观,引导学生主动、积极地为就业必备的技能和素质做好准备;对于汉语言文学专业大三学生,则应该加强分类指导,帮助学生对未来的职业去向进行选择,是选择独立创业,还是选择去企事业单位工作,还是选择报 考公务员 ,亦或者去学校当老师教书育人,或者深造读研。针对学生的不同职业选择来集中资源优势进行分类指导;对于汉语言文学专业大四学生,则应该进一步加强其未来的职业生涯规划。
本科汉语言文学毕业论文范文相关 文章 :
1. 汉语言文学本科毕业论文范文
2. 汉语言文学毕业论文范文
3. 关于汉语言文学的毕业论文
4. 本科毕业论文 范文
5. 本科毕业论文范文
6. 汉语言文学本科毕业
给你推荐一个个人认为不错的,中和论文网.