• 回答数

    3

  • 浏览数

    246

鬼鬼Jacky
首页 > 职称论文 > 数据可视化论文研究方法

3个回答 默认排序
  • 默认排序
  • 按时间排序

万达集团乔梦云

已采纳

论文文献研究方法部分怎么写

论文文献研究方法部分怎么写,毕业论文对大学生是很重要的一项内容,如果毕业论文不通过就可能毕不了业了,论文的研究方法是很重要的,下面我和大家分享论文文献研究方法部分怎么写,一起来了解一下吧。

1、调查法

调查法是最为常用的方法之一,是指有目的、计划的搜集与论文主题有关的现实状况以及历史状况的资料,并对搜集过来的资料进行分析、比较与归纳。调查法会用到问卷调查法,分发给有关人员,然后加以回收整理出对论文有用的信息。

2、观察法

观察法是指研究者用自己的感官或者其他的辅助工具,直接观察被研究的对象,可以让人们的观察的过程中,可以拥有新的发现,还可以更好的启发人们的思维。

3、文献研究法

以一定的目标,来调查文献,从而获得关于论文的更加全面、正确地了解。文献研究法有助于形成对研究对象的一般印象,可以对相关资料进行分析与比较,从而获得事物的全貌。

论文研究方法最为典型的有调查法、观察法以及文献研究法,都是值得大家采用的方法。

论文写作中的研究方法与研究步骤

一、研究的循环思维方式

二、研究的路径

三、研究的分析方法

四、研究过程的设计与步骤

五、对传统研究思维模式的再思考

在我们指导研究生写论文的过程中,甚至于我们自己从事课题研究时,不禁让我们思考一系列有关研究的基本问题。例如,我们为什么要写论文?我们为什么要做研究?在我们探讨论文写作的过程中,我们是为了完成论文本身的写作,还是完成一个研究过程?写论文与做研究之间有什么联系与区别?如果论文写作应该反映一个研究过程,那么研究过程应该是什么样的?我们用什么样的方法进行研究?我们发现这些问题的解决,对指导研究生的论文写作有非常大的帮助。因此,本文就以我个人在从事教学课题研究和指导研究生完成论文中总结的一些有关研究方法与研究步骤的问题与大家交流共享。欢迎大家参与讨论。

世界上无论哪个领域都存在许多未知的事物,也存在着许多未知的规律。我们研究者的主要任务就是要不断地从大量的事实中总结规律,将之上升到可以指导实践的理论。然而理论也并不是绝对的真理,它也要在实践中不断地被修正,因此,就会有人对理论的前提和内容进行质疑,并提出新的猜想和新的思维。新的猜想和新的思维又要在实践中进行验证,从而发展和完善理论体系。我们探求未知事物及其规律就需要有研究的过程。这个过程,我们称之为研究的循环思维方式(Research Cycle)。用概念模型来表述就是[1]:

Facts —Theory—Speculation

事实——理论——猜想

上述从“事实”到“理论”,再进行“猜想”就构成了一般研究的思路。从事科学研究的人员既要侧重从事实到理论的研究过程,也同时在研究中要有质疑和猜想的勇气。而这一思路并不是一个终极过程,而是循环往复的过程。当猜想和质疑得到了事实的证明后,理论就会得到进一步的修正。

上述研究的循环思维方式就是我们通常说的理论与实践关系中理论来源于实践的过程。这个过程需要严密的逻辑思维过程(Thought Process)。通常被认为符合科学规律,而且是合理有效的逻辑思维方法为演绎法(Deduction)和归纳法(Induction)。这两种逻辑思维方式应该贯穿研究过程的始终。

另外,从知识管理角度看研究的过程,在某种意义上,研究的过程也可以被理解为,将实践中的带有经验性的隐性知识转化为可以让更多的人共享的系统规律性的显性知识。而显性知识的共享才能对具体的实践产生普遍的影响。研究者除了承担研究的过程和得出研究的结论之外,还要将这一研究的过程和结论用恰当的方式表述出来,让大家去分享。不能进行传播和与人分享的任何研究成果,对社会进步都是没有意义的。

我们认为,研究人员(包括研究生)撰写论文就是要反映上述研究过程,不断探索和总结未知事物及其规律,对实践产生影响。我们强调,论文的写作不是想法(idea)的说明,也不仅是过程的表述。论文的写作要遵循一定的研究方法和步骤,在一定的假设和前提下,去推理和/或验证某事物的一般规律。因此,对研究方法的掌握是写好论文的前提条件。

研究的路径(Approaches)是我们对某事物的规律进行研究的出发点或者角度。研究通常有两个路径(Approaches):实证研究和规范研究。

实证研究(Empirical Study)一般使用标准的度量方法,或者通过观察对现象进行描述,主要用来总结是什么情况(what is the case)。通常研究者用这种研究路径去提出理论假设,并验证理论。规范研究(Normative Study):是解决应该是什么(what should be)的问题。研究者通常是建立概念模型(Conceptual Model)和/或定量模型(Quantitative Model)来推论事物的发展规律。研究者也会用这种路径去建立理论规范。

我们认为,上述两种研究的路径不是彼此可以替代的关系。二者之间存在着彼此依存和相辅相成的关系。对于反映事物发展规律的理论而言,实证研究与规范研究二者缺一不可,前者为理论的创建提供支持和依据;后者为理论的创建提供了可以遵循的研究框架和研究思路。

针对上述两个路径,研究过程中都存在着分析(Analytical)过程,也就是解释为什么是这样的情况(Explaining why the case is as it is),而分析过程就需要具体的研究分析方法来支持。

[2]。然而,更多的学者倾向认为,定量与定性的方法问题更多的是从分析技术上来区别的[3]。因为,任何的研究过程都要涉及数据的收集,而数据有可能是定性的,也有可能是定量的。我们不能将定量分析与定性分析对立起来。在社会科学和商务的研究过程中既需要定量的研究分析方法,也需要定性的研究分析方法。针对不同的研究问题,以及研究过程的不同阶段,不同的分析方法各有优势。两者之间不存在孰优孰劣的问题。对于如何发挥各自优势,国外的一些学者也在探索将两者之间的有机结合[4]。

因此,定性分析方法是对用文字所表述的内容,或者其他非数量形式的数据进行分析和处理的方法。而定量分析方法则是对用数量所描述的内容,或者其他可以转化为数量形式的数据进行分析和处理的方法。一项研究中,往往要同时涉及到这两种分析方法[5]。定性分析是用来定义表述事物的基本特征或本质特点(the what),而定量分析是用来衡量程度或多少(the how much)。定性分析往往从定义、类推、模型或者比喻等角度来概括事物的特点;定量分析则假定概念的成立,并对其进行数值上衡量[6]。

定量分析的主要工具是统计方法,用以揭示所研究的问题的数量关系。基本描述性的统计方法包括:频数分布、百分比、方差分析、离散情况等。探索变量之间关系的方法包括交叉分析、相关度分析、多变量之间的多因素分析,以及统计检验等。定量研究之所以被研究者所强调,是因为定量分析的过程和定量结果具有某种程度的系统性(Systematic)和可控性(Controlled),不受研究者主观因素所影响。定量分析被认为是实证研究的主要方法。其优势是对理论进行验证(Theory Testing),而不是创建理论(Theory Generation)。当然,相对自然科学的研究,社会科学和商务研究由于人的因素存在,其各种变量的可控性被遭到质疑,因此,定量分析被认为是准试验法(Quasi-experimental approach)

定性研究有其吸引人的一面。因为文字作为最常见的定性研究数据是人类特有的,文字的.描述被认为具有“丰富”、“全面”和“真实”的特点。定性数据的收集也最直接的。因此,定性分析与人有最大的亲和力。恰恰也就是这一点,定性分析也具有了很大的主观性。如果用系统性和可控性来衡量研究过程的科学性。定性分析方法比定量分析方法更被遭到质疑[7]。然而,定性数据被认为在辅助和说明定量数据方面具有重要价值[8]。实际上,定性分析方法往往贯穿在研究过程的始终,包括在数据的收集之前,有关研究问题的形成、理论的假设形成,以及描述性分析框架的建立等都需要定性的分析过程,即对数据进行解释和描述等。如果遵循系统性和可控性的原则,那么定性分析方法在数据的收集过程中也有一些可利用的辅助工具,例如,摘要法、卡片法、聚类编码法等。在研究结论的做出和结论的描述方面,像矩阵图、概念模型图表、流程图、组织结构图、网络关系图等都是非常流行的定性分析工具。另外,从定性的数据中也可以通过简单的计算、规类等统计手段将定性分析与定量分析方法结合起来。

这里要指出的是,科学研究不能用想法(idea)本身来代替。科学研究需要有一个过程,而这个过程是用一定的方法来证明有价值的想法,并使之上升为理论;或者通过一定的方法来证明、创建或改进理论,从而对实践和决策产生影响。研究过程的科学性决定了研究成果是否会对实践和决策产生积极的影响效果[9]。

第五步、进行数据的处理和分析

数据的处理主要是保证数据的准确性,并将原始的数据进行分类,以便转化成可以进行进一步分析的形式。数据处理主要包括数据编辑、数据编码和数据录入三个步骤。数据编辑(Data Editing)就是要识别出数据的错误和遗漏,尽可能改正过来,以保证数据的准确性、一致性、完整性,便于进一步的编码和录入。数据编码(Data Coding)就是对所收集的第一手数据(例如对问卷开放式问题的回答)进行有限的分类,并赋予一个数字或其他符号。数据编码的主要目的是将许多的不同回答减少到对以后分析有意义的有限的分类。数据录入(Data Entry)是将所收集的第一手或者第二手数据录入到可以对数据进行观察和处理的计算机中,录入的设备包括计算机键盘、光电扫描仪、条形码识别器等。研究者可以用统计分析软件,例如SPSS等对所形成的数据库进行数据分析。对于少量的数据,也可以使用工作表(Spreadsheet)来录入和处理。

数据的分析就是运用上述所提到的定性或定量的分析方法来对数据进行分析。研究者要根据回答不同性质的问题,采取不同的统计方法和验证方法。对于有些研究,仅需要描述性的统计方法,对于另一些研究可能就需要对假设进行验证。在统计学中,假设的验证需要推论的统计方法(Inferential Statistics)。对于社会科学和商务的研究,一些研究是针对所获取的样本进行统计差异(Statistical Significance)的验证,最终得出结论是拒绝(Reject)还是不拒绝(Fail to Reject)所设定的假设条件。另一些研究则是进行关联度分析(Measures of Association),通常涉及相关分析(Correlation)和回归分析(Regression)。相关分析是通过计算来测度变量之间的关系程度;而回归分析则是为预测某一因变量的数值而创建一个数学公式。

值得注意的是,随着我们研究和分析的`问题越来越复杂,计算机和统计软件的发展使得多变量统计工具应用越来越广泛。如果多变量之间是从属关系,我们就需要从属关系的分析技巧(Dependency Techniques),如多元回归分析(Multiple Regression)、判别分析(Discriminant Analysis)、方差的多元分析(MANOVA,Multivariate Analysis of Variance)、典型相关分析(Canonical Analysis)、线性结构关系分析(LISREL,Linear Structural Relationships)、结合分析(Conjoint Analysis)等。如果多变量之间是相互依赖关系,我们就需要相互依赖关系的分析技巧(Interdependency Techniques),如因子分析(Factor Analysis)、聚类分析(Cluster Analysis)、多维尺度分析(Multidimensional Scaling)等。如果收集的数据有明显的时间顺序,我们不考虑变量之间的因果关系,而是重点考察变量在时间方面的发展变化规律,我们就需要时间序列分析(Time Series Analysis)。目前流行的统计软件,如SPSS对上述各种分析方法都提供非常好的支持。

第六步、得出结论,并完成论文

论文的撰写要结构合理、文字表达清楚确定,容易让人理解。形式上要尽量采取可视化的效果,例如多用图表来表现研究过程和研究结果。具体论文的撰写要考虑包含如下内容:摘要、研究介绍(包括背景、研究的问题、研究的目的)、研究的方法和步骤(样本选择、研究设计、数据收集、数据分析、研究的局限性)、研究的发现、结论(简要结论、建议、启示意义)、附录、参考文献。

针对社会科学和商务领域的问题研究,我们传统上所遵循的研究思维模式是:“提出问题、分析问题和解决问题”。我们承认这是一种创造性的思维过程。遵循这种思维方式可以帮助决策者快速找到问题,并解决问题。然而,用这一思维模式来指导研究的过程,容易使我们混淆研究者与决策者的地位,找不准研究者的定位。首先,这一研究思路和模式将问题的解决和问题的研究混在一起了。其次,没有突出,或者说掩盖了对研究方法的探讨和遵循。这种传统的思维方式是结果导向的思维方式。它忽略了问题的识别过程和研究方法的遵循过程。而从科学研究的角度看,问题的识别过程和研究方法的遵循过程是一项研究中非常重要的两个前提。问题的识别过程可以保证所研究的问题有很强的针对性,与理论和实践紧密联系,防止出现只做表面文章的情况,解决不了根本问题。研究方法的遵循过程可以保证研究结果的可靠性,使研究结果有说服力。当然,在此,我们并不是说明“提出问题、分析问题和解决问题”这一传统模式是错误的,也不否认研究的目的是指导实践。然而,我们觉得,这一传统研究思维模式太笼统,太注重结果导向,不足以说明科学的研究的一般方法和研究步骤。

在社会科学和商务研究中,运用这一传统的研究思路和模式来指导学生撰写论文,容易出现两个不良的倾向。一是使我们过于重视论文本身的写作过程,而忽略了论文写作背后的研究过程和研究方法。也就是只强调结果,不重视过程。在此情况下,论文的写作多半是进行资料的拼凑和整合。当然我们并不能低估资料的拼凑和整合的价值。可是,如果一味将论文的写作定位在这样的过程,显然有就事论事的嫌疑,无助于问题的澄清和问题的解决,也有悖于知识创造的初衷。特别是,既没有识别问题的过程,也没有形成研究问题和研究假设,甚至没有用任何可以遵循的研究分析方法,就泛泛对一个问题进行一般描述,进而提出感觉上的解决方案。这种研究结果是很难被接受的。第二个不良的倾向是上述传统的研究思路和模式使我们辨别不清我们是在做研究,还是在做决策。研究通常是在限定的一个范围内,在一定的假设前提下进行证明或推理,从而得出一定的结论。我们希望这个结论对决策者能产生影响。然而,决策者毕竟与研究者所处的地位是不一样的,考虑的问题与研究者或许一致,或许会很不一致。有价值的研究是要给处在不同地位的决策者(或者实践者)给予启示,并促其做出多赢的选择。因此,传统的研究思维模式缺乏研究的质量判定标准,缺乏系统性和可控性,也不具备可操作性,容易让研究者急功近利,盲目追求片面的终极的解决方案。

在指导对外经济贸易大学研究生的实践中,我们曾试图改变以往的传统思维模式,尝试让我们的研究生将论文的写作与研究过程结合起来,特别注重研究的过程和研究方法,并且要求在论文的写作中反映这些研究的方法与步骤。例如,2002届研究生万莲莲所写的《电子采购系统实施中的管理因素-摩托罗拉公司电子采购系统实施案例研究》硕士论文就是在这方面所做的最初探索。此论文的结构就分为综述、指导理论、方法论、数据分析,以及研究结论和启示等五个主要部分,运用了问卷调查和深度访谈等定性和定量的各种具体方法。其研究结论具有非常强的说服力,因为研究者并不限于第二手资料的收集、整理和加工,而是借鉴前人的理论研究框架,运用问卷定量调查等手段,遵循案例研究的方法,对第一手资料进行收集、处理和分析之后得出的结论,对实践具有较强的指导意义。相同的研究方法,我们又应用在其他研究生的论文写作过程中,例如2002届龚托所写的《对影响保险企业信息技术实施的主要因素的研究》、2003届王惟所写的《对中国铜套期保值现状的研究》,以及2003届马鸣锦所写的《中国银行业知识管理程度与网络银行发展程度的关系研究》等。通过论文写作,这些研究生的确掌握了一般研究的方法和研究的步骤。以上的研究结论对教学和实践直接有借鉴的意义。在教学和咨询过程中,其方法和结论都得到了肯定。据多方反馈,效果还是非常好的。

【注释】:

[1]这是笔者在美国芝加哥自然博物馆看恐龙展览时了解的美国科学家的基本研究思路而得到的启示。

[2] Robson, Colin (1993), Real World Research: A Resource for Social Scientists and Practitioner-Researcher. Blackwell Publishers, P303。

[3] Bryman, A. (1988), Quality and Quantity in Social Research. London: Unwin Hyman.我们发现许多文献资料将定量与定性分析方法称为定量与定性技术(techniques)

[4] Cook, . and Reichardt, . (1979) Qualitative and Quantitative Methods in Evaluation Research. Newbury Park and London: Sage. Ragin, C. C. (1987) The Comparative Method: moving beyond qualitative and quantitative strategies. Berkeley, Cal.: University of California Press.

[5]Robson, Colin (1993), Real World Research: A Resource for Social Scientists and Practitioner-Researcher. Blackwell Publishers, P307。

[6] John Van Maanen, James M. Dabbs, Jr., and Robert R. Faulkner, Varieties of Qualitative Research (Beverly Hills: Calif.: Sage Publications, 1982), P32

[7] 这是因为社会科学和商务研究中包括了人的因素,而人本身作为分析者具有自身的缺陷。例如:数据的有限性、先入为主的印象、信息的可获得性、推论的倾向性、思维的连续性、数据来源可靠性、信息的不完善性、对信息价值判断误差、对比的倾向性、过度自信、并发事件与相关度的判断,以及统计数据的不一致性等。上述缺陷的总结与分析来源于Sadler, D. R. (1981) Intuitive Data Processing as a Potential Source of Bias in Educational Evaluation. Educational Evaluation and Policy Analysis, 3, P25-31。

[8] Robson, Colin (1993), Real World Research: A Resource for Social Scientists and Practitioner-Researcher. Blackwell Publishers, P371。

[9] Ronald R. Cooper, C. William Emory (1995, 5th ed) Business Research Methods, IRWIN, P352

174 评论

HELLO小不不

将高维数据点以可视化的方式呈现出来是探索式数据分析的一个重要研究课题,例如对于多张64*64的像素图,将每张图转化为行向量后可以表示为4096维空间中的数据点,如果能将这些数据点可视化到平面视图中, 并在某种程度上保留数据点间的分布规律,就能以人类可感知的方式探索原始图像集背后隐藏的规律。各个学科领域采集的数据如全球气候数据、人类基因分布、金融统计等经常呈现出高维的特征,所以研究高维数据的可视化方法具有极大的现实意义。   由于人类肉眼仅限于感知二/三维空间中的几何图形,所以高维数据点只有以二/三维的视觉元素表达后才能使人直观的观测数据分布的规律。在二维平面上可视化超过两个维度的方法有很多,比如散点图矩阵,平行坐标,Andrew曲线,星形图等,这些方法面对高维数据时也会产生视觉混淆的问题。降维算法是利用线性或者非线性变换将高维观测空间中的数据投影到一个有意义的低维空间中,同时尽量保持数据的内在结构不被改变 ,进而获取数据集内在特征的低维表示。   针对不同目的所使用的降维方法有所不同,比如特征工程是利用专家的知识和经验进行特征抽取和组合以达到降低运算复杂度的目的,而针对可视化呈现效果我们对不同的降维技术又有不同的评估标准。   通常针对可视化的降维问题的形式化表述如下:   该映射要使在高维空间中相距较近的点在低维空间中也应较近,在高维空间中相距较远的点在低维空间中也应较远。使高维数据点集嵌入到低维空间后尽量还原其整体和局部的拓扑结构。根据映射 的性质,降维可分为线性的和非线性的。   线性降维方法将高维数据集通过线性映射到低维空间,最常见的线性降维算法有 PCA ( Principal Component Analysis ), MDS ( Classical Multidimensional Scaling ),等。   以 PCA 为例,通过寻找一组线性向量基,将数据映射到其均方误差失真最小的低维线性空间中并尽量保持高维数据集对方差贡献最大的特征。具地地,对于高维数据集 , PCA 通过将 (数据集 的方差矩阵)进行特征值分解,取前几个较大的特征值对应的特征向量组成的线性映射矩阵 ,也就是最大化 的线性映射矩阵 , 的行数就是最终低维空间的维度,通过这种映射方法,低维空间中的数据集将尽量保留最大的信息量(方差),从而达到压缩原始数据的维度的目的。   与 PCA 相似, MDS(Classical) 方法求取的映射也是线性的,不同的是 MDS(Classical) 算法是从数据点对之间的相似性矩阵出发来构造合适的低维空间中的点集,使得数据的内在线性结构在低维空间中得以保持,相似度一般用欧氏距离来衡量。   上述方法,由于映射方法是线性的,将高维空间中局部存在的线性结构可视化后还能还原其结构,但对相距较远的点之间非线性的关系映射到低维空间后则会失真。比如我们将 PCA 方法应用到两类不同的三维数据集。   图(c)和(d)揭示了对于高维空间中的低维流形,更重要的是将那些高维空间中紧密靠近的点集在低维空间中形成聚类效果,比如图c三维空间中所有蓝色的点,而对于蓝色和黄色的点在二维平面中则应该更加的分散。 PCA 方法显然将蓝色点与黄色点混淆在一起了,所有基于线性映射的方法都存在这样的缺陷。   为了克服线性降维算法的缺陷,涌现了一批非线性降维算法。在探讨这些算法之前,有必要引入讨论下流形学习的背景知识。   三维空间中的地球,我们只用两个维度(经度和纬度)就可以维一的定位地面上任意一点。如图所示三维空间中的面包卷结构上,我们将它锤平后可以近似看作几个二维平面拼接在一起,我们可以确认它的本征维度为2。现实生活中的高维数据其实大量存在低维流形结构。2000年,Seung等人在《Science》上发表的论文【8】首次从流形的角度解释了人类的视觉认知形式,提出了流形是人类认知的基础的观点,这种认知形式可以抽象成维数与神经元数目相当的抽象空间中的点。例如,虽然人脸的图像是由 像素点组成的高维数据点,但是图中只有头像的角度变化,理论上可以只用一个自由度去描述这几个头像图的变化,也就是 高维空间中的一维流形,而人类认知这个复杂人脸的变化可能只需要一个感知角度的神经元。现实中,一个图像中的人脸可能还加入明暗度,大小,表情变化等自由度,但其本征维度远低于 像素点的维度。更重要的是,随着分辨率的提高,维度急剧增加,流形的本征维度却没有变化。  图(a)中的红色虚线表示两点间的欧氏距离,蓝线表示实际距离。图(c)中的红色实线表示knn路径对实际距离的近似。   有了计算流形中两点相似度的方法后,在这之上就有了将高维空间中的低维流形嵌入低维空间中以表征其结构的降维方法,这被称为流形学习。 ISOMAP和LLE降维算法是流形学习的奠基之作,它们从算法层面印证了高维非线性数据确实存在低维流形结果,分别从全局特征构造和局部特征构造两个角度对高维非线性数据进行低维流形结构的还原。   ISOMAP算法是一种基于全局特征保持的流形学习算法。其算法的思路基本与MDS方法一致,也是根据点对相似度距阵不断迭代寻找各数据点在低维空间中放置的位置。不同的是ISOMAP通过knn计算点对相似度距阵,用测地距离替代MDS中的欧氏距离。最终代价函数为高维空间点距离与低维空间点距离差之和,这里可以看出优化目标是全局特征,然后对这个目标函数用梯度下降迭代求最优。   ISOMAP算法在可视化流形时主要存在两个问题:(1) “短路边”的存在会严重破坏低维空间中的可视化效果,在构建knn图时如果为每个数据点选择的领域过大或者输入样本中存在异常点,可能会导致流形上不相关的两个点间产生过近的距离。(2)对于非凸的高维数据集(有孔洞),如图(b), ISOMAP不能很好的处理。(3)邻域选取过小会导致图非连通   ISOMAP试图在低维空间从全局上还原所有点对间测地距离,而LLE则试图在低维空间还原点与邻近点的局部线性关系。具体来说,LLE根据相似度矩阵构造每个点与周围几个邻近点人线性关系,然后对这个线性系数矩阵做特征分解,求出在低位空间中的坐标。LLE算法在可视化流形时主要存在两个问题:(1)邻域选取过大有时会导致很大一部分非近邻点映射为近邻点。(2)不能处理首尾相接的闭环流形。(3)邻域选取过小又可能导致找不到点的局部线性关系。   前面提到过高维空间中的流形具有远低于所在空间的本征维度,而如何估计低维流形的本征维度也是流形学习中的一个重要问题。而且这也是可视化的重要问题。如果低维流形的本征维度远大于2度,那利用降维算法将这些数据点可视化到二维散点图中就会比较困难。一个比较明显的问题就是拥挤问题【11】, 对于10维空间中的一个点A,其以R为半径的邻域为 空间中的球形, 我们假设这个邻域中均匀分布着一系列点,现在我们将点A和所有邻域中的点映射到二维平面中,将会近似一个圆。在10维空间中邻域内离A较远的点远多于A附近的点, 而这些较远点的象在二维平面上将集中在圆周附近,随着原始维度的上升,这些圆周附近的点将会变得更加拥挤,从而导致原始拓扑结构的失真。在10维空间中我们至少能同时找到10个彼此距离相等的点,而在2维空间中我们只能找到3个。如果不能解决拥挤问题,那么以低于流形本征维度的方式可视化就有很大可能失真。   本征维度被定义为在不损失信息的前提下,用来描述数据的自由变量的最小数量。局部本征维度估计方法可以分为全局本征维度估计法和局部本征维度估计法【6】。    t-SNE 算法是 SNE 算法的改进, SNE 将点对间的相似度用条件概率表述,这样任一点周围的点分布可以用高斯分布表示,然后用KL散度衡量低维空间中的分布于高维空间分布间的近视度,SNE的最终目标就是对所有点最小化这个 KL散度 。    t-SNE 作出的改进就是用在低维空间中用t分布替代高斯分布,如图1所示,高斯分布对应高维空间, t -分布对应低维空间。对于高维空间中相距较近的点,为了满足 ,低维空间中的距离需要稍小一点;而对于高维空间中相距较远的点,为了满足 ,低维空间中的距离需要更远。这就使最终的可视化效果有更好的聚类表现。 t -分布的长尾效应某种程度上缓解了拥挤问题。 t-SNE 作者还在论文【11】中提到, t -分布只适合二维可视化,其他维度的可视化需要其他分布。   t-SNE相较于ISOMAP和LLE来说有更好的可视化效果,因为它同时兼顾了全局特征和局部特征。   图是t-SNE,ISOMAP,LLE在MINIST数据(手写体数字)上的可视化效果,可以看出t-SNE在不同的类簇间形成清晰的间隔,而ISOMAP和LLE不同类间存在重叠。   本文简述了从线性降维到非线性降维的发展历史,列举了几种经典的流行学习的算法在可视化方面的效果,包括当前最流行的t-SNE算法。当前的大量降维算法均是对这几种算法的改进或是基于类似的思想。本文所有讨论都只涉及了可视化效果这一角度,而没有分析各算法的时间空间复杂度。实际上,由于“维数灾难“问题和高维数据通常伴随大尺度的特征,降维算法的运算复杂度也是一个不容忽视的问题。   最后指出一点,这些可视化的方法只能用于理论的探索和猜测,而不能做为验证理论正确性的工具,t-SNE的作者曾指出,相当一部分学术论文使用t-SNE方法时犯了这样的错误。   [1]陈为,沈则潜,陶煜波.数据可视化[M].北京:电子工业出版社,2013   [2]詹宇斌.流形学习理论与方法及其应用研究[D].长沙:国防科学技术大学,2011   [3]石浩.基于等距特征映射的非线性降维及其应用研究[D].合服:中国科学技术大学,2017.   [4]Jolliffe I Component Analysis[M].New York:Springer-Verlag,1986   [5] 从SNE到t-SNE再到LargeVis   [6]Camastra dimensionality estimation methods:a survey[J].Pattern recognition,2003,36(12):2945-2954.   [7]Pettis K W,Bailey T A,Jain A K, et intrinsic dimensionality estimator from near-neighbor information[J].IEEE Transactions on pattern analysis and machine intelligence,1979,PAMI-1(1):25-37   [8]Seung,HS,Lee D manifold ways of perception[J].science,2000,290(5500):2268-2269.   [9]Tenenbaum J B,De Silva V,Langford J C. A global geometric framework for nonlinear dimensionality reduction[J].science, 2000,290(5500):2319-2323.   [10]Roweis S T,Saul L K. Nonlinear dimensionality reduction by locally linear embedding[J].science,2000,290(5500):2323-2326.   [11]Laurens V D,Geoffrey Hinton. Visualizing Data using t-SNE[J].Machine Learning Research 9(2008):2579-2605.

213 评论

笔岸四叶草

论文可视化分析的意思是用海量数据关联分析,辅助人工操作将数据进行关联分析,并做出完整的分析图表。

论文可视化分析是在论文查重系统在查重后呈现出的查重报告单,不同的报告单反馈着论文不同方面的数据信息,包括查重率、重合字数、疑似抄袭段落等等;把文中所有的重复部分都进行了标注和相似论文的内容和出处;对文中重复的部分进行标红,并且有引用文献列表。

论文可视化分析数据解读:

总文字复制比:即查重率,查重能不能通过的关键数据。

去除引用文献复制比:即去除文中引用文献后的查重率。

去除本人已发表文献:即去除本人已经发表收录的论文后的查重率。

单篇最大文字复制比:即与本论文相似度最高的论文的查重率。

197 评论

相关问答

  • 数据可视化研究生论文有哪些

    给你出个题目,数据可视化是下一个“印刷机”吗:数据可视化对信息技术的改变,可能就像当年的海德堡印刷机的发明一样,对人类的历史进程,产生巨大的推动作用。数据可视化

    感觉不会再 3人参与回答 2023-12-05
  • 论文数据分析的研究方法

    论文研究方法 调查法:该方法是有目的、有系统的搜集有关研究对象的具体信息。 观察法:用自己的感官和辅助工具直接观察研究对象从而得到有关信息。 实验法:通过主支变

    沙尘暴来袭 3人参与回答 2023-12-10
  • 大数据可视化方法的研究论文

    在大数据环境下,计算机信息处理技术也面临新的挑战,要求计算机信息处理技术必须不断的更新发展,以能够对当前的计算机信息处理需求满足。下面是我给大家推荐的计算机与大

    Rita泱泱 3人参与回答 2023-12-09
  • 关于数据的研究方法论文

    数据挖掘的算法及技术的应用的研究论文 摘要: 数据挖掘是从大量的、不完全的、有噪声的、模糊的、随机的实际应用数据中发现隐含的、规律性的、人们事先未知的, 但又是

    夏侯将军YY 2人参与回答 2023-12-07
  • 信息化数据管理方法研究论文

    随着信息时代的到来,计算机技术的飞速发展,计算机信息系统在各行业各部门内的运用也逐渐频繁并深入,计算机信息管理系统在通信工程领域也已经得到了很大的普及和发展。下

    小袅袅09 2人参与回答 2023-12-08