• 回答数

    4

  • 浏览数

    331

如果蛋蛋愿意
首页 > 职称论文 > 脑研究的论文

4个回答 默认排序
  • 默认排序
  • 按时间排序

轻轻空空

已采纳

为了理解为什么这么多不缺乏智商,受过良好教育,并且足够努力的人,他们的成就比获得诺贝尔奖的人差得多?经过反复统计,科学界普遍有两种看法:一种解释是,智商或解决问题中显示出的智慧和真正的智慧并非完全线性相关。另一个解释是,天才的大脑与我们普通人的大脑明显不同,也就是说,它们是天生的。

您和我不仅关心这个问题,全世界的科学家也都想知道答案。找到这个答案的直接方法是找到一个超级天才的大脑来研究它。 1955年。一位医生得到了机会。他的名字叫托马斯·哈维。那年,伟大的科学家爱因斯坦去世。他的尸体被停在普林斯顿大学医学院,哈维恰好是负责爱因斯坦的医院医生之一。哈维采取了非常惊人的举动。他利用自己的作品偷走了这个天才的大脑。经过消毒处理后,他做了240切片,并将其保存下来以研究天才的大脑与普通人有什么不同。

当然,这件事不能从联邦调查局隐瞒。他们一直在追捕他们,但联邦调查局只是想秘密保护哈维和爱因斯坦的大脑。爱因斯坦的儿子知道这件事当然很生气,但是在哈维的解释之后,他仍然原谅了哈维,但提出了一项要求,即研究结果必须在世界一流的杂志上发表。从那一刻起,世界一直在等待哈维的研究成果。遗憾的是,哈维一生都在研究,而爱因斯坦的大脑与普通人之间没有任何区别。令我们更失望的是,提出相对论的天才仅重1,230克,远低于普通人的1,400克。尽管他的大脑有更多的苏尔奇,但这还不是判断天才的直接证据。

直到1980年,哈维承受着巨大的压力,担心自己一生中无法完成爱因斯坦大脑研究的艰巨任务,因此他决定让世界各地的科学家参与这项研究。每个人都拿起高火柴火,许多人参加了。人们不仅容易产生结果,而且他们也有不同的意见。 1999年,加利福尼亚大学的科学家发现,爱因斯坦大脑中的神经胶质细胞多于数学。有许多具有物理功能的神经元细胞。然而,医学上的共识是神经元细胞在人类思维中起主要作用,而角质形成细胞仅起辅助作用。因此,这一发现被医学界所鄙视。后来,加拿大科学家发现,埃斯坦的脑洞很大,也就是说,他的颅骨和大脑上部空间更大。尽管在开玩笑时,我们总是说脑孔是敞开的,但每个人都知道,脑孔实际上不一定与智力有关。

232 评论

静静19811215

总的来说就是爱因斯坦的智商比较高,脑回路的阻碍比较少而已

260 评论

芊芊寻2013

深度神经网络(DNNs)是 AI 领域的重要成果,但它的 “存在感” 已经不仅仅限于该领域。 一些前沿生物医学研究,也正被这一特别的概念所吸引。特别是计算神经科学家。 在以前所未有的任务性能彻底改变计算机视觉之后,相应的 DNNs 网络很快就被用以试着解释大脑信息处理的能力,并日益被用作灵长类动物大脑神经计算的建模框架。经过任务优化的深度神经网络,已经成为预测灵长类动物视觉皮层多个区域活动的最佳模型类型之一。 用神经网络模拟大脑或者试图让神经网络更像大脑正成为主流方向的当下,有研究小组却选择用神经生物学的方法重新审视计算机学界发明的DNNs。 而他们发现,诸如改变初始权重等情况就能改变网络的最终训练结果。这对使用单个网络来窥得生物神经信息处理机制的普遍做法提出了新的要求:如果没有将具有相同功能的深度神经网络具有的差异性纳入考虑的话,借助这类网络进行生物大脑运行机制建模将有可能出现一些随机的影响。要想尽量避免这种现象,从事 DNNs 研究的计算神经科学家,可能需要将他们的推论建立在多个网络实例组的基础上,即尝试去研究多个相同功能的神经网络的质心,以此克服随机影响。 而对于 AI 领域的研究者,团队也希望这种表征一致性的概念能帮助机器学习研究人员了解在不同任务性能水平下运行的深度神经网络之间的差异。 人工神经网络由被称为 “感知器”、相互连接的单元所建立,感知器则是生物神经元的简化数字模型。人工神经网络至少有两层感知器,一层用于输入层,另一层用于输出层。在输入和输出之间夹上一个或多个 “隐藏” 层,就得到了一个 “深层” 神经网络,这些层越多,网络越深。 深度神经网络可以通过训练来识别数据中的特征,就比如代表猫或狗图像的特征。训练包括使用一种算法来迭代地调整感知器之间的连接强度(权重系数),以便网络学会将给定的输入(图像的像素)与正确的标签(猫或狗)相关联。理想状况是,一旦经过训练,深度神经网络应该能够对它以前没有见过的同类型输入进行分类。 但在总体结构和功能上,深度神经网络还不能说是严格地模仿人类大脑,其中对神经元之间连接强度的调整反映了学习过程中的关联。 一些神经科学家常常指出深度神经网络与人脑相比存在的局限性:单个神经元处理信息的范围可能比 “失效” 的感知器更广,例如,深度神经网络经常依赖感知器之间被称为反向传播的通信方式,而这种通信方式似乎并不存在于人脑神经系统。 然而,计算神经科学家会持不同想法。有的时候,深度神经网络似乎是建模大脑的最佳选择。 例如,现有的计算机视觉系统已经受到我们所知的灵长类视觉系统的影响,尤其是在负责识别人、位置和事物的路径上,借鉴了一种被称为腹侧视觉流的机制。 对人类来说,腹侧神经通路从眼睛开始,然后进入丘脑的外侧膝状体,这是一种感觉信息的中继站。外侧膝状体连接到初级视觉皮层中称为 V1 的区域,在 V1 和 V4 的下游是区域 V2 和 V4,它们最终通向下颞叶皮层。非人类灵长类动物的大脑也有类似的结构(与之相应的背部视觉流是一条很大程度上独立的通道,用于处理看到运动和物体位置的信息)。 这里所体现的神经科学见解是,视觉信息处理的分层、分阶段推进的:早期阶段先处理视野中的低级特征(如边缘、轮廓、颜色和形状),而复杂的表征,如整个对象和面孔,将在之后由颞叶皮层接管。 如同人的大脑,每个 DNN 都有独特的连通性和表征特征,既然人的大脑会因为内部构造上的差异而导致有的人可能记忆力或者数学能力更强,那训练前初始设定不同的神经网络是否也会在训练过程中展现出性能上的不同呢? 换句话说,功能相同,但起始条件不同的神经网络间究竟有没有差异呢? 这个问题之所以关键,是因为它决定着科学家们应该在研究中怎样使用深度神经网络。 在之前 Nature 通讯发布的一篇论文中,由英国剑桥大学 MRC 认知及脑科学研究组、美国哥伦比亚大学 Zuckerman Institute 和荷兰拉德堡大学的 Donders 脑科学及认知与行为学研究中心的科学家组成的一支科研团队,正试图回答这个问题。论文题目为《Individual differences among deep neural network models》。 根据这篇论文,初始条件不同的深度神经网络,确实会随着训练进行而在表征上表现出越来越大的个体差异。 此前的研究主要是采用线性典范相关性分析(CCA,linear canonical correlation analysis)和 centered-kernel alignment(CKA)来比较神经网络间的内部网络表征差异。 这一次,该团队的研究采用的也是领域内常见的分析手法 —— 表征相似性分析(RSA,representational similarity analysis)。 该分析法源于神经科学的多变量分析方法,常被用于将计算模型生产的数据与真实的大脑数据进行比较,在原理上基于通过用 “双(或‘对’)” 反馈差异表示系统的内部刺激表征(Inner stimulus representation)的表征差异矩阵(RDMs,representational dissimilarity matrices),而所有双反馈组所组成的几何则能被用于表示高维刺激空间的几何排布。 两个系统如果在刺激表征上的特点相同(即表征差异矩阵的相似度高达一定数值),就被认为是拥有相似的系统表征。 表征差异矩阵的相似度计算在有不同维度和来源的源空间(source spaces)中进行,以避开定义 “系统间的映射网络”。本研究的在这方面上的一个特色就是,使用神经科学研究中常用的网络实例比较分析方法对网络间的表征相似度进行比较,这使得研究结果可被直接用于神经科学研究常用的模型。 最终,对比的结果显示,仅在起始随机种子上存在不同的神经网络间存在明显个体差异。 该结果在采用不同网络架构,不同训练集和距离测量的情况下都成立。团队分析认为,这种差异的程度与 “用不同输入训练神经网络” 所产生的差异相当。 如上图所示,研究团队通过计算对应 RDM 之间的所有成对距离,比较 all-CNN-C 在所有网络实例和层、上的表示几何。 再通过 MDS 将 a 中的数据点(每个点对应一个层和实例)投影到二维。各个网络实例的层通过灰色线连接。虽然早期的代表性几何图形高度相似,但随着网络深度的增加,个体差异逐渐显现。 在证明了深度神经网络存在的显著个体差异之后,团队继续探索了这些差异存在的解释。 随后,研究者再通过在训练和测试阶段使用 Bernoulli dropout 方法调查了网络正则化(network regularization)对结果能造成的影响,但发现正则化虽然能在一定程度上提升 “采用不同起始随机种子的网络之表征” 的一致性,但并不能修正这些网络间的个体差异。 最后,通过分析网络的训练轨迹与个体差异出现的过程并将这一过程可视化,团队在论文中表示,神经网络的性能与表征一致性间存在强负相关性,即网络间的个体差异会在训练过程中被加剧。 总而言之,这项研究主要调查了多个神经网络在最少的实验干预条件下是否存在个体差异,即在训练开始前为网络设置不同权重的随机种子,但保持其他条件一致,并以此拓展了此前与 “神经网络间相关性” 有关的研究。 除了这篇 这篇 研究以外,“深度学习三巨头” 之一、著名 AI 学者 Hinton 也有过与之相关的研究,论文名为《Similarity of Neural Network Representations Revisited》,文章探讨了测量深度神经网络表示相似性的问题,感兴趣的读者可以一并进行阅读。 Refrence: [1] [2]

119 评论

聰軎膥賳过

这个应该没有什么特别的结论吧,只不过是因为爱因斯坦他的一些思维比我们更厉害而已

360 评论

相关问答

  • 脑科学研究对象有关的论文

    你不翻译了???

    Tania慧慧 3人参与回答 2023-12-12
  • 大脑研究的论文

    深度神经网络(DNNs)是 AI 领域的重要成果,但它的 “存在感” 已经不仅仅限于该领域。 一些前沿生物医学研究,也正被这一特别的概念所吸引。特别是计算神

    狂想妄想不想 5人参与回答 2023-12-07
  • 关于研究大脑的论文

    说起爱因斯坦,大家对他的评价都是天才、优秀科学家。然而正是因为异于常人的表现,让这位天才,在死后还不能安息,被人以科学的名义“窃取”大脑,拿来做研究。1955年

    好奇的小米 5人参与回答 2023-12-08
  • 脑研究的论文

    为了理解为什么这么多不缺乏智商,受过良好教育,并且足够努力的人,他们的成就比获得诺贝尔奖的人差得多?经过反复统计,科学界普遍有两种看法:一种解释是,智商或解决问

    如果蛋蛋愿意 4人参与回答 2023-12-07
  • 心脑血管药物的研究论文

    护理风险是指从事患者的护理过程中,有可能发生的所有各类不安全事件的总和。下面是我为大家整理的心血管内科论文,供大家参考。 [摘要]目的:探讨心血管内科临床护理方

    实言舌实言兑 4人参与回答 2023-12-10