• 回答数

    5

  • 浏览数

    276

YIFAN的新家
首页 > 论文发表 > bigtable论文发表时间

5个回答 默认排序
  • 默认排序
  • 按时间排序

muxiu木秀

已采纳

互联网时代的来临,简易的说是海量信息同极致数学计算融合的结果。除此以外是移动互联、物联网技术造成了大量的数据信息,互联网大数据建筑科学极致地解决了海量信息的搜集、储存、测算、剖析的难题。互联网时代打开人类社会运用数据价值的另一个时期。互联网大数据(BigData)又称之为大量材料,便是数据信息大、数据来源宽阔(系统日志、视频、声频),大到PB级别,目前的架构便是以便处理PB级别的数据信息;到目前为止,人们生产制造的全部印刷耗材的信息量也但是200PB;阿里巴巴、京东商城、苏宁易购基础都沉定了PB级别;等于一家BAT企业(百度搜索、阿里巴巴、腾迅)顶过去全部人们时期生产制造的包装印刷材料互联网大数据便是解决海量信息的,工作中便是储存,清理,查寻,导出来,必须SQL句子和编程工具脚本制作适用互联网大数据一般用于描述一个企业造就的很多非结构型和半非结构化数据,这种数据信息在免费下载到关联型数据库查询用以剖析时候花销过多时间和钱财。数据分析常和云计算技术联络到一起,由于即时的大中型数据剖析必须像MapReduce一样的架构来向数十、百余或乃至千余的电脑上分派工作中。依据《大数据时代》中常说,互联网大数据并不是一个准确的定义,大量的是一种将会的方法。“互联网大数据是大家在规模性数据信息的基本上能够保证的事儿,而这种事儿在小规模纳税人数据信息的基本上是没法进行的。互联网大数据是大家得到 新的认知能力、造就新的使用价值的原动力,互联网大数据还为更改销售市场“互联网大数据即一种新式的工作能力:以一种史无前例的方法,根据对海量信息开展剖析,得到 有极大使用价值的商品和服务项目,或刻骨铭心的洞悉。

320 评论

philips1111

比如说hdfs系统,从谷歌的那篇GFS论文发表的2004年到现在的2014年年底,已经整整的10年过去了。学习一个系统,最好的方法是纵轴和横轴来看。纵轴就是观察系统的演变过程,还是拿hdfs来说,十年的时间变化很多,hdfs的架构变化是为了解决可靠性,可用性。从最初的hdfs 1.0的 single NameNode + SecondaryNameNode + DataNode 架构,到hdfs 2.0 的NameNode HA + NameNode Federation,这个架构的演变,就值得细细把玩。横轴看,就是将同类型的系统拿来做比较,有了比较,就有了更直观的认识。还是拿hdfs来说,同类型的系统,有 MapR FS 和谷歌的GFS 2.0(谁有资料,麻烦发一下),MapR FS 的资料还是有一些的。通过比较这些个系统的不同,会加深对分布式文件系统的理解,不仅仅是hdfs这一个,因为很多理论和实践是相通的。最后补充一句话,对于一家公司来说,照搬开源不一定是好事.

235 评论

秋风泡泡

可按照时间点划分大数据的发展历程。

大数据时代发展的具体历程如下:

2005年Hadoop项目诞生。 Hadoop其最初只是雅虎公司用来解决网页搜索问题的一个项目,后来因其技术的高效性,被Apache Software Foundation公司引入并成为开源应用。

Hadoop本身不是一个产品,而是由多个软件产品组成的一个生态系统,这些软件产品共同实现全面功能和灵活的大数据分析。从技术上看,Hadoop由两项关键服务构成:采用Hadoop分布式文件系统(HDFS)的可靠数据存储服务,以及利用一种叫做MapReduce技术的高性能并行数据处理服务。这两项服务的共同目标是,提供一个使对结构化和复杂数据的快速、可靠分析变为现实的基础。

2008年末,“大数据”得到部分美国知名计算机科学研究人员的认可,业界组织计算社区联盟 (Computing Community Consortium),发表了一份有影响力的白皮书《大数据计算:在商务、科学和社会领域创建革命性突破》。它使人们的思维不仅局限于数据处理的机器,并提出:大数据真正重要的是新用途和新见解,而非数据本身。此组织可以说是最早提出大数据概念的机构。

2009年印度政府建立了用于身份识别管理的生物识别数据库,联合国全球脉冲项目已研究了对如何利用手机和社交网站的数据源来分析预测从螺旋价格到疾病爆发之类的问题。同年,美国政府通过启动网站的方式进一步开放了数据的大门,这个网站向公众提供各种各样的政府数据。该网站的超过4.45万量数据集被用于保证一些网站和智能手机应用程序来跟踪从航班到产品召回再到特定区域内失业率的信息,这一行动激发了从肯尼亚到英国范围内的政府们相继推出类似举措。

2009年,欧洲一些领先的研究型图书馆和科技信息研究机构建立了伙伴关系致力于改善在互联网上获取科学数据的简易性。

2010年2月,肯尼斯ž库克尔在《经济学人》上发表了长达14页的大数据专题报告《数据,无所不在的数据》。库克尔在报告中提到:“世界上有着无法想象的巨量数字信息,并以极快的速度增长。从经济界到科学界,从政府部门到艺术领域,很多方面都已经感受到了这种巨量信息的影响。科学家和计算机工程师已经为这个现象创造了一个新词汇:“大数据”。库克尔也因此成为最早洞见大数据时代趋势的数据科学家之一。

2011年2月,IBM的沃森超级计算机每秒可扫描并分析4TB(约2亿页文字量)的数据量,并在美国著名智力竞赛电视节目《危险边缘》“Jeopardy”上击败两名人类选手而夺冠。后来纽约时报认为这一刻为一个“大数据计算的胜利。” 相继在同年5月,全球知名咨询公司麦肯锡(McKinsey&Company)肯锡全球研究院(MGI)发布了一份报告——《大数据:创新、竞争和生产力的下一个新领域》,大数据开始备受关注,这也是专业机构第一次全方面的介绍和展望大数据。报告指出,大数据已经渗透到当今每一个行业和业务职能领域,成为重要的生产因素。人们对于海量数据的挖掘和运用,预示着新一波生产率增长和消费者盈余浪潮的到来。报告还提到,“大数据”源于数据生产和收集的能力和速度的大幅提升——由于越来越多的人、设备和传感器通过数字网络连接起来,产生、传送、分享和访问数据的能力也得到彻底变革。

2011年12 月,工信部发布的物联网十二五规划上,把信息处理技术作为4 项关键技术创新工程之一被提出来,其中包括了海量数据存储、数据挖掘、图像视频智能分析,这都是大数据的重要组成部分。

2012年1月份,瑞士达沃斯召开的世界经济论坛上,大数据是主题之一,会上发布的报告《大数据,大影响》(Big Data, Big Impact) 宣称,数据已经成为一种新的经济资产类别,就像货币或黄金一样。

2012年3月,美国奥巴马政府在白宫网站发布了《大数据研究和发展倡议》,这一倡议标志着大数据已经成为重要的时代特征。2012年3月22日,奥巴马政府宣布2亿美元投资大数据领域,是大数据技术从商业行为上升到国家科技战略的分水岭,在次日的电话会议中,政府对数据的定义“未来的新石油”,大数据技术领域的竞争,事关国家安全和未来。并表示,国家层面的竞争力将部分体现为一国拥有数据的规模、活性以及解释、运用的能力;国家数字主权体现对数据的占有和控制。数字主权将是继边防、海防、空防之后,另一个大国博弈的空间。

2012年4月,美国软件公司Splunk于19日在纳斯达克成功上市,成为第一家上市的大数据处理公司。鉴于美国经济持续低靡、股市持续震荡的大背景,Splunk首日的突出交易表现尤其令人们印象深刻,首日即暴涨了一倍多。Splunk是一家领先的提供大数据监测和分析服务的软件提供商,成立于2003年。Splunk成功上市促进了资本市场对大数据的关注,同时也促使IT厂商加快大数据布局。2012年7月,联合国在纽约发布了一份关于大数据政务的白皮书,总结了各国政府如何利用大数据更好地服务和保护人民。这份白皮书举例说明在一个数据生态系统中,个人、公共部门和私人部门各自的角色、动机和需求:例如通过对价格关注和更好服务的渴望,个人提供数据和众包信息,并对隐私和退出权力提出需求;公共部门出于改善服务,提升效益的目的,提供了诸如统计数据、设备信息,健康指标,及税务和消费信息等,并对隐私和退出权力提出需求;私人部门出于提升客户认知和预测趋势目的,提供汇总数据、消费和使用信息,并对敏感数据所有权和商业模式更加关注。白皮书还指出,人们如今可以使用的极大丰富的数据资源,包括旧数据和新数据,来对社会人口进行前所未有的实时分析。联合国还以爱尔兰和美国的社交网络活跃度增长可以作为失业率上升的早期征兆为例,表明政府如果能合理分析所掌握的数据资源,将能“与数俱进”,快速应变。在这一年的7月,为挖掘大数据的价值,阿里巴巴集团在管理层设立“首席数据官”一职,负责全面推进“数据分享平台”战略,并推出大型的数据分享平台——“聚石塔”,为天猫、淘宝平台上的电商及电商服务商等提供数据云服务。随后,阿里巴巴董事局主席马云在2012年网商大会上发表演讲,称从2013年1月1日起将转型重塑平台、金融和数据三大业务。马云强调:“假如我们有一个数据预报台,就像为企业装上了一个GPS和雷达,你们出海将会更有把握。”因此,阿里巴巴集团希望通过分享和挖掘海量数据,为国家和中小企业提供价值。此举是国内企业最早把大数据提升到企业管理层高度的一次重大里程碑。阿里巴巴也是最早提出通过数据进行企业数据化运营的企业。

2014年4月,世界经济论坛以“大数据的回报与风险”主题发布了《全球信息技术报告(第13版)》。报告认为,在未来几年中针对各种信息通信技术的政策甚至会显得更加重要。在接下来将对数据保密和网络管制等议题展开积极讨论。全球大数据产业的日趋活跃,技术演进和应用创新的加速发展,使各国政府逐渐认识到大数据在推动经济发展、改善公共服务,增进人民福祉,乃至保障国家安全方面的重大意义。5月份,美国白宫发布了2014年全球“大数据”白皮书的研究报告《大数据:抓住机遇、守护价值》。报告鼓励使用数据以推动社会进步,特别是在市场与现有的机构并未以其他方式来支持这种进步的领域;同时,也需要相应的框架、结构与研究,来帮助保护美国人对于保护个人隐私、确保公平或是防止歧视的坚定信仰。2014年,“大数据”首次出现在当年的《政府工作报告》中。《报告》中指出,要设立新兴产业创业创新平台,在大数据等方面赶超先进,引领未来产业发展。“大数据”旋即成为国内热议词汇。

2015年,国务正式印发《促进大数据发展行动纲要》,《纲要》明确,推动大数据发展和应用,在未来5至10年打造精准治理、多方协作的社会治理新模式,建立运行平稳、安全高效的经济运行新机制,构建以人为本、惠及全民的民生服务新体系,开启大众创业、万众创新的创新驱动新格局,培育高端智能、新兴繁荣的产业发展新生态。标志着大数据正式上升这国家战略。

2016年,大数据“十三五”规划将出台,《规划》已征求了专家意见,并进行了集中讨论和修改。《规划》涉及的内容包括,推动大数据在工业研发、制造、产业链全流程各环节的应用;支持服务业利用大数据建立品牌、精准营销和定制服务等。

大数据的技术:

1. Hadoop

Hadoop诞生于2005年,其最初只是雅虎公司用来解决网页搜索问题的一个项目,后来因其技术的高效性,被Apache Software Foundation公司引入并成为开源应用。Hadoop本身不是一个产品,而是由多个软件产品组成的一个生态系统, 这些软件产品共同实现全面功能和灵活的大数据分析。从技术上看,Hadoop由两项关键服务构成:采用Hadoop分布式文件系统(HDFS)的可靠数据 存储服务,以及利用一种叫做MapReduce技术的高性能并行数据处理服务。

2. Hive

Hive是一种建立在Hadoop文件系统上的数据仓库架构,并能对存储在HDFS中的数据进行分析和管理。它最初是应Facebook每天产生的海量新兴社会网络数据进行管理和机器学习的需求而产生和发展的。后来其他公司也开始使用和开发Apache Hive,例如Netflix、亚马逊等。

3. Storm:

Storm是一个分布式计算框架,主要由Clojure编程语言编写。最初是由Nathan Marz及其团队创建于BackType,这家市场营销情报企业于2011年被Twitter收购。之后Twitter将该项目转为开源并推向GitHub平台,最终Storm加入Apache孵化器计划并于2014年9月正式成为Apache旗下的顶级项目之一。

295 评论

cathy101012

不推荐看理论性很强的书(不意味着不需要掌握)。找个你感兴趣的开源工具,然后看看他的document和论文,读读源码,用一用。不只要知道很多分布式的工具可以做什么,最重要的还是自己要深入一个。有广度有深度,领会某个优秀工具设计上的理念。先看看google的mapreduce,bigtable那几篇经典的论文。不要太多,要选择经典。因为绝多数都不怎么样。然后选择简单和成熟的分布式系统玩玩,写几个简单的程序。并对他们敢兴趣的地方看看源代码。然后就是想想已有系统有什么不好的地方进行一下修改。所有的系统都是tradeoff的产物,所以你总是可以找到性能提升的地方。中途会遇到很多bug,多问问论坛。也会遇到理论上的不足,这个时候有针对性的看论文或者书籍。大致如此吧!

306 评论

小熊加旺旺

第一阶段,运营式系统阶段。在上世纪七八十年代,用户购物时产生的记录一条条输入数据库,当时都是由这些运营系统生成这些数据的。

第二阶段,由用户原创内容阶段。2002年的时候,开始有了博客,后来发展成微博,到后来出现的微信,这些让每个网民都成了自媒体,都可以自己随心所欲地向网络发布相关的信息,这个时候数据产生的速度要远远大于之前的仅仅由运营系统产生的数据。

第三阶段,感知式系统阶段。真正让大数据时代由量变到质变是因为数据产生的方式到了第三个阶段——感知式系统阶段。

感知式系统阶段也就是物联网的大规模普及,物联网的迅速发展让大数据时代最终到来。

大数据是互联网发展到一定阶段的必然产物:

由于互联网在资源整合方面的能力在不断增强,互联网本身必须通过数据来体现出自身的价值,所以从这个角度来看,大数据正在充当互联网价值的体现者。

随着更多的社会资源进行网络化和数据化改造,大数据所能承载的价值也必将不断提到提高,大数据的应用边界也会不断得到拓展,所以在未来的网络化时代,大数据自身不仅能够代表价值,大数据自身更是能够创造价值。

136 评论

相关问答

  • 论文发表时间取得时间

    论文发表一般需要的时间如下: 1、普刊即省级国家级一般安排周期是1到3个月。 2、本科学报的安排周期一般为2到4个月。 3、北大核心以上级别期刊的安排周期

    Z黑暗中獨舞 6人参与回答 2023-12-09
  • bigtable论文发表时间

    互联网时代的来临,简易的说是海量信息同极致数学计算融合的结果。除此以外是移动互联、物联网技术造成了大量的数据信息,互联网大数据建筑科学极致地解决了海量信息的搜集

    YIFAN的新家 5人参与回答 2023-12-12
  • bigtable论文发表地点

    你说的可能是这三个吧:2003年发表了《The Google File System》2004年发表了《MapReduce: Simplified Data P

    星星星kooo 4人参与回答 2023-12-09
  • 论文发表时间和出版时间

    刊期和出刊时间的区别是什么?刊期就是期刊的出版周期,常见的出版周期打击阿斗非常熟悉,半月刊、月刊、双月刊、季刊等,都是常见的期刊出版周期,出刊时间是一个更为具体

    养生达人帅帅 4人参与回答 2023-12-10
  • bigtable论文在哪发表的

    你好,日常管理的要点, #define与typedef引申谈 1) #define宏定义有一个特别的长处: 可以使用 #ifdef ,#ifndef等来进行逻辑

    洋洋捌月 7人参与回答 2023-12-07