服务器

  |  手机版

收藏网站

投稿QQ:1745232315

IT专家网,汇聚专业声音 解析IT潮流 IT专家网,汇聚专业声音 解析IT潮流

网络

专家视点在现场环球瞭望
IT专家网 > 服务器

过去50年数据中心行业所经历的不断的变化

作者:thebigdata出处:博客2016-04-26 06:53

  在Computer Weekly准备庆祝其成立五十周年之际,我们将为您回顾一下在过去的五十年间,整个数据中心行业的设计及其所发挥的作用是如何变迁的。

  如果将数字经济比作是一个活生生的、会呼吸的生命的话,那么,数据中心无疑将是其发挥神经系统作用的重要器官了。用户每次激发一款设备或应用程序,这一动作的相关信息总是传输到数据中心,以带来及时和适当的响应。

数据中心

  例如,任何时候,当有用户登录到网上银行、或在伦敦公共交通系统刷他们一卡通“牡蛎卡”、或仅仅只是在Facebook对他们朋友最新发布的状态帖子发表简单的评论时,这些过程都将涉及到数据中心的积极参与。

  每一次,这些相互作用被传送,都会沿着一个类似神经系统的高速网络电缆,将数据信息传输到数据中心某处的一台服务器,在那里进行迅速的数据信息处理,然后,这些数据信息的发起用户就可以快速的查看自己的银行账户余额、或使用公共交通网络、或享受他们的在线社交生活了。

  与此同时,服务器将对用户发起传输而来的数据信息进行响应,将将其传递到存储部件或者“大脑”(即数据中心),确保这些短暂而必要的数据处理过程的细节都将被记录下来,从而在毫秒之间就结束了一连串的事件处理。

  鉴于我们的日常工作和生活对于互联网连接的设备和云服务的依赖的不断上升,每一天,即使不是数万亿的话,至少也有数十亿此类的交易,在全球范围内发生。

  有鉴于此,随着技术企业着手新建或扩展他们现有的基础设施,以确保用户的需求得到满足——包括从处理性能和预期的角度来看,使得全球数据中心的规模获得了持续不断的增长。

  故而,对于21世纪的每家数据中心运营商而言,确保其数据中心基础设施的高效率和弹性运行无疑是至关重要的。

  但是,如果没有相关的技术人员在过去五十年间不断辛勤的试验和研究的话,许多在今天被认为是运行一处现代化的数据中心所不可或缺的重要组成部分的相关设计理念和技术可能都是不存在的。

  时光倒流的回顾

  在正常运行时间协会(Uptime Institute)的常务执行理事皮特·特纳40多年的IT行业职业生涯中,该组织在制定并建立数据中心设计的标准化方面发挥了重要作用,并通过他及其团队成员的共同努力,创造了层级标准:拓扑分类系统。

  对于外行人来说,等级标准:拓扑是由Uptime Institute在上世纪90年代末发布的。而通过使用一个一级到四级的标记系统,其被用来表示一处数据中心的物理基础设施的可用性。

  运营商可以通过简单的架构搭建他们的数据中心基础设施,以满足必要的层级需求;或使用站点需求,并获得Uptime Institute所颁发的数据中心正式认证之间进行选择。

  由于其在发布的最初,该文档一直受到定期审查,在超过200个国家被下载,以告知全世界数据中心相关的设计标准和规范。

  据特纳介绍说,其已被证明非常成功的原因之一就在于,其有助于确保当一家企业指定了所需要的数据中心类型时,设计团队就能够在理解他们的要求的基础上负责建立数据中心。

  “其所做的便是创造了一种通用的语言,让包括从数据中心所有者到设计师在内的所有人都可以顺畅的就其所预期实现的是什么样的操作功能进行有效的表达。”特纳告诉Computer Weekly的记者说。

  “而在此之前,企业主们只会说,’我希望打造一处数据中心’,然后就会有人响应说,'我将为您建立一处数据中心',但关于他们所谈论的究竟是否是同一种设施,却并没有太多的涉及。”

  该标准最初对企业进行通知是应Uptime Institute的一家客户的要求,该企业客户在完成了一项兼并和收购交易之后,需要帮助澄清如何使得其新近收购的数据中心组合能够满足其业务的要求,据特纳回忆说。

  他说:“他们来向我们咨询,询问我们是否能够帮助他们开发一种行话,该行话将使他们能够区分不同的计算机房,结果该行话演变成为了一级标准。”他说。

  如今,该文档被广泛用于运营商的营销材料,以简洁地描述他们的设施是如何具备弹性的。

  “管理执行人员现在可以使用该标准来表达他们所想要的功能的水平,并将其提交给他们的实施团队,通过提出一套设计方案,以符合四个层次之一的任何一个层级的标准。”特纳说。

  “无论他们是否是通过认证到底,作为实现其业务需求的选择。都需要弄清楚其所要瞄准的是怎样的层次水平,因为并不是层级数字最大的就是最好的层级。”

  “最好的层级是那些能够对企业的业务需求:将需要在该设施运行作出回应的层级,而为超出您企业业务的实际所需支付额外的资源,并没有什么意义。”他补充说。

  提高能源效率

  鉴于运营数据中心的成本和耗电是如此高昂,故而提升数据中心运营效率是必不可少的,而许多现代服务器园区经营者因为要想办法提高其所运行的基础设施的效率,均拥有上述想法。

  为了向他们伸出援助之手,绿色网格组织在2007年推出了电力使用效率(PUE)这一指标,方便数据中心运营商们作为确定其内部能源效率基准的有效的手段。

  从那时起,一家数据中心的PUE得分便成为大多数提供商的营销材料的另一大重要的支柱——尽管这是不正确的。

  在过去的十年中,许多数据中心设施都转移到采用热通道和冷通道在其数据大厅内相结合的设计,而服务器机架则排在交替行。

  由服务器发出的热量被隔离在一个行内进行处理,而冷空气则从另一个通道进入,用来保持设备的冷却。

  自2009到2010年,数据中心行业一直按照ASHRAE技术委员会的9.9(TC 9.9)热指南采用这种方法以收集蒸汽。

  “10年前,对于服务器所使用的每千瓦的电力资源,您至少需要再花费另一个千瓦的热能来使其冷却下来。”一名在数据中心行业拥有25年经验的老将保罗·芬奇解释说,他目前是托管服务提供商Digital Realty公司的高级技术总监。

  “正是缘于ASHRAE所做的工作,使得消耗同样千瓦数的IT功率,我们可以只需要再消耗100W的能源来使其冷却,而不在需要再另外消耗1000W的能源了。这不仅代表了能源效率的大幅提高,更不用说碳排放量的大幅减少了。”

  摘要:在Computer Weekly准备庆祝其成立五十周年之际,我们将为您回顾一下在过去的五十年间,整个数据中心行业的设计及其所发挥的作用是如何变迁的。

  该文件为数据中心的IT设备在较高温度下运行提出了令人信服的理由,因为这将减少机械设备冷却的需要,并反过来,进一步降低所需的电力资源的消耗的量。

  “2004年,20°C至22°C的服务器入口温度是数据中心的规范,但是,在ASHRAE做了相应的推广工作之后——普遍推荐的温度范围现在则为18°C到27°C之间。”芬奇说。

  “通过使设备的运行温度范围更广泛,您企业不再需要配备专门的工程基础设施,以保持这些设备在较低的温度下运行了,这也显著提升了能源效率。”

  实现设计标准化

  数据中心运营商们一直对于让他们的设备处于高温状态运行保持谨慎的态度,怕这样做会增加数据中心的硬件故障的风险。但采用冷热通道密封,则允许他们得以防止这一点,并能够更有效地管理自己的数据中心站点了。

  在过去,谨防数据中心的设施运行过热的唯一办法就是从地板输入冷空气,使其能够在各个机柜之间流通,以便使得整个数据处理大厅获益,芬奇说。而冷热通道密封方法的引入,大大减少了,甚至在某些情况下消除了数据中心机械设备冷却的需要。

  TC 9.9的引进,已经对整个数据中心行业产生了极其深远的影响,芬奇补充说,而随着硬件制造商们希望调整其技术的设计,以匹配这一指导意见,TC 9.9还将会在未来多年内继续发挥其影响力。

  他说:“他们可能会达到一个临界点,然后就无法再近一步提升设备的操作温度了。毕竟,这将是有限的。也许,这是由服务器内部的处理器技术或其他一些内部组件所决定的。”他说。

  “但在可预见的将来,我可以看到数据中心设备的操作温度将近一步的继续提升,这主要是由可持续发展的需求和提升能源效率而推动的,而且这一举措也将对数据中心的运营成本产生巨大的影响。”

  回顾过去

  在数据中心诞生的初期,彼时,其尚未有“数据中心”这一专业术语。其设备被要求推动建立高水平的冗余性和弹性,这在很大程度上要依赖于大量的人工体力劳动来保持相关设施的运转,这意味着效率方面的需要经常要让位靠边站。

  即便如此,试图保持早期大型机运行的敏锐性、并确保其长时间的运行往往也是一个很高的要求,据Uptime Institute的特纳基于自己在上世纪60年代在他所工作的大学校园的工作经验回忆说。

  “我在那里工作时,在计算机中心发布的最常见的同志告示便是:电脑今天坏了”。他笑着说。

  “在过去,如果一名主机操作员能保持一整个轮班系统的正常运行的话,他们就会被认为是当地的英雄。”他补充道。

  但是,在当年,这个世界是以不同速度运行着的,这一点则是特纳通过对于60年代的数据中心运营状况的观察,所获得的另一点感受。

  “在我曾经长大的地方,有一幢看上去像一座由三层混凝土砌块所建起来的建筑——这是一家大区域银行的一处数据处理中心。彼时,还没有网络可言,所以在晚上,都会有大量来自该地区的各个分行装载着纸张文件的卡车到达该数据处理中心。”他说。

  “通过一夜通宵的时间,这几大卡车的纸张文件将被处理,这些数据将被压缩粉碎,并将创建打印输出新的单据,然后他们会将这些文件单据发送回到各个分行,以便他们能够在早上上班时打开。我从来没有进去过该数据处理中心,但我知道其是如何工作的。”

  市场调研机构451 Research的副总裁安德鲁·劳伦斯表示说,在上世纪70年代和80年代,大多数选择拥有并经营自己的IT硬件的中等、大型规模的企业组织都曾经经历过特纳所描述的在大型机方面的经验,在当时,这项技术往往是困难的,而且属于劳动密集型的运行设备。

  “在当时,所谓的’机房’,也即今天的数据中心的前身,通常就是安置了几台大机器的房子。”他说。

  “到了上世纪80年代,许多企业想退出电脑操作,但这是在托管出现之前。他们要么支付给其他企业来帮助他们托管他们的应用程序,要么把所有的大的计算需求统统外包出去。”

  与此同时,随着大型主机技术稳定性的提高,在90%的区域内实现更高的硬件的利用率,而如果不这样做,可能会面临来自高层监管的处分,特纳称。

  然而,随着PC和服务器计算时代的到来,这个概念似乎又为IT世界创造了一系列新的问题。

  “企业组织想缩小他们IT的规模,但在小型机和PC革命却真的意味着他们打了败仗。无论他们做了什么,在企业内部的IT开支都在不断的一涨再涨。”劳伦斯说。

  特纳补充说,在大型主机时代,企业组织IT部门的大量最佳实践做法都纷纷被抛弃了。

  “随着越来越多的业务应用程序从大型主机转移到了服务器,它们逃脱IT部门的官僚作风,以及与部署新的应用程序相关的漫长的周期。”特纳说。

  “很大一部分的大型主机被分配到维护数据的纯度和预防损坏的信息被存储。所有这一切都被服务器世界所丢在了后面。”

  特纳声称,大约正是在2006年Uptime Institute的首次IT用户研讨会召开左右的时间,IT用户们已经开始被服务器的硬件故障和不断上升的IT成本双重麻烦弄得焦头烂额,使得他们再次开始密切的关注如何从他们的投资获得更多回报。

  因此,也就是在这段时间,服务器虚拟化的概念获得热捧,以便能够提高硬件的利用率,从而允许企业组织能够采取相应的措施,以缩减其数据中心的占用空间。

  特纳说:“我们会说,其与大型主机所经历的情况几乎是完全一样的,除了我们曾经将其称之为逻辑分区,而不是虚拟实例,但这确实是一样的。

  “通过将应用程序实施合理的虚拟化,我们在一些案例中看到,多处数据中心的功耗,占地空间和冷却需求减少了多达80%。”

  提高数据中心的标准

  虽然说远离大型主机的转变与其本身不是没有问题的这一说法,还算较为合理是,但在上世纪90年代,标准机架和服务器的兴起,对数据中心的设计无疑产生了一个革命性的影响。

  “这就意味着,全世界的数据中心的设计和操作运营都将以同样的方式进行,而供应商们则可以通过采用标准化的“U”型机架来节省巨大的成本。这也有助于连接性和空气流通。”特纳说。

  “在上世纪90年代的商业互联网的迅速发展是前向迈进的另一大步,因为这使得任何企业都能够连接到任何客户,员工或合作伙伴,而无需铺设昂贵的连接。这反过来,使托管和托管公司来接管企业的IT运营更容易。”

  互联网泡沫带来的灾难

  第二十一世纪的最开始,被认为是互联网史上的一个特别黑暗的时期,为数众多的网络公司在2000年前后的互联网泡沫破灭时倒闭了。

  正如451 Research的劳伦斯所指出的,随着越来越多的家庭接入互联网,一系列的在线零售商和服务提供商开始出现,而这些企业无疑都打探这用户兜里的现金。

  彼时,大量企业要么被以巨额的资金所收购,要么通过首次公开募股发行股票吸引了大量的投资,尽管相当多的企业从未盈利或达到过维持其长期经营所必需的营收水平。

  不可避免的是,许多这些公司在2000年代初纷纷倒闭或被以比其最初的估值要低得多的价格出售了,因为他们是不可持续的。这也导致了数据中心市场遭遇了恶果。

  为了跟上在线服务的需求,大量投资用于建设数据中心,以便交付容量需求。但是,随着互联网企业的泡沫开始破灭,许多数据中心站店处于休眠状态,托管提供商Interxion公司英国董事总经理Andrew Fray回忆说。

  “很多资金被投入用于建造数据中心,然后却没有客户。这真的是让整个欧洲的数据中心行业度过了一段相当漫长的黑暗日子。在当时,他们曾经期待承运商及相关联的基础设施的部署能够带来显著的繁荣,但却事与愿违。”

  分析机构Broadgroup公司的董事总经理Steve Wallage,描绘了在网络泡沫繁荣的头十年数据中心运营商的盛况;以及泡沫破灭萧条之后,数据中心运营商的惨淡景象。

  “在2000年,有27家泛欧洲的数据中心运营商,其中有17家后来歇业了,所以该行业领域真的受到了严重的影响。直到2007年或2008年左右,该市场也没有真正再次重新站起来”。他说。

  然后,我们又到了全球性金融危机的时候,企业开始纷纷期待通过外包其IT需求来削减成本,外包到托管服务供应商手中。

  数据中心空间的缺乏是互联网泡沫破灭的一个副产品。实际上,在这个时候,互联网服务提供商和金融服务机构纷纷使用托管服务,以满足他们的需求。

  “很多IT行业行业均受经济波动的影响,而其中,服务器的出货量便是一个很好的例子,其随着经济的波动不断上升和下降,而数据中心外包实际上受到经济衰退的影响也在增加。”Wallage解释说。

  “如果您现在来看看数据中心和托管服务市场,其每年仍然在以大约10-12%的速度增长,而IT服务作为一个整体,速度增长则大约为2-4%。”

  随着时间的推移,在更大范围内的垂直市场的企业的运营操作已转移到采用托管服务作为其IT战略的一部分,数据中心行业被定位为一个越来越有吸引力的投资前景。

  Wallage说,低客户流失率,可预测的收入和容量需求飙升,数据中心市场已成为近年来的一个热门 的投资领域。

  “五到六年前,数据中心还被认为是IT行业的垃圾桶。但几个星期前,当我与一名从事数据中心领域的投资者聊天时,用他的话——该行业现在是如此充满诱惑。”Wallage说。

  一些关于该市场领域失势的事实已经成为过去,而新的趋势是,随着云计算和物联网(IoT)的出现,应该将确保人们在未来很长一段时间内对于数据中心领域的兴趣仍然很高,Wallage说。

  此外,随着托管提供商此时开始获得巨资投入,很多早期投资者已经在市场上开始看到了初始投资回报率了。

  “一些企业在市场上的成功有助于让投资者们看到他们的投资能够非常好的回报。例如,Telecity,在其最低点时,市值约为400万英镑,然后当被卖给Equinix时,则获得20亿英镑。”Wallage指出。

  新世纪的中期的十年也标志着Facebook等社交媒体地位开始上升,并出现了现在已然成为世界最大的云服务基础设施提供商的服务——亚马逊网络服务(AWS)。

  谷歌和微软也开始制定他们的公共云策略,促使人们开始将兴趣关注点由私人数据中心运营商转移到这些公司,这些供应商的服务由数以百万计的人所使用——应用能够跟上需求的步伐。

  在AWS、谷歌、Facebook等企业的案例中,往往是通过建立他们自己的硬件基础设施、并以一种更以软件为主导的方式对基础设施设施管理,采用了DevOps友好的方法,以创建和发布新的代码。

  所有这些服务,都是为了确保数据中心朝着自动化程度更高的趋势方向发展,正如Uptime Institute的特纳所强调的那样,该领域将继续快速增长。

  虽然一些企业在跟随上述这些网络巨头企业的步伐方面已经采取行动了。但当涉及到他们的数据中心的技术策略时,部分企业已经开始采取减少在这方面投资的措施,而开始将更多的IT基础架构迁移到云服务了。

  这一个趋势已经持续了好几年了,据AWS英国和爱尔兰地区的董事总经理加文·杰克逊介绍,并预计该趋势将塑造企业数据中心未来多年的投资。

  “在时机成熟的时候,我们认为客户们会更少选择运营数据中心,其将只有很少的工作负载和应用程序类型仍将在他们自己的数据中心。这将会对客户自己的数据中心空间产生深远的影响。”杰克逊说。

  “我们认为,这将是一个持续加速的趋势,企业组织会进一步减少其数据中心的占地空间,并在未来开始使用更多的亚马逊网络服务等云服务。”

  451 Research的劳伦斯对此则不是那么肯定,并且认为,在未来至少十年内,数据中心将继续在企业业务运营中发挥重要作用。

  “所有的证据都表明,在未来五到七年内,大多数企业会将一些云服务、一些托管服务和内部部署混合起来使用。而在那之后的趋势,就不那么清楚了。”他说。

  “已经越来越清楚的是,将会有大量的计算是在边缘执行——在现场和使用点的附近,无论是基于技术、延迟性、法律和经济方面的原因。”

  “但仍然值得观察的是,在网络边缘的所有权将如何被组织,管理和拥有。”他总结道。

相关文章

关键词:X86服务器

责任编辑:郑亮

网警备案