回顾一下历史很容易看出,云计算不过是互联网发展的下一大步。作为信息服务的使用者,我们从主机时代发展到桌面设备,又发展到移动设备(例如平板电脑)。在Web上,我们从过去内容和应用程序的交付,发展到今天可以租用虚拟计算、网络、存储资源的阶段。这对互联网最初的架构师来说,互联网发展到今日的规模,能够支持最新的Web 2.0模型,真的是一项伟大而辉煌的成就。ARPANET(互联网的前身)最初的目的是提供对远程计算机的访问,所以从许多方面来看,我们绕了一个很大的圈子。
人们经常引用(更多的时候是作为负面引用)IBM的Thomas J. Watson在1943年说过的名言:"我认为,全市界的计算机市场只需要五台计算机。"时至今日,比起人们的认识,这个负面引用更接近于事实!
Nicolas Carr在2008年出版了一本著作《The Big Switch: Rewiring the World from Edison to Google》(W.W. Norton & Co.出版)。在书中,Nicholas Carr将IT行业正在开始发生的变化,与电力行业向公用事业模型的发展相比。思维很简单:只为使用的东西付费,就像使用电力一样。这种模型在效率和成本上的节约很容易理解,我们在第4章的"云经济的四大基石"中讨论过。但是,效率和成本的节约并不是云计算流行开来的唯一原因。
图5-1用两个拳击手的比喻来表示向最终用户交付和提供信息服务的两种截然不同的方式。左侧的拳击手代表云模型对传统企业信息服务交付方式的破坏。
![]() |
| (点击查看大图)图5-1 企业与Web之战--Web赢得了今天的战斗 |
如果将过去10年典型的企业IT模型与最近出现的Web 2.0模型进行比较,可以看出许多截然不同的做法。企业模型基于特定的应用程序或面向服务的基础设施,提供了一种垂直的扩展模型(也称为向上扩展),以每个应用程序为基础提供高可用性(N+1)故障转移能力。这种架构方法只能实现中等的可伸缩性。
相比之下,Web模型具有以下架构原则和已经证实的设计能力:水平伸缩(也称为横向扩展)、多层缓存、结果一致性、以信息为中心、共享基础设施和开放API。
注意:结果一致性是一种弱的一致性,即更新信息的时候,"写入"的内容并不立即就能"读取"。这种弱的一致性与Eric Brewer(加州大学伯克利分院)在2000年提出的CAP理论(一致性、可用性和分区容忍性)有关,他认为,数据的一致性、系统的可用性(包括规模和性能)、对网络分区的容忍性,是三个相互竞争的系统属性,同一时刻只能满足其中的两个。换言之,社交网络服务、甚至域名系统(DNS)要想扩展到全球网络的规模,就必须舍弃全球范围内数据的立即一致性。
Web模型并非偶然。它的发展已经可以解决今天的技术问题。一个好的示例就是对"大数据"(big data)的处理。为了满足政府监管的要求,大型组织日益面临保留海量的结构化和非结构化数据的需求。最近的美国法案已经在法律上强制要求某些垂直行业(例如,卫生行业)的企业必须保留海量的文档、电子邮件消息,以及在出现诉讼时可能需要的其他电子通讯信息。
"大数据"是个市场营销术语,它指的是尺寸超出常用企业软件工具的能力,不能在可以接受的时间范围内捕捉、管理以及处理的大型数据集。大数据的尺寸可以从几TB到几PB,而且还都在一个数据集内。最近应用到大数据上的新技术包括:大规模并行处理(Massively Parallel Processing,MPP)数据库、计算网格、MapReduce(map-and-reduce)文件系统(由此形成了Apache Hadoop之类的商业化应用程序)。同时,云计算平台借助互联网的威力,共同帮助我们来应对"大数据"的挑战。
简而言之,企业目前正在采用Web模型,首先取得的突破主要是在消费类社会媒体市场,现在企业则在采用Web模型解决和增强企业的能力,例如,促进员工之间的协同,提高数据处理速度,提高结果的准确性。本质上,企业需要一个模型,这个模型应该具备为今天全球市场的业务提供IT价值的能力。




