|
当前位置:
>> 首页 >> 技术学园
>> 关于低成本计算、虚拟化、网格的五个问题 |
|
关于低成本计算、虚拟化、网格的五个问题 |
更新时间:2007-9-27 16:45:52
( 编辑:映君 )
|
本文从计算机本质特征出发,试图采用问答方式,将有关网格技术、虚拟化技术、低成本计算的五个问题明晰化,并指出低成本计算提供了丰富的创新机会。
问题1:计算机学科的本质特征是什么?
计算机学科整体上讲是一门工程学科,具有工程学科的共性本质:在限制条件下求最优解(国际上的表述有三个关键词:“problem solving”“constraints”、“optimal”)。因此,计算机科学技术这门学科的本质特征可表述为:在限制条件下设计优化的计算机系统和应用。
在计算机体系结构领域,这种特征尤其明显。比如,归纳并选择正确的限制一直是计算机体系结构研究的重点内容。有些学者甚至说,一类体系结构就是一组精确定义的限制。
这是计算机学科的主线,也是我们培养创新人才的重点。比如,要培养研究生同学的创新能力,重点应该是:1. 归纳和抽象限制条件的能力,2. 解决问题的能力,3. 优化解题方法的能力。目前一些同学的学位论文初稿中,比较普遍地存在这三个方面的问题。文稿往往写得像一篇工作报告,花了大量篇幅讲自己的工作过程,反而没有清楚地陈述论文解决了什么样的科学问题和技术问题,结果如何,评价效果如何。对限制条件往往缺乏明晰的界定,从而模糊了研究问题以及论文结论的适用范围。另一个弱点是解题方法缺乏优化的“道道”、“诀窍”,比较随意(ad hoc),难以突出论文的创新点。
问题2:低成本计算是不是低科技?
在设计计算机系统和应用的限制条件中,一般而言,成本都是一个重要的限制。近年来,在探索中国特色信息化的过程中,中科院计算所和国内同行提出了低成本计算(或低成本信息化)的思路。科技部863计划在2006年已经立项支持低成本计算机系统研制工作。计算所提出的“八亿龙网”设想,其目标是在2020年以前,让八亿用户能够直接使用计算机系统和应用,使信息技术惠及社会大众。
但是,一些同行和专家提出了一些疑问:低成本是否没有多大科学技术挑战?是否应该由企业去做?摩尔定律是否会自动地降低成本?
事实上,降低成本一直是计算机创新的一条主要思路。计算机体系结构领域中,引发产业换代的几个重要创新,如IBM 360、个人计算机(PC)、RISC技术、RAID技术,降低成本是重要的目标和限制条件。
今天,盘阵的全球市场已达百亿美元。盘阵的创新技术是RAID,即“低成本磁盘冗余阵列”,其核心思想就是扬弃昂贵的单一大硬盘技术。
计算机成本高的一个重要原因是复杂性高。降低CPU的复杂性,尤其是指令系统的庞杂性,就是RISC体系结构的基本思想。这一波的创新归纳了几个重要的体系结构设计的限制,如单拍运算指令、存取指令结构、哈佛结构等,从而用简约化的指令集和指令流水线就能使CPI逼近1,即最优的性能。
封闭式结构、紧耦合加上短期市场利益驱动的增量式创新,往往导致人为的异构性,这使得计算机系统不能重用部件和应用,不能方便地利用技术进步和应用进步,是复杂性的一个主要原因。60年代的IBM 360/370系统,采用了“计算机家族”、“计算机体系结构”、“动态寻址”、“虚拟化”几大发明,大大降低了低水平重复的工作量,从而降低了大型机的开发成本与使用成本。这项工作是计算机系统创新史上的一个里程碑。
历史上低成本计算的最明显的里程碑大概是个人计算机(PC,也称为微机)的发明。我们今天使用的微机中的核心技术,如交互式计算、图形界面、以太网、鼠标、面向对象程序设计(Smalltalk)等,在1972年的Alto微机中就已经出现了。可惜的是,由于种种原因,Alto微机技术未能立即流行,微机发展的轨迹反而是牛郎星、苹果机和IBM PC。这当中的历史经验教训值得我们仔细分析。
今天,我们正在创造面向2006-2020年市场的低成本计算系统。我们的思想不应局限于尼葛莱庞帝的“100美元计算机”概念及其组合低成本部件的思路,我们尤其需要直面技术挑战,探索RISC、RAID、IBM 360、PC这样的颠覆性发明,用创新技术降低成本。
未来的低成本系统并不必然是现有系统的一个简化版、廉价版。它们在一些方面(如支持新型使用模式),甚至会优于今天的“高成本”系统。比如,Alto微机在支持交互式计算、图形界面方面就要远远优于当时的大型机。
问题3:低成本计算的挑战和机遇是什么?
问题2当中提到的,面向2006-2020市场的技术挑战和创新机会是什么呢?
最大的挑战可能是我们对成本的研究很不够,远不如针对性能的研究。我们对计算机系统和应用的成本定义和构成、成本涉及什么限制条件,以及优化成本的原理和方法都还所知甚少。比如,计算机系统成本的定义已有出厂成本、购买价格、总拥有成本等,但这些指标并不全面,往往是商业性的指标,而非技术、科学的度量。我们也缺乏研究成本的实验手段,还没有形成系统的测试成本的基准集和度量。
因此,从学术上讲,一个重要的创新机会就是研究并归纳出有关成本的度量、基准、原理。在成本方面,我们还没有CPI、flop/s这样的度量,也没有SPEC、TPC、Linpack、HPC Challenge这样的基准测试程序。在提高性能的创新研究中,我们归纳并使用了局部性原理和并行性原理。在优化成本的过程中,除了摩尔定律,我们还能利用别的原理吗?就拿局部性原理来说,过去我们关注两种局部性,即数据/指令/地址的时间局部性和空间局部性。优化成本的目标需要新的局部性原理吗?
另一个挑战与机会就是研究部件成本与系统成本的关系。计算机的很多硬件部件的发展遵循摩尔定律,但软件和服务则不然。如何利用摩尔定律带来的部件进步,设计低成本的系统(以及应用和服务)?这不是一个简单的问题,需要洞察未来,living in the future,同时又要务实。1972年,当Xerox PARC创造Alto微机的时候,研究人员为了有效地支持交互计算和图形界面,发明了frame buffer技术。尽管这样做意味着将当时最贵的资源——内存——的90%用于显示,但Alto的设计者有两个判断:1. 摩尔定律将使未来的内存资源非常丰富,2. 显示是瓶颈。第一台Alto微机的成本大约是7.5-10万美元。今天的微机300美元就能买到。
今后20年,什么是低成本计算机系统和应用的瓶颈?什么是它们所需要的frame buffer技术?这些都是挑战和机会。
我个人认为,低成本计算机系统和应用的最大瓶颈是紧耦合(fitting),尤其是分布式系统中的紧耦合。
问题4:古老的虚拟化技术为什么又热起来了?它与低成本计算有什么关系?
虚拟化是1960-1970年代发明的重要技术。最近几年来,虚拟化技术研究又变得非常活跃,从网络虚拟化(如GENI)、计算机硬件虚拟化(如XEN)、语言虚拟机(如Java Virtual Machine)到分布式系统虚拟化(如网格技术、PlanetLab)。
第一波虚拟化技术的主要目标是为了有效地共享资源。这一波的虚拟化技术的主要目标则是摆脱紧耦合。产品是多个部件构成的系统。在早期的作坊式生产中,人们往往采用一种称为“紧耦合”(fitting)的方式构造部件。比如,在生产螺丝和螺母的过程中,人们往往首先制造出螺母,再对着螺母制造出刚好配得上的螺丝。
在更加先进的社会化大生产过程中,这种方式被标准零部件方式取代了。人们制定出螺丝和螺母的开放的技术标准,以及相关的允许误差范围。这样一来,多个厂商可以按照技术标准,并行地、独立地制造螺丝和螺母,摆脱了螺丝厂商和螺母厂商的相互依赖。各个厂商可以在标准允许的范围内独立地创新,从而鼓励竞争,打破了垄断,提高了生产效率和创新效率。
1926年,福特汽车公司的创始人亨利 福特(Henry Ford)将这种特征总结为一句流传至今的名言:“社会化大生产中不存在紧耦合”(There is no fitting in mass production)。
21世纪初的信息产业还没有达到1920年代汽车行业的这种松耦合状态。我们在开发一个硬件部件、驱动程序、应用程序时,往往必须考虑要与操作系统、处理器、以及别的应用程序耦合。
问题5:网格技术进展如何?网格与低成本计算有什么关系?
尽管批评不断,最近几年来,网格技术取得了一些实质性的进展。第一是企业内部生产性网格应用已经比较普遍,尤其是在金融行业。这类应用往往被企业看成是核心竞争力的一部分,很少披露。印度的Infosys公司,近两年组建了40多人的网格研究队伍,且仍在快速增长。
第二是美、日、欧政府已经将网格看成是提高国家创新能力的本质的下一代信息基础设施,在2006-2010年期间继续投入大量科研经费(美国6亿美元、欧盟约6.5亿欧元、日本约十亿美元[含高性能计算机研制])。
第三是网格与服务计算相融合,尽管带来了一些混乱和争议,但进展比较顺利。
第四是网格技术已经摆脱了中间件的定势,与应用和系统的交融加深。比如,各大计算机厂商提出了各自的面向网格的服务器技术,其中服务器虚拟化以及功用计算(utility computing)尤为突出。欧盟启动了XtreemOS项目,研究开发一个Linux层面的网格操作系统(2006-2009,总经费为1400万欧元)。中科院计算所加入了由法国INRIA牵头的国际团队承担该项目。一些应用软件厂商,从Maple到SAP,都在将自己的应用软件往网格平台上移植。
在两个方面,网格界进展比较迟缓。一是网格技术本身的科学研究进展不大,尤其是与网络科学、Web science相比更是如此。国外科学家批评,过去几年的网格研究开发太重眼前利益、太重工程开发,少研究,更少突破。另一类批评则是普及太慢。当前,国外网格研究的用户群主要是科学家,缺少Web 2.0的面向社会大众的活力。
21世纪初新兴的虚拟化技术和网格技术试图消除问题4论及的紧耦合和依赖,降低成本。网格技术集中于在分布式系统、网络计算系统中实现松耦合,同时要保持高性能、高效率、安全性。
结 论
由于计算机产业从公众认识到全民普及的历史性市场转折,惠及大众的低成本计算是21世纪计算机领域的一个主要研究方向。计算机系统和应用的成本瓶颈是紧耦合,虚拟化和网格试图消除紧耦合和依赖,是实现低成本计算的关键技术。计算机历史上的几个颠覆性创新,如RISC、RAID、IBM 360、PC,都大大降低了计算机系统的成本。计算所倡导的低成本计算,最需要研究的就是这样的颠覆性技术,用创新降低成本。与历史上低成本计算的工作相比,21世纪的低成本计算在研究问题、限制条件、优化原理等方面都为计算机这门工程学科提供了丰富的创新机会。
更多相关:
投影机
|
文章来源:IT专家网
|
|
|
|
|
|