网络技术发展

来源:百度文库 编辑:神马文学网 时间:2024/04/25 15:27:14
1. 网格定义   中国科学院计算所所长 李国杰院士的观点 ,他认为,网格实际上是继传统互联网、 Web 之后的第三个大浪潮,可以称之为第三代互联网。即传统互联网实现了计算机硬件的连通, Web 实现了网页的连通,而网格试图实现互联网上所有资源的全面连通,包括计算资源、存储资源、通信资源、软件资源、信息资源、知识资源等。
  IBM 公司的观点 认为,网格就是将互联网上的分布式计算资源整合在一起而构成的一种大型虚拟计算系统。它打破了原有资源集中的数据共享模式,实现了不同地域资源的协作与共享,从而达到充分利用全球 IT 资源的目的。
2. 网格研究现状     (1) 英国  
  英国政府已投资1亿英镑,用来研制“ 英国国家网格( UK National Grid ) ” 。
  (2) 美国  
   美国政府用于网格技术基础研究经费则已达 5 亿美元。美国军方正规划实施一个宏大的网格计划,叫做 “ 全球信息网格( Global Information Grid ) ” ,预计在 2020 年完成。作为这个计划的一部分,美国海军和海军陆战队已启动了一个耗资 160 亿美元历时 8 年的项目,包括系统的研制、建设、维护和升级。  (3) 公司  
  随着网格研究在学术界的加速,信息产业界的大公司也相继公布了与网格目标一致的研究开发计划。惠普、 IBM 、微软、 Sun 等公司最近取得共识,支持 XML 、 SOAP 、 UDDI 等万维网标准,从而更有利于开发新一代的网络应用,即万维网服务。其目的是将因特网上的资源和信息汇聚在一起,组合成企业和消费者所需要的服务。惠普推出了 eSpeak 万维网服务平台; IBM 用它的 WebSphere 平台和一系列中间件实现万维网服务;微软的路线是通过其 .Net 计划和 C #语言实现万维网服务 ;Sun 则通过 Open Network Environment ( Sun ONE )计划和 Java 平台来实现它。另外, IBM 最近宣布,将投资 40 亿美元,启动一个全公司的 “ 网格计算创新计划 ” ; Sun 则在 2000 年 9 月公布了其网格引擎软件。   (4) 我国  
  在国内,中国科学院计算技术研究所对网格技术的研究已较为深入。计算所的网格技术研究在尽量使用国际上已有的先进技术的同时,坚持自己的创新。有特色,才能参与国际标准的制订。计算所网格研究的最大特色是 “ 服务网格 ” 的思想,而国际上的网格研究目前主要面向科学计算。 附1   因特网之后是什么?——网格技术探讨   中国科学院计算技术研究所 徐志伟  正在兴起的网格技术   今天,因特网(Internet)和万维网(Web)已经普及。有观点认为,因特网和万维网技术已经接近成熟期,它们即将被更先进的技术取代。那么,“因特网后面是什么?万维网后面是什么?什么是信息技术的下一个大浪潮?”我们必须提出这些问题,思考这些问题,回答这些问题,才有希望参与和创造信息技术的下一个大浪潮。   先是一小批人,后来是越来越多的专家得出结论,这下一个大浪潮就是——网格(Grid)。   网格的理想,早在1960年就提出来了,但对网格的大规模研究只是近十年的事。今天,网格研究已取得很大进展,就连大众媒体上也出现了很多与网格相关的技术名词:元计算(metacomputing)、对等计算(peer-to-peer computing)、分布计算(distributed computing)、计算网格(computing grid)、信息网格(information grid)、知识网格(knowledge grid)、数据网格(data grid)、访问网格(access grid)、万维网服务(web service)等。   尽管网格技术还远不如因特网和万维网技术那么成熟,但已经在一些公司和研究所进入了试用或实用阶段。美国能源部的山地亚国家实验室最近宣布,它的“先进战略计算创新计划网格(ASCI Grid)”将投入生产性使用,主要用于核武器研究。IBM公司则部署了一个内部研究网格,以便于分散在美国、以色列、瑞士、日本等地的IBM研究人员共享计算资源。医药、化工、通信、电子、汽车等领域的一些大公司,如辉瑞(Pfizer)、爱立信(Ericsson)、日立(Hitachi)、宝马(BMW)、联合利华(Unilever)、葛兰素威康(Glaxo Wellcome)、史克必成(Smith-Kline)等,都已经开始构造和试用内部网格。   那么,什么是网格?   网格与我们熟知的因特网有哪些不同呢?中国科学院计算所所长李国杰院士认为,网格实际上是继传统因特网和Web之后的第三个大浪潮,可以称之为第三代因特网。简单地讲,传统因特网实现了计算机硬件的连通,Web实现了网页的连通,而网格试图实现互联网上所有资源的全面连通,包括计算资源、存储资源、通信资源、软件资源、信息资源、知识资源等。   伊安·福斯特,美国计算网格项目的领导人之一,曾在1998年主编过一本书,题为《网格:21世纪信息技术基础设施的蓝图》。他这样描述网格:“网格是构筑在互联网上的一组新兴技术,它将高速互联网、高性能计算机、大型数据库、传感器、远程设备等融为一体,为科技人员和普通百姓提供更多的资源、功能和交互性。互联网主要为人们提供电子邮件、网页浏览等通信功能,而网格的功能则更多更强,它能让人们透明地使用计算、存储等其他资源。”   我国的科学研究、国民经济和社会发展也已对网格技术提出了很大需求,只是使用了不同的术语。比如,在银行界叫“业务集中”,航空、船舶、汽车行业叫“广域虚拟设计环境”,资源环境领域叫“单一数据源”,电子商务和电子政务中则称为“资源共享”与“协同工作”。这些业务都感到目前的互联网技术已不够用,它们需要新的技术,那就是网格技术。   网格研究现状   目前,网格的研究主要在美国和欧洲。英国政府已投资1亿英镑,用来研制“英国国家网格(UK National Grid)”。美国政府用于网格技术基础研究经费则已达5亿美元。美国军方正规划实施一个宏大的网格计划,叫做“全球信息网格(Global Information Grid)”,预计在2020年完成。作为这个计划的一部分,美国海军和海军陆战队已启动了一个耗资160亿美元历时8年的项目,包括系统的研制、建设、维护和升级。   随着网格研究在学术界的加速,信息产业界的大公司也相继公布了与网格目标一致的研究开发计划。惠普、IBM、微软、Sun等公司最近取得共识,支持XML、SOAP、UDDI等万维网标准,从而更有利于开发新一代的网络应用,即万维网服务。其目的是将因特网上的资源和信息汇聚在一起,组合成企业和消费者所需要的服务。惠普推出了eSpeak万维网服务平台;IBM用它的WebSphere平台和一系列中间件实现万维网服务;微软的路线是通过其.Net计划和C#语言实现万维网服务;Sun则通过Open Network Environment(Sun ONE)计划和Java平台来实现它。另外,IBM最近宣布,将投资40亿美元,启动一个全公司的“网格计算创新计划”;Sun则在2000年9月公布了其网格引擎软件。   国际上的网格研究主要采用开放源码、公开合作的模式。全球网格论坛(Global Grid Forum)是目前主要的合作组织,感兴趣的读者可以从其网址www.gridforum.org找到关于网格研究现状的信息。目前比较有影响的研究计划有Globus、Legion、Information Power Grid、EuroGrid、Distributed Terascale Facility等。   在国内,中国科学院计算技术研究所对网格技术的研究已较为深入。计算所的网格技术研究在尽量使用国际上已有的先进技术的同时,坚持自己的创新。有特色,才能参与国际标准的制订。计算所网格研究的最大特色是“服务网格”的思想,而国际上的网格研究目前主要面向科学计算。(1.无线局域网(WLAN)   (1) 无线局域网简介 内容扩展    无线局域网作为一种灵活的数据通信系统,是固定局域网的有效的延伸和补充。 WLAN 利用电磁波在空气中发送和接受数据,而无需线缆介质。 WLAN 的数据传输速率现在已经能够达到 11Mb/s ,传输距离可远至 20km 以上,使网上的计算机具有可移动性,能快速方便地解决使用有线方式不易实现的网络连通问题。 WLAN 技术采用 IEEE802.11b 标准作为通用标准。   (2) 无线局域网在网络教育中的应用  内容扩展    无线局域网由于其灵活、方便、快捷的组网方式,特别适合校园网络。在学校,使用无线网络产品可以实现建筑群网络连接、宽带互连网络接入以及移动获取网络服务等功能。利用无线局域网将校园内多个地点的计算机与中心计算机设备实现快速的连接,中心设备与互联网络服务提供商连接,这样可为整个校园提供价格合理的宽带互连网络接入,可以实现学生在宿舍接入互连网络,并可为学生提供远程学习的机会。    2.蓝牙技术(Bluetooth)   (1)蓝牙技术简介  内容扩展
      所谓蓝牙( Bluetooth )技术,实际上是一种短距离无线通信技术,利用 “ 蓝牙 ” 技术,能够有效地简化掌上电脑、笔记本电脑和移动电话手机等移动通信终端设备之间的通信,也能够成功地简化以上这些设备与 Internet 之间的通信,从而使这些现代通信设备与因特网之间的数据传输变得更加迅速高效,为无线通信拓宽道路。说得通俗一点,就是蓝牙技术使得现代一些轻易携带的移动通信设备和电脑设备,不必借助电缆就能联网,并且能够实现无线上因特网,其实际应用范围还可以拓展到各种家电产品、消费电子产品和汽车等信息家电,组成一个巨大的无线通信网络 。    (2) 蓝牙技术在网络教育中的应用  内容扩展     在网络教育应用中,如果在无线局域网中采用基于蓝牙技术的网络产品,就增加了网络教学的可移动性。利用蓝牙技术还可以构建将各种媒体信息工具综合起来的蓝牙教室。对于学习者个人来说,利用蓝牙技术可以方便地搭建一个实时、快速、交互性强的多媒体学习空间,这样就可以把用户身边的设备都连接起来,形成一个“个人微型网”,使社会的每个成员,每一件智能化设备都能随时随地连接在网络上,学习者就可以在互联网上多途径地学习丰富的教育资源,而且使学习者与教学资源、教师与学生之间的交互性也得到了提高,交互过程中的信息表征方式也比较丰富,将会构成进行终身学习的理想环境 。  按照Ian Foster 和Globus 项目组的观点,网格应用领域目前主要有四类:分布式超级计算、分布式仪器系统、数据密集型计算和远程沉浸。下面主要介绍这些应用领域中有代表性的项目,另外,也介绍网格信息集成应用。 1 分布式超级计算 分布式超级计算(Distributed Supercomputing)是指将分布在不同地点的超级计算机用高速网络连接起来,并用网格中间件软件“粘合”起来,形成比单台超级计算机强大得多的计算平台。事实上,网格的最初设计目标主要就是要满足更大规模的计算需求,Globus 正是从这类应用起家的。本节主要介绍两个典型的分布式超级计算应用:第一个是军事仿真项目SF Express,它将大型军事仿真任务分解到分布式环境中运行,从而在规模上创下了该领域的世界纪录;第二个应用称作数字相对论,它利用网格求解爱因斯坦相对论方程并模拟出天体的运动规律。这个应用很有代表性,在2001 年超级计算会议(Supercomputing 2001)上获得了Gordon Bell 奖。 1.1 军事仿真 SF Express 全称为综合军力表示(Synthetic Forces Express),始于1996 年,是由美国国防部下属的国防先进研究计划处DARPA(Defense Advanced Research ProjectsAgency)资助、由加利福尼亚理工学院负责完成的,其目标是进行规模尽可能大的作战模拟。DARPA 一直对大规模的军事模拟感兴趣,因为它对于军事指挥、训练、演习和试验都有先验指导意义。1996 年11 月,SF Express 使用拥有1024 个处理器的Intel Paragon 并行机,模拟了10,000 个战斗单位。1997 年,SF Express 扩展到横跨7 个时区的6 台超级计算机,共使用了1,094 个处理器,模拟了50,000 年战斗单位。这时,SF Express 已经初步具备网格特征,但它采用手工配置的方法管理资源,无法适应网格的变化,不能动态容错,在演示过程中就暴露出许多问题。 之后,SF Express 加强了与Globus 的融合。在场景分发、资源配置、资源管理、信息服务、日志服务、监视和容错等方面都利用了Globus 的动态管理功能。1998 年3月16 日,SF Express 集合13 台并行计算机之力,使用了1,386 个处理器,终于成功模拟了100,298 个战斗实体,实现了历史上最大规模的战争模拟。此时的SF Express已经能够适应网格的动态变化,能够自动选择资源,自动提交可执行代码和运行数据,自动调整运行状态,自动屏蔽网格中的出错情况。从SF Express 走过的历程看,由单台并行计算机转向网格环境,将能够解决的问题规模扩大了一个数量级。而它与Globus 的融合程度,决定了它对网格环境的适应能力。这对后来的大规模网格应用无疑是有借鉴意义的。 1.2 数字相对论 数字相对论的应用是基于Cactus(仙人掌)平台的。为什么不是直接基于Globus的呢?因为Globus 是网格基础设施,其作用相当于网格操作系统,担负管理网格资源的重任,但它离具体应用还比较远。直接基于Globus 编写应用程序,就像直接使用底层API 编写Windows 程序一样麻烦。Cactus 则弥补了这个缺陷,成为连接Globus 和应用程序的桥梁。有了Cactus 的支持,编写应用程序就不再需要考虑与网格相关的问题,甚至以前在单台并行机上编写的应用程序可以直接拿来使用,而且有许多针对特定问题的现成解决方案可以直接调用。 Cactus 项目是在德国Max Planck 引力物理研究所(即阿尔伯特.爱因斯坦研究所)的带领下,由德国和美国多个研究机构共同完成的。它经过多年积累,虽系统庞大但应用界面简单,因而受到普遍关注。 对黑洞的模拟是Cactus 项目的得意之作。这一个典型的网格问题:一方面,它需要很大的计算能力。例如,要模拟一大一小两个黑洞的碰撞,其计算量不是单台超级计算机所能完成的。为此,必须借助网格,把计算任务分解到多台超级计算机上;另一方面,模拟黑洞是一个系统工程,需要天文学家、物理学家、数学家和计算机专家的共同参与,而网格平台能够使分布在各地的、不同专业背景的研究人员进行紧密协作。 黑洞模拟项目在Supercomputing 2001 国际会议上作了现场演示。该系统一共使用了四台并行计算机,三台位于美国伊利诺斯州Champaign-Urbana 的国家超级计算应用中心,分别是128、128 和256 个CPU 的SGI Origin 2000 机,另一台是具有1024 个CPU的IBM Power-SP 机,位于加州的圣地亚哥超级计算中心。两地之间使用OC-12 专线连接。该项目采用了许多措施来优化整体性能。实验结果表明,优化前,应用程序的整体运行效率只有15%,而优化后的整体效率达到了63%。试验中,还尝试过只使用一台SGIOrigin 2000(120 个CPU)和IBM Power-SP(1020 个CPU),曾创下高达88%的使用效率,这无疑非常惊人。 1.3 其他计算网格 先进计算基础设施同盟PACI ( Partnerships for Advanced ComputationalInfrastructure)是一个从1997 年就开始建设的网格平台,它针对高端计算需求,主要为美国学术机构服务。美国自然科学基金会NSF 对这个项目寄予厚望,期望它能演变成一个连接所有高性能计算系统的“国家网格”,甚至把它与若干前NSF 资助的NSFnet相提并论(NSFnet 可以说是现代Internet 的基础)。基于PACI,NSF 从组织形式上建立了两个研究同盟:国家超级计算应用中心NCSA 领导的国家计算科学联盟NCSA(National Computational Science Alliance )和圣地亚哥超级计算机中心SDSC 领导的国家先进计算基础设施同盟NPACI ( National Partnership for Advanced Computational Infrastructure )。美国宇航局NASA 的信息动力网格IPG(Information Power Grid)基于Globus,并加入了NCSA 和NPACI 同盟。其目的是集成分布的计算能力和存储能力,提供一个无缝的计算环境。IPG 所集成的资源主要来自于各地的NASA 中心。DAS 和DAS-2 是荷兰的集群网格项目,由先进计算和成像学校ASCI(Advanced Schoolfor Computing and Imaging )带领五所荷兰大学开发,是一个由同构集群构成的分布式计算环境。DAS 包括4 台集群计算机,分布于4 所大学,共有200 个结点。DAS-2将包含5 台SMP 集群。 2 分布式仪器系统 分布式仪器系统(Distributed Instrumentation System)是指用网格管理分布在各地的贵重仪器系统,提供远程访问仪器设备的手段,提高仪器的利用率,大大方便用户的使用。在网格出现之前,人们就试图通过网络访问一些仪器设备或仪器数据,但当时的软硬件环境都不成熟,只能实现一些低要求应用罢了,而网格将分布式仪器系统变成了一个非常易于管理和有弹性的系统。 2.1 远程医疗 远程医疗经历了一个从简单到复杂、从低质量到高质量、从单一到综合的演化过程。在这个过程中,网格起到了综合各种技术、揉合各种平台、屏蔽各种差异的作用。网格在远程医疗中将扮演这样的角色:管理各种设备,动态调度资源,提供资源预留服务和自适应网络的拥塞,提供海量数据的实时存贮和检索服务,在设备和远程存贮系统之间提供传输服务,对动态可视化和分析提供支持,支持对远程仪器的控制,促成专业人员之间的协作。有了网格的支持,远程医疗系统就可以建立在宽带Internet之上,而不必租用专用线路,各种资源的利用率以及协作水平也能大幅提高。近期,英国剑桥大学与西英格兰癌症网WACN(West Anglia Cancer Network)正在联合进行基于网格的远程医疗试验,对160 万人口提供癌症医疗服务。该系统支持多方视频交流,以及放射图像的实时传输、存贮和检索。特别地,该系统将远程接入医疗模拟计算应用程序,并对病人记录进行数据挖掘以辅助临床决策。有了该系统的支持,病人就可以到最近的癌症治疗分部,通过网络接受癌症专家的诊断和治疗。 2.2 远程访问贵重仪器 XPort 项目由美国能源部DOE(Depart of Energy)下一代因特网NGI(Next Generation Internet)试验床计划资助,由印第安那州大学、Argonne 国家实验室ANL和劳伦斯市伯克利国家实验室LBL 共同完成,其目标是用让远程使用科学仪器达到前所未有的方便程度,拿他们的话来说,就是“比到那儿用还方便”。XPort 使用的科学仪器是几个高亮度X 射线结晶学设备,包括ANL 的先进光子源APS(Advanced Photon Source)和LBL 的先进光源ALS(Advanced Light Source),以及印第安那州大学的分子结构中心MSC(Molecular Structure Center)。晶体在X 射线的照射下产生衍射,其图像可以用来确定晶体结晶单元的尺寸和原子的位置。对于大型的分子,衍射图案非常紧密,图像需要极高的分辨率才能被辨识。为此,像先进光源ALS和先进光子源APS 这样的高亮度X 射线源是必不可少的。 XPort 平台基于NGI 和Globus,能提供远程仪器使用规划、仪器操作、数据获取、筛选和分析等功能,它将大大简化巨型分子晶体结构的设计和实施。为此,XPort 需要结合先进的网络技术、中间件服务和远程仪器操控技术。XPort 所涉及的技术问题主要包括:高速数据的采集、筛选、存贮、可视化和实时仪器控制等。虽然像APS、ALS 和MSC 这些设施非常昂贵,具有很大的科学价值,然而在没有Xort之前,使用这些设施是非常不方便的。通常,一个科技工作者要想用上这种设备,需要预约排队好几个月,然后千里迢迢赶过去,采集实验数据又得花上好些天(同时也造成仪器的利用率低下),最后分析这些数据还得花很长的时间。有了XPort 之后,科技工作者们就可以远在千里之外提交任务,交互式控制任务的执行,接收和分析初步的运行结果以确定任务的正确性,存贮和管理产生的数据,而且还可以与其他科技工作者即时共享其研究结果,探讨新的解决方法。 可见,XPort 带来的好处是明显的,一方面它大大缩短了研究时间,提高了设备的利用率,使普通的科技工作者能够用上先进设备;另一方面它提供了一个协同研究的平台,使研究能够以团队的方式开展,为交叉学科研究创造了条件。应该说,正是NGI、Globus、Cactus、XPort 这样的研究项目,为未来的“大科学”研究奠定了坚实的基础。 3 数据密集型计算 并行计算技术往往是由一些计算密集型应用推动着的,特别是一些带有重大挑战(Grand Challenge)性质的应用,它们大大促进了对高性能并行体系结构、编程环境、大规模可视化等领域的研究。但是,相比之下,数据密集型计算(Data IntensiveComputing)的应用好像要比计算密集型应用多得多。它对应的数据网格更侧重于数据的存贮、传输和处理,而计算网格则更侧重于计算能力的提高,所以它们的侧重点和实现技术是不同的。本节着重介绍欧洲原子能研究机构CERN 所开展的数据网格DataGrid 项。 3.1 欧洲DataGrid 欧洲原子能研究机构CERN 成立于1954 年,是世界最大的粒子物理研究中心。CERN是欧洲第一个联合研究机构,由20 个成员国提供资金,其卓越成绩已经成为国际合作的典范。CERN 主要研究物质是怎样构成的,以及是什么把它们结合起来的。CERN 建有世界上最大的正负电子对撞机LEP(Large Electron-Positron collider)和超级质子同步加速器SPS(Super Proton Synchrotron)。来自全世界80 多个国家、500 多所大学及研究机构的6500 多名科学家(占全球粒子物理学家的一半)在CERN 进行各种各样的实验。 目前CERN 有1800 名物理学家正在为下一代加速装置作实验准备。该装置称为大型强子对撞机LHC(Large Hadron Collider),将于2005 年投入使用,这将是人类历史上最强大的粒子加速器。未来在LHC 上进行的实验的参加单位、人数及产生的数据量也是前所未有的。做个类比,LHC 将要产生的数据量,将是目前CERN 所有设备产生的数据量的总和高出一到两个数量级。LHC 的出现将给计算科技带来全新的挑战,为此,需要有空前的计算能力来处理这些数据,空前的人类智慧来分析这些数据,以及空前的存贮能力来保存这些数据。解决这些问题的基本思想是把海量数据分散到全球的计算机上进行处理,并由全球的物理学家共同分析之。在这个背景下,欧洲的数据网格DataGrid 应运而生了,它成为实现这个“大科学”目标的基础平台。 DataGrid 对海量数据的分解过程是这样的:粒子检测器产生的原始数据具有PB/s量级,经过在线系统过滤后,并经具有20 万亿次处理能力的离线处理场的处理,最终以大约100MB/s 的速率永久写入磁带,这个100MB/s 就是DataGrid 真正需要处理的数据速率。CERN 计算机中心负责将这些数据通过高速网络分配给欧洲、北美、日本等国的区域中心,后者再将任务作进一步分解,到物理学家的桌面时,数据量只有1MB/s,已经可以很方便地进行处理了。DataGrid 除了用于LHC 之外,还可以广泛应用于其他研究领域,例如: (1) 生物和医学 虽然人类基因组计划在媒体的曝光率很高,相对于人的细胞里每个DNA 所含的35亿对基因而言,科学家们已经完成的基因分析工作只是极少的一部分。要全部标注这些基因需要很大的数据存贮及处理能力。 DataGrid 将为该类计划提供新的高性能数据库支持、代码管理、数据挖掘的新方法、交互式图形界面、新的实验手段以及与国际同行共享研究成果的手段。数据网格在生物、医学领域的另一个应用是处理医学图像,它在实时图像获取、处理、存贮、共享、检索等多个方面具有独到的优势。 (2) 地球观察 欧洲空间局管理了几个地球观察卫星。这些卫星每天会下传大约100GB 的图像,新卫星ENVISAT 发射之后,数据量又增大了5 倍。为此,地面站建立了专用的设施来处理这些数据,目前已经保存了上千万亿字节的数据。DataGrid 将使处理卫星数据的能力大大提高,它不仅将海量数据分散到整个欧洲范围内保存,提供更高效的访问方法,还提供了更强的处理能力。在此基础上,对卫星数据的研究水平将大大提高,例如,目前已经利用大气中臭氧层的数据建立了一个专用试验床。 3.2 其他数据网格 网格物理网络GriPhyN (Grid Physics Network)是一个由实验物理学家与IT 研究人员共同建立的数据网格,其目标是达到千万亿字节规模的数据存储和处理能力。GriPhyN 的核心技术平台是PVDG(Petascale Virtual Data Grids),它能向全球的科学家提供一个面向数据处理的计算平台。GriPhyN 先期主要开展四个应用项目的研究,包括:CMS 和ATLAS,这两个项目是在CERN 的大型强子对撞机上进行的,其目的是探索物质的起源及寻找超微小物质;还有LIGO(Laser Interferometer Gravitational-wave Observatory)项目,用于发现脉冲星的引力波等;以及SDSS(Sloan Digital Sky Survey) ,将天空数字化后进行系统的、自动的研究。粒子物理数据网格PPDG(Particle Physics Data Grid)研究始于1999 年, 其目标是建立一个用于高能物理和原子能实验的数据网格环境。PPDG 目前进行的项目叫做SciDAC (Particle Physics Data Grid Collaboratory Pilot),它是一个持续三年的研究计划。它不仅瞄准一些中短期目标,甚至可用于2006 年才开始的长期物理试验计划。iVDGL 是一个全球性的数据网格,连接美国、欧洲、亚洲和南美,主要用于物理学和天文学。 DataTAG 是一个大规模的洲际数据网格试验床,它与上述三个网格项目有密切关系。一方面,它提供瑞士日内瓦到美国芝加哥之间的高性能网络连接(2.5Gbps 专用线路),上述三个网格都会用到这个线路,因为它是美国连接欧洲的理想选择;另一方面,这个项目集中精力研究数据网格之间的互操作性,包括DataGrid、CrossGrid 和上述三个网格。 4 远程沉浸 远程沉浸(Tele-immersion)这个术语是在1996 年10 月,由伊利诺州大学芝加哥分校的电子可视化实验室EVL (Electronic Visualization Laboratory)最早提出来的。远程沉浸是一种特殊的网络化虚拟现实环境。这个环境可以是对现实或历史的逼真反映,可以是对高性能计算结果或数据库的可视化,也可以是个纯粹虚构的空间。“沉浸”的意思是人可以完全融入其中:各地的参与者通过网络聚在同一个虚拟空间里,既可以随意漫游,又可以相互沟通,还可以与虚拟环境交互,使之发生改变。打个比方,远程沉浸是一部观众可以进入其中的科幻电影。远程沉浸可以广泛应用于交互式科学可视化、教育、训练、艺术、娱乐、工业设计、信息可视化等许多领域。 从网格的角度来看,远程沉浸算得上是个“另类”,它与分布式超级计算、分布式仪器系统和数据密集型计算的性质有很大的不同:一方面,虽然它能把高性能计算的结果用一种全新的方式可视化出来,但它本身对高性能计算的要求并不高;另一方面,它并没有集网络上的大量资源于一身。那么,远程沉浸问题到底还算不算网格问题呢?让我们回到网格的定义上来:动态多机构虚拟组织中的资源共享和协同问题解决。显然,参与远程沉浸应用的各方是来自不同的虚拟组织的,他们所要共享的资源就是这个共同的虚拟环境,而共享的目的就是要协同解决问题,因此,远程沉浸还是一个典型的网格问题,只不过它所共享的是一个集中的虚拟环境,而主要不是共享计算能力或数据存储能力罢了。更进一步,网格是未来Internet 的发展方向,也就是说,网格会成为未来的网络基础设施,几乎所有的应用都将基于网格,因而极富创新精神、有广阔发展空间的远程沉浸应用,也会毫无例外地依赖于网格的支持。另外,远程沉浸以崭新的手段极大地促进了网络化协作,这也正是网格的精髓所在。 除了依赖网格之外,远程沉浸在很大程度上还依赖一种虚拟现实设备,它的名字叫CAVE 自动虚拟环境(CAVE Automatic Virtual Environment)。CAVE 是一个10×10×9英尺的小房间,它的四面和顶上使用高清晰背投产生一个360 度的三维立体环境,在该场景中有一个与该人对应的卡通角色(avatar),它代表真实的人在三维空间活动。人置身其中,头戴一副LCD 快门眼镜,两臂绑有电磁跟踪系统,再配以三维环境声音,角色的位置、方向以及举手投足都与真人相同,会让人产生非常逼真的临场感。远程沉浸使分布在各地的使用者能够在相同的虚拟空间协同工作,就像是在同一个房间一样,甚至可以将虚拟环境扩展到全球范围内,创造出“比亲自到那儿还要好”的环境。更重要的是,它将“人/机交互”模式扩展成为“人/机/人协作”模式,不仅提供协同环境,还将对数据库的实时访问、数据挖掘、高性能计算等集成了进来,为科技工作者提供了一种崭新的协同研究模式。 过去几年里,EVL 与十几家合作伙伴一起,开发了一些具有远程沉浸特征的虚拟现实应用,例如: (1) 虚拟历史博物馆 共享的爱奥尼亚(Shared Miletus)项目让2000 年前的希腊爱奥尼亚古城复活,从网络上进入的参观者不仅可以在虚拟的城池中畅游,还可以与从其他地方进入的网络参观者在同一个虚拟空间中互相交流。为了方便浏览,既可以由真人担任虚拟环境中的向导,也可以指定一个虚拟的智能向导,“他/她”能够带领大家到不同地点参观,会说多国语言,还可以根据听众的要求将解说简化或细化。除了希腊古城外,中国敦煌莫高窟价值连城的壁画也于1998 年被数字化成为远程沉浸环境。 (2) 协同学习环境 备受关注的NICE——叙事式沉浸的建设者及协同环境(Narrative Immersive Constructionist / Collaborative Environments)——是伊利诺州大学芝加哥分校电子可视化实验室EVL 和交互计算环境实验室CEL 合作推出的。NICE 是一个探索性质的协同学习环境,专为6 至10 岁孩子设计。孩子们进入CAVE 虚拟现实环境中,戴着特制的眼镜,手中拿着一个特制的小棒用于交互操作,每一个孩子都有一个角色,来自不同地方的孩子可以在这个虚拟的花园中打招呼、交谈、互相学习。他们既可以将鲜花或蔬菜拿在手上观察,也可以将自己缩小,“深入”观察植物的根系;他们既可以除去杂草并将它扔到肥料堆,又可以顺手摘下天边飘过的雨云给花儿浇灌,或者将天边的太阳拉过来让花朵享受阳光,等等。除此之外,这些植物本身也会有一些反馈信息,例如,当给花儿浇水太多时,花儿会撑起一把小伞,让孩子们得到一个直接的反馈——过多浇水会让花儿受不了。NICE 有趣又有益,孩子们不仅非常喜欢在里边玩耍,还可以轻松地了解原本很复杂的生态关系。 (3) 数据可视化协同分析环境 在远程沉浸环境中,人在虚拟环境中以角色代表,这个角色比人在真实环境中的能力要强得多:它们能够站在分子链可视化图像的某个环节前进行讨论;也能钻进设计好的汽车模型里,体验汽车发生剧烈碰撞里的感受;还能站在云层的顶端,观察风暴的形成。他们既可以让自身像星系一样大,以便纵览宇宙风云;也可以让自己像虫子一样小,以便钻进一个做跌落试验的物品中,并与物品一起跌落,找到防止物品在跌落过程中损坏的办法。更棒的是,人与虚拟环境是交互的,可以通过改变超级计算的参数等手段,动态改变虚拟环境的形成方式。 CAVE6D 就是这样一种专门为科技人员准备的数据可视化协同分析环境,它允许多个用户在虚拟的环境里对超级计算数据进行可视化并与数据进行交互。参与者们不仅以角色的方式进入三维可视化场景中自由漫游,还可以改变可视化参数,如循环矢量、温度、风的速度、鱼群的分布等。CAVE6D 不仅提供了交互式的可视化手段,还提供了让各地参与者协同交流和研究的手段。 5 信息集成 早在网格兴起之前,人们已经意识到了信息集成的重要性,许多公司推出了相应产品。如微软的.NET让所有的计算机、相关设备和服务商协同工作,使信息能够在指定的时间以指定的方式传送到指定的位置;IBM的Web Sphere可以使分布在全球的采购商、供应商和交易市场共享其行业信息,实现最低成本的交易;Sun基于Java推出了相应的J2EE平台规范,实现跨国企业的跨平台、跨地域管理;Oracle推出的Oracle Portal,使信息能够方便地从数据库和用户之间流动。 网格最早以集成异构计算平台的身份出现,接着跨入分布处理海量数据的领域,自然而然地,网格将在信息集成领域一展身手。所谓的信息网格,就是要建立一个体系结构并开发相应的中间件,向用户提供“信息在你指尖”(Information at your fingertip)式的服务。信息网格研究的中心问题有:如何描述信息、存储信息、发布信息和查找信息;如何充分利用现有网络技术,如HTTP、XML、WSDL、DDI、SOAP等,构成一个完整的服务链;信息的语义表示,即如何赋予信息以内涵,以及如何避免信息的二义性;如何对信息加密,防止信息泄露,等等。 本节以美国军方的全球信息网格GIG(Global Information Grid)作为例子。在GIG提出之前,美国国防部已有其指挥信息系统C4ISR。C4ISR全称为“指挥、控制、通信、计算机、智能、监督和侦察系统(command, control, communications, computers,intelligence, surveillance, and reconnaissance)”。这套系统为增强美军战斗力发挥了巨大作用,例如,美国在21世纪初的阿富汗战争中的发起攻击准备时间比90年代初海湾战争时缩短了一个数量级。但是,即使如此,这套系统还是存在很大的不足。例如,战斗机飞行员的攻击任务是在起飞之前数小时制定的,无法在攻击过程中随机应变。美国国防部设想,依靠GIG的帮助,到2010年,卫星、预警机、雷达及情报人员等采集到的所有相关信息经过处理后,将实时反馈到驾驶舱,不仅让飞行员对它的周遭情况了如指掌,还让机群和地面部队、海面舰船的配合天衣无缝。也正是依靠这套系统,可以将误伤友军或平民目标的情形减少到最低限度。 为了实现这个目标,需要集成各种信息,包括侦察、智能、战斗信息、后勤、运输、医疗等,需要通过实时计算和通信完成信息的收集、处理、存储、分发、管理和安全保障等功能。GIG的目标是综合系统中所有的信息和能力,提供单一的、集成的、安全的、端到端的信息系统,允许用户访问共享数据和应用程序,而不管他们身在何处。GIG的设想最早是以备忘录形式,由美国国防部首席信息办公室CIO(Chief Information Office)制定,时间是1999年9月22日。备忘录描述GIG将使用专用或租用通信线路、服务、软件、数据和安全机制等,支持国防部、国家安全部和情报部门在平时和战时的任务和功能(战略、日常运行、战术和业务等),向所有操作地点(基地、岗位、营地、站点、设施、移动平台、前线等)提供信息服务,并向盟军、非国防部用户等提供使用界面。 由于GIG要同时支持战争、战斗和日常业务,要同时支持现有平台、未来平台乃至正在发展的平台,因此要想建立一个完善的GIG体系结构是非常困难的事情。为了将设计层次化,GIG从两个角度对这个体系结构进行剖分,一种是把它分成三种互相关联的子体系:联合运作体系(Joint Operational Architecture)、战斗支持和业务区域体系(Combat Support and Business Area Architectures)以及通信和计算系统体系(Communications and Computing System Architecture);另一种是面向任务划分为逻辑关联的三种体系透视图:运作视图、系统视图和技术视图。GIG是一个长远目标,估计美国国防部将为之投入数百亿美元,耗时将长达十年以上。从这一点,也侧面反映出信息集成系统的重要性。 作者介绍 刘鹏,清华大学计算机系 高性能所网格研究组博士研究生,IEEE、