数据中心IT前沿技术

来源:百度文库 编辑:神马文学网 时间:2024/04/27 18:33:49
冯金波:   
    企业级的数据中心,特别是大型数据中心非常需要软环境的支持,政府的支持,提供软的环境,可以打造企业级数据中心。
    作为一个大型的数据中心,除了软环境,还有硬的环境。现在的大型数据中心面临的很大的挑战就是能源问题。现在的数据中心规模越来越大,对能源的要求越来越高。我介绍一下IBM新的方案--“绿色创新”工程,在环保节能课题下,我们在数据中心上的应用。
    在座嘉宾不是太了解IBM数据中心的业务。大家更多的知道IBM生产计算机,大机、服务器,甚至笔记本电脑。但是IBM的服务产品,除了实实在在的产品以外,还有很大的一块叫做服务产品,包括数据中心建设,我们叫做数据中心及智能化建设部,营业额是非常高的。在中国是十年前开始的。IBM在中国主要开展,数据中心里面包含这样几个内容。从下面看,我们的基础产品和数据中心有关系的,一个叫FTS光线传输系统,还有ACS系统。有数据中心、ITC互联网中心、企业总控中心,我们叫做监控中心,主要在大型数据中心的后面,比如说银行,它作为一个总行,或者总的数据中心,对各个地区业务进行监控的地方。还有交易中心。另外比较大的一块是Building,主要集中与职能化大厦里面,另外叫Eafctosy,主要作为工厂信息化建设、机场信息化建设这样的运营商。
    作为数据中心是作为一个产品,包括数据中心咨询设计,我们给客户单独提供数据中心咨询设计。另外,数据中心的基础设施的评估、评测,主要是针对已经有了数据中心,但是需要更新,或者说数据中心现有存在的问题,我们可以提供这方面的评测工作。
    数据中心的集成服务,包括了咨询、设计、施工,包括供货、验收。
    企业总控中心相对来讲比较简单,主要作为一个监控的系统,包括大屏、装修,技术含量比数据中心的小一点。但是客户现在要求越来越高,不简单的能够看看大屏。企业总控中心往往代表了一个企业的形象,这个企业发展到一定地步了,要有一个东西展示我的产品,展示公司的文化,作为一个平台展示公司的实力。客户往往需要一个创新的东西,不是简单装上一个大屏幕,IBM从国外带来一些新技术。
    智能化建筑主要的工作在弱电上,大楼如果达到智能化,主要体现在通讯智能化、办公自动智能化和楼宇智能化。IBM主要的精力放在节能上。大楼集中在上海和北京,中国有一个特点就是建筑扎堆,扎堆以后的问题就是能源问题,楼宇对能源部分的压力非常大。在智能化大厦上,客户成本要求降低,另外从大环境、政府来讲需要节能。
    厂区信息化,我们叫做电子工厂,主要包括厂区计算机系统、通讯系统、控制系统。还有传统ACS布线系统,这是一个传统,在中国推广有7、8年以上,这个产品有优势,不仅在数据中心和智能化建筑,基本上各个领域都会用到。
    以上主要介绍IBM数据中心的业务状况,确实IBM有这些业务,业务符合今天的课题。我们现在发现数据中心有非常大的挑战,就是在能源方面,不光在中国,在国外是非常热门的话题。大型数据中心的后面,电力和冷却硬件基础设施的能耗,这个挑战在今后的十年还会不断地增加,为什么?第一,计算机需求的提高。在过去十年中,我们售出的服务器提高了6倍,存储系统提高了69倍,数据中心每平方尺能耗一般是办公建筑的10到30倍,非常集中。另外,成本的不断变化,过去5年数据中心使用的能源翻了一番。
    从2005年到2006年,美国商用电力成本提高了10%。数据中心的生命周期的失调,80%的数据中心建于2001年之前,面临着寿命周期的极限。现在有29%的客户意识到数据中心的功能对服务器采购有影响。
    现在很多IT客户还没有意识到计算机的要求不仅仅局限于运行速度,几年前我们不断要求运行速度增加,我们不断问信息速度到了多少多少,但是现在速度不是一个问题,在IT行业里最大的问题是由于运算速度的增加,密度的增加,因为集成化了,它的能耗还有散热问题,在那么一点点的地方,比如IBM刀片服务器,在IPU的薄薄地方,集成化这么高的情况,它的功率达到1000挖到2000瓦,以前一个机架全部把设备放完,总功率是4000万,现在稍微放一个刀片服务器中心就是7000瓦,但是只有7个U,一个机架有30-40U。一个机架要放满要多少?可能达到30千瓦,30千瓦怎么冷却?这是我们面临的一个非常大的挑战的问题。为什么?我们没有办法用传统空调去冷却它。传统空调每平方米只能冷却4000瓦。如果冷却30千瓦,机房的通风量会把地板吹起来,怎么办?就要有新的技术。
    IBM明天在北京有一个新的发布会,是整个全球发布会的一部分,明天巡回到北京,发布一个“绿色创新”工程,就是在数据中心和智能化建筑上采取全面的节能解决方案,IBM投资10亿做这个事情。IBM本身也是数据中心的用户,大批的数据中心在世界各地。IBM内部也要采取节能和环保措施,要研究措施、研究产品给我们的客户,因为我们是数据中心的建设提供商。首先,数据中心能源使用情况有着很大的影响,在未来这个影响会继续增加。现在已经有现实的解决方案可以降低数据中心的能源量。
    要解决这个挑战,必须进行协调,要和IT技术厂商,包括能源供应商、IT设备供应商,比如电力系统供应商、基础设施供应商、政府。我们的“绿色创新”工程也需要和当地政府协调、配合。
    要有追求环保、高瞻远瞩的思想,我们自己要有节能环保的思想。很多专家有建议要环保、节能,以前碰到的客户说现在没有这样的想法,我有的是电,机房面积也够我十年用的。"绿色创新”工程需要厂家、政府、客户有高瞻远瞩的思想。为什么?不单单是为你省钱,确实可以省很多钱,省在哪里?一个是投资,另外在运行费用上。但这还不是最重要的,重要的是随着应用的发展,不要认为机房可以用十年,现在业务发展真的很快,可能两年以后会发现机房面积不够。为什么不够?因为供电当时设计不够,现在能耗太高,要想解决这个问题,在那时候可能已经不行的。为什么?数据中心最大特点是不能够间断,不能够停止业务。业务一旦停了,损失非常大,基本上建设以后没有太多机会更改它。所以,要有超前的思想,首先要给客户一个很好的设计方案。另外,客户能够有这样的思想,接受这种方案。在设计初期就要采用节能环保的方案,这个项目就是一个长期的项目。
    数据中心的能耗主要在哪里呢?分析图表。首先第一块就是冷却散热,占33%,就是1/3的能耗在这里。第二,信息技术,没办法节约。信息技术主要是业务这块。第三,不间断电源。不是不间断电源本身的耗能,是对整个数据中心内部设备提供能量的一块。不间断电源也有本身的耗能,这块也要配合UPS供应商解决内部耗能。要解决内部耗能,就要从三方面解决,第一,系统和技术。第二,技术中心服务,就是数据中心建设。第三,管理系统。现有这些东西怎么很好地管理,没有资源浪费。
    系统和技术,有好性能的,高能耗的服务器和存储设备,还有补充散热系统。
    数据中心服务,数据中心评测,数据中心的设计,还有构造、合并,老机房重组的工作。
    管理系统,主要通过软件,Tivoli Enterprics Management企业管理软件,还有IBM功耗管理软件,还有虚拟化管理软件。通过这些管理软件把能耗高的,或者把不需要的设备功能合并起来。
    需要数据中心建设单位、用户、政府、产品供应商的协调。比如EMERSON提供空调系统,UPS系统,施耐德提供供电系统,APC/MGE是一家老公司重组的公司,也是生产UPS接风空调,他们也在不断研究节能的产品和节能的解决方案。我们现在推出的方案和这些公司一起研究开发出来。另外,政府支持,政府提供的公共设施、软环境。
    数据中心评测是节能第一点。
    基于分析,针对现在数据中心的排列,优先组合,这个评测主要通过我们的方法论,还有一些软件、测试工具,产品收益很明显就是投资节能上面的费用减少,基础设施在运行的阶段,能耗节约10%到40%。
    建议包括适当规模的电力和散热系统,使用高效UPS系统,实施替代散热解决方案。
    比较数据中心,它的功耗和技术使用功耗。从图上面看到,这只是一个能耗比,最低的是3.5,最高的是1.5,我们当前是在3。目标是在2-2.5。通过评估,前期能够大致知道数据中心达到哪一个等级。
    我们自己开发的WEB工具,这是免费的工具,可以进行自我评估,评估过程根据12个问题,我们把整个数据中心分成12块,不光是数据中心,包括智能化建筑,IBM做这个事情是把数据中心和智能化建设放在一个平台上考虑的。主要分三类,对功耗相关问题,这12个问题里,快速战术手段部署,战略数据中心规划的范围。另外,针对改善领域的报告,IBM最后提出来一个服务建议,怎么样规划、设计。
    最大耗能在冷却上,IBM使用了储能方式,或者储冷方式解决一部分问题。这个方式可以改善的效率达到40%-50%,降低成本。室内机房,比如说水冷系统,外面水塔冷却好之后,主要对冷却下的,室外的冷冻水机组,然后把冷冻水直接送到室内的风机盘管,这个过程是传统的水冷系统的过程。这个过程有很多问题,我们知道水冷有一个气堵现象,会造成效率降低,甚至设备没有办法正常运行。气候不同,对效率的影响也很大。IBM水冷机组,室内冷冻,风机盘管之间加了一个巷位改变材料,是一个大的储能,像运原油的罐车,一个罐状的东西,是用巷位改变,改变以后不同的巷位温度不一样,可以储存能量。电价低的时候,我们把设备全功率开足,储存的冷量,一部分晚上给设备风机盘管使用,另外可以在白天通过风机盘管释放出来,半功率开,甚至短期开都可以,可以存储四个能量。好处是可以利用电交叉。在纬度比较高的地方,比如东北,冬天室内机也需要冷却的,我们可以让室外的低温冷却SPC的材料,然后冷却室内的风机盘管。气堵就没有了,应该是减少了,基本解决了,因为有时候还要直接开冷冻水机组,可以大大节能到40%到50%。可能很多客户不接受水冷。水冷现在已经发现慢慢又回到数据中心,十年前计算机房里大部分使用水冷系统。IBM最初进入国内的数据中心,CPU的芯片就是直接进入水冷系统。水冷系统效率非常高,被风冷高10%左右,过去施工材料、建筑材料、安装材料,还有工艺受限制,发生过漏水、冷凝水、水管爆掉等等,现在大部分数据中心会担心水的潜在危险。数据中心规模越来越大,以后没有办法避免重新使用水制冷技术,但是水制冷技术和十年前不一样,国外很多技术中心大部分都是水制冷,现在材料、安装工艺都是非常乐观的,可以减少到安全线或者承受线,当然有一些措施解决、防范漏水问题。
    另外,可扩充的模块式数据机房,主要针对小的数据中心,数据中心规模很小,建设周期要求很短,但是可能有一定数量,我们可以叫做模块化数据中心,50平方到100平方。当然可以适应大型数据中心,但是对于小的数据中心讲,要求建设速度快,这是非常好的解决方案,在30天到40天就可以交付使用。主要采用模块式的UPS方式,还有行入式,甚至于背板式机架式冷却方式。在高密度小面积的情况下达到节能环保,它可以降低初期投资,降低15%的比较不错的结果。
    在施工上采取新的施工规范,施工流程,施工方式,针对布线系统,我们采用一个最佳气流评估。很早的数据中心不太意识到光缆或者缆线对数据中心节能能耗的影响,实际上它的影响非常大,地板通风情况下,下面织了一张网,网高密度,阻碍了流通,造成效率降低。实际上这是很简单的事情,为什么大家以前没有做好?因为没有很好的规范,让一个工程队主动做成什么事情,工人做得出,他是按流程,流程上没有要求的他不想增加成本做。我们有一个新的规范,新的施工方式,可以提高效率,增加安全度。
    IBM在国外致力于建设智能化节能的建筑,专用设施,在日本千叶是一个汽车厂,IBM Nankoh数据中心,上海的远洋大厦也是采用新技术,它的收效是自动调节,智能使用自然光和新鲜空气,大厦上面自然使用太阳光和空气,充分使用资源,降低能耗30%,包括防火、安全、空调系统,提供安全、健康、舒适的环境。另外,使用灵活的开放式机架,我们属于开放式机架,适合客户的扩溶、更改。
    举一个例子,上海瑞吉红塔大酒店是智能化的建筑,它在33家五星级酒店中唯一的采用智能化建筑。酒店讲能耗比,用水、电、气的成本,中国平均是8%,它是5.1%。整个节约能耗相当可观。
    基于Web的交换场所,大家可以在一站式网站上了解数据中心评估评测的节能方式。
    IBM帮助全球很多公司建设节能型数据中心和智能化建筑,提高了能耗,降低了支出。数据中心和设施策略方面,建立了首屈一指的超级计算中心,实现了高浓度、高密度的计算环境。金融方面,我们在5家国有银行都参加建设了数据中心,主要是建设集中的数据中心。
    IT设施评估和设计、建设,IBM建设大约3000平方英尺,高架地板就是指机房面积,指的是有效面积,不算监控中心,只是直接IT的数据中心。全球范围内,为埃及电信公司和印度建立最大的客户数据中心,采用新技术。
    在亚太地区,在韩国这是比较新的,在3月31号刚刚交付的,有800*4.1,就是我们的刀片中心,这是一个密度非常高的互联网数据中心。日本Yamato CFD,这是配合水冷,这个数据中心在日本、台湾、美国,已经完全接受了水冷方式,今后是不太多的选择里面最好的选择。
    这是我们在上海浦东建设的数据中心,具有两万平方米的数据中心机房,农行的中心机房。它在北京有一个数据中心,在上海的业务今后慢慢开放,已经开始实施,面积是一次到位,设备是分期,当时的实施难度很高,要考虑数据中心今后的发展不断扩容,但是业务不能停。在节能、环保的大前提下,从2005年正式开始施工,到现在花了两年多时间,现在基本上交付使用。但是后期我们会不断进行新的扩容、扩充。
    节能和降低成本的潜力非常明显。基础设施每年可以达到40%,这就意味着一个典型的中型数据中心占地2500平方米,40%是用美国0.12美金一度电的价格算,我们每年可以节省735000美元,按0.18美金算,就是1103000美元,相当于850辆汽车停止使用。
    优化整合企业,实现了极大的节约。非常小的数据中心,从50平米到大型,四个站点合并,因为合并数据中心也是节约的方式,现在很多数据中心比较分散,特别是银行,网点比较多的时候,以前分散式的,现在我们都和银行总行级别去探讨,把它集中起来。集中的目的,一个是业务需求,另外是节约投资。
    Cool blue是机后备式水冷解决方案。这是一个标准的机架,比如说42U的机架,现在大多数数据中心用刀片服务器,刀片服务器是密度非常高的产品。如果在数据中心里面放很多刀片服务器机架,每个发射价非常高,高到30千瓦冷却,传统上不可以,就采用后板式的水冷系统。
    从上往下看,后备有一个后板门,通上冷冻水,冷冻水不是7度水,7度水不需要,也是有问题的。水来源从冷冻水机组过来,通过一个处理中心分配到每个机架上,处理中心会监测每一个机架回水的温度、压力,保证机架的温度、泄露的监控。这个技术可以解决现有的高密度数据机房的冷却问题。
    虚拟化电源,把服务器虚拟合并,业务合并的方式,主要通过软件实施。2000瓦,每一个系统有两个应用,总的功率800瓦,通过虚拟合并以后可以降到4000瓦,提高了50%。
    工作负载的转移,每个系统在工作时候不是一直满负荷或者一直在应用,不同的系统可以在虚拟化的状态下把业务整合在一起。整合以后降低了能耗,提高了系统的安全度,主要使用休眠方式,关闭服务器,降低功耗,主要在Tivoli系统软件的监控。管理系统是基于现在的系统软件、管理平台。我们在这个软件基础上对应用能源监控。
    作为数据中心的提供商、建设商,主要分几类,大部分提供的只是装修或者施工,IBM提供施工装修。另外,我们提供前期很重要的规划和咨询。IBM是一个IT行业的公司,有能力结合IT运营环境设计数据中心。因为数据中心不是建好了以后去看,一定要很好地把业务通过这套系统体现出来。大部分用户在建设数据中心初期,因为以前的方式不一样,不太了解数据中心,只知道建业务需求。大部分建设商需要给我设计院图纸,或者把设计院请来,我根据设计图纸施工。设计院图纸哪里来?设计院也不会建设数据中心,你要给他提要求,客户的要求从哪里来,我们帮助客户规划数据中心,IBM很大的业务就是根据计算设备规划数据中心,告诉你建多大,在哪里建。IBM有一个很特别的地方,也是数据中心的使用者。
    在数据中心的建设中,第一,我们要使用最新的节能环保的技术。第二,结合以前的经验,再加上政府和用户的总体协调,给用户提供完善的数据中心。目前已经建设好的项目,比如龙航数据中心,这是龙航在上海的数据中心,叫做龙航数据中心,它是2005年建设的。另外是证券交易中心、山东移动数据中心、外汇交易中心数据中心、上海移动怒江数据中心,是智能化建设的项目。
    总体来讲,IBM在不断努力,不断地学习,今天有很多专家,我们也把它作为一个学习机会。谢谢大家。