下一绿色代数据到底该怎么建

  • 来源:计算机世界
  • 关键字:绿色,代数据
  • 发布时间:2010-06-29 16:19
  编者按:英特尔内部有大约五千多名IT人员,他们掌管着英特尔分布在全球的97个数据中心,这些数据中心涉及了英特尔自身从芯片设计、内部办公、产品制造测试到企业管理等多方面的工作。如何让如此多的数据中心在更高效地工作的同时,又能顺应节能环保的要求,英特尔的相关工作人员进行了大量的研究和摸索。特别是针对数据中心运行中两大能耗的部分——制冷与配电,英特尔都在采取尽可能节能的措施和在做相应的探索。因此本报特约了来自英特尔的资深工程师,请他与《计算机世界》报读者来分享在新一代绿色数据中心建设和管理方面的经验。

  英特尔行业及解决方案部资深工程师 张敬

  随着IT技术的不断发展,以及业务与IT日益密切的联系,当前的数据中心正面临着成本、整合、能源管理等一系列挑战,并正在经历着巨大的转变。在下一代绿色数据中心建设方面,英特尔公司持续创新,用多年积极的探索取得了不少成功经验。

  优化数据中心布局降低能耗

  传统的数据中心应用物理服务器平均使用率在10%,采用了虚拟化和云计算以后,数据中心整体的IT的效率能够提高很多。除了虚拟化以外,英特尔对于数据中心的建设还进行了其他一些方面的探索。

  比如传统的数据中心的散热方式是通过使用空调,冷热通道通常都没有封闭。进入云计算以后,数据中心内的服务器,特别是一些刀片式服务器,密度变得非常高,所以需要提高散热效率。而提高散热效率最好的方法之一就是采用冷热通道分离,同时封闭冷热通道。如果为了达到更加有效的散热效率,还可以更严密地进一步防止冷热空气的混合,比如采用烟囱式机柜这样更严密的封闭方式。

  封闭冷热通道以后有会有什么好处?好处在于可以提高整体的空调的效率。根据英特尔在自己数据中心的实践发现,采用了封闭冷热通道之后,可以尽可能地提高回风温度,从而实现了冷水机整体能效比系数从0.927提高到了1.02,将近提高10%。(见下表)

  冷却水 冷冻水出水温度 ?C 7 8 9 10

  进水温度

  ?C

  24 制冷量系数 1.029 1.054 1.078 1.103

  压缩机输入功率系数 0.841 0.837 0.832 0.827

  能效比调整系数 1.22354 1.25926 1.29567 1.33374

  27 制冷量系数 1.015 1.04 1.066 1.091

  压缩机输入功率系数 0.918 0.914 0.909 0.905

  能效比调整系数 1.10566 1.13786 1.17272 1.20553

  30 制冷量系数 1 1.026 1.052 1.079

  压缩机输入功率系数 1 0.996 0.993 0.989

  能效比调整系数 1 1.03012 1.05942 1.091

  32 制冷量系数 0.99 1.016 1.043 1.069

  压缩机输入功率系数 1.068 1.055 1.052 1.048

  能效比调整系数 0.92697 0.96303 0.99145 1.02004

  很好的隔离冷热通道,会取得高的回风温度,从而增加服务器前后端温度差,这能在相同热负荷的情况下,可以减少风量,同时也可以减少风机风量和转速,从而减少它的功耗。因为风机的功耗它根据的转速比值是一个立方的关系,当风机转速降低一半的时候,它的功耗只相相当于原来的八分之一。另外一方面,提高回风温度,可以随之提高水温,通过加大进出空调机组的温度差,还可以减少水泵的消耗功率,并能极大的延长自然冷却的时间。

  但是这个方法并不适于风冷型的散热系统,也即就是直接蒸发式的系统,因为这种直接蒸发式的系统,提高回风温度可以适当地提高压缩机的工作效率,但是由于过高的回风温度,可以引起压缩机长时间的高压的运行,反而容易出故障。

  让大自然成为最好的空调

  为了让数据中心更加节能,英特尔一直在考虑如何尽可能地利用自然冷源。研究发现,在全球适合自然冷却的区域,都可以用自然冷源对数据中心进行降温。比如北京,全年平均气温在16°C,适合自然冷却的时间超过40%。像今年一直到4月底,北京室外都很冷,完全可以给数据中心进行自然冷却。

  利用室外冷空气自然冷却,主要分成间接和直接的两种形式。

  根据英特尔的经验,采用自然冷却的方式,在北京每年大概可以达到40%到60%的时间不需要启动机械制冷。在保障数据中心相对封闭的环境下应用间接的自然冷却,完全可以避免室外空气的湿度和洁净度对于室内的影响。

  间接自然冷却方式,分为三种方式:

  第一种方式,是以冷冻水机房专用空调系统,配合适用于冬季自然冷却的逆流型大冷却塔(比夏季工况用冷却塔容量要大3-4倍,以便尽可能延长自然冷却的时间),及隔离冷冻水系统及冷却水系统的板式热交换器。英特尔在美国波特兰的数据中心就是采用的这种设计方式。

  以北京为例,属于典型的温带大陆性气候,冬夏时间长,且全年大部分时间,空气干燥,湿球温度远低于干球温度,理想的可以使用自然降温的室外干球温度,全年平均12度以下的时间可以达到45%。如果使用冷却塔加板换的方式,更可以利用室外湿球温度自然冷却。当冷却塔设计的容量足够大时,全年自然冷却的时间更可以达到60%以上。

  第二种方式,就是用带有自然冷却盘管的干冷气乙二醇方式。它的工作原理是在室内机设计了两套盘管,一个盘管是氟利昂的,一套盘管是可以走冷冻水的。

  这套系统它有什么特点呢?就是有利于水冷系统的应用。过去,只有当数据中心规模足够大,才可以有条件去设计水冷机组。但是如果数据中心的规模没有那么大的话,水冷系统对于整个数据中心的投资造价就太高了。

  通过采用这种方法可以很好地解决上述这个问题,到了夏天的时候,它是外边的干式冷却器是起到一个冷却水的作用,到了冬季的时候,它的干冷器就变成产生冷冻水的作用,然后通过两套两通阀来调节水是经过板式热交换器的冷凝器还是经过冷冻水盘管,这样的话也可以实现自然冷却方式。这种自然冷却方式它有一个很大的优势在于它可以混合制冷,当室外温度低于数据中心机房回风温度的时候,也可以进行自然冷却。也就是说,从室外回来的水,可以先经过冷冻水盘管,然后再进行机械冷却,这样的话每年的自然冷却时间可以非常长。以北京地区为例,可以达到50%甚至于更长的时间。

  第三种方式,使用转轮式热交换器的形式。这种方式是利用转轮内填料的储能功能,让转轮在两个封闭的风道内缓慢旋转,被室外空气冷却的填料冷却室内空气。英特尔协助KPN在欧洲设计了世界上第一个采用这种冷却方式的数据中心,相比传统方式,它每年可以节省八百万欧元的数据中心运营费用,并减少了大量的CO2排放。

  除了上述这些间接自然冷却方式外,还有一种是直接采用室外空气的自然冷却方式,英特尔在美国新墨西哥州建的数据中心,就是用的这种方式。

  这种方式直接利用了室外空气,可以在24°C以下的环境进行自然冷却。但是这种方式对空气含尘量要求比较搞,需要复杂的除尘处理,并需要专用的空气处理机来保证足够的风量供应,所以通常不能使用传统的机房专用空调。同时,采用这种方式会使机房内相对湿度很难控制在许可范围内,因此对服务器的品质有很高的要求,不适于对数据中心可靠性要求特别高的用户。

  无论设计采用何种自然冷却方式,对于用户来说投资都会增加70%到100%,但是它的运营成本相对会比较低,每年TCO增长也会低于传统的数据中心。按照英特尔现有数据中心建设的经验:如果多投入的成本能在3年-5年左右的时间内通过减少能耗及相关费用的方法来收回的话,那么这些投入还是非常值得的。

  在自然冷却方面,目前英特尔还在做一些新的探索。比如英特尔在美国设计了一个实验机房模型——鸡舍式的数据中心。鸡舍式的数据中心的设计灵感来自于养鸡场,鸡舍里大量的鸡自身身体发出热量,使得鸡舍中空气膨胀,空气膨胀以后产生向上的动力,驱动整个鸡舍中的空气自然流动,而不需要任何机械的帮助。通过这样一个原理,把服务器机柜中服务器散发的热量收集起来,让进入数据中心的空气被服务器散发的热量加热后自然上升,此时只要建一个足够高的烟囱让热空气往上拔高,带动空气流动,从而完成散热循环。用这种方式可以在全年里大部分时间,直接靠服务器产生散发的热能产生动力自然散热,这种散热方式特别适合我国东北这样的地区。采用这种方式,同时也要注意处理好除尘,维持数据中心内部含湿量的最低要求。

  配电环节再省电

  除了在上述两方面以外,英特尔在数据中心的配电节能方面也进行了一些探索。比如英特尔现在正在探索用一些智能技术给服务器供电,因为在数据中心里大量使用UPS供电,UPS的好处是防止掉电,但是坏处是UPS要进行两次转换,每次转换都有能耗。英特尔采用高压直流的设计,把转换次数节省到一次,节省转换的能耗。在国内英特尔与一些用户已经在做一些相关的测试和应用。一些国内的通信运营商也在做一些相关的实验和测试,甚至已经制订了数据中心直流供电的标准。

  采用高压直流供电可以节省7%左右的配电部分能耗,考虑到这部分能耗还要散热到数据中心内,如果节省下来,将带来综合的节能效果12%-15%以上,而且且能够节省数据中心的占地面积,带来更多场地利用率。这种技术目前面临的主要问题是缺少成熟的产业链支持,建设成本还比较高。
……
关注读览天下微信, 100万篇深度好文, 等你来看……
阅读完整内容请先登录:
帐户:
密码: