机房360首页
当前位置:首页 » 机房制冷 » 解析数据中心制冷高能耗原因及应对方法

解析数据中心制冷高能耗原因及应对方法

来源:中国绿色数据中心 作者:机房360 更新时间:2009-9-28 17:45:40

摘要:随着刀片服务器的高度集成化,其散热量已经达到了每个机架30KW之巨;甚至有的正常运行机房在服务器凯旋门真人娱乐官网出风口测量到了47℃的高温。最后机房面临着计算机服务器等高热密度负荷的不断进场,只能一味的调低空调机的设定温度值,致使机房内温度低得像个冷库一样。

    近年来随着信息化的高度发展,数据中心也加快了建设步伐,向着高热密度前进。数据中心建设中一部分是在原有机房基础上进行扩建,但是如果沿用原始设计而没有进行主设备扩容就会出现使用原精密空调机组已跟不上机房建设发展的需求而产生机房冷却能力不足量的现象;或是精密空调机组的配置量超出了现有机房设备需求而产生机房冷却能力超量的现象,这都会导致机房总体能耗之居高不下。 
  
    有专家预测,数据中心IT采购成本将与能源成本持平。其中数据中心的能耗中,冷却又占了能耗的60%到70%。在接下来的几年里,世界上一半左右的数据中心将受电力和空间的约束,能耗会占到一个IT部门1/3的预算。资料显示,在2000年全球第一波数据中心浪潮中建设的数据中心已有50%开始在2008年开始重建。
  
    高热密度设备进驻导致制冷能耗剧增
  
    机房精密空调机组应用于电子计算机机房是按照现行国家标准A级电子信息系统机房进行设计的,其运行工况为:23±2℃/50±10%Rh;对于计算机和数据处理机房用单元式空气调节机现行国家标准检验工况为23±1℃/55±4%Rh。
    
    现在计算机机房的建设模式,一般是沿用原数据机房局址进行简单的扩容而成。由于机房早期建设的时候已经对凯旋门真人娱乐官网和空调进行了布局,达到空调机组气流组织对当时的凯旋门真人娱乐官网负荷是最佳的设计;现在当高热密度的计算机服务器进入机房的时候,会被安排在远离空调机组的位置上。

    这样势必会造成在新的计算机服务器开机运行时出现此区域温度超标的现象,故而必须将空调机组设定的回风温度24℃调低。一般情况是在刀片服务器进场后至少调低空调机组设定温度2℃。对此造成的能耗就已经超过空调出厂标准的20%以上了。然而随着刀片服务器的高度集成化,其散热量已经达到了每个机架30KW之巨;甚至有的正常运行机房在服务器凯旋门真人娱乐官网出风口测量到了47℃的高温。最后机房面临着计算机服务器等高热密度负荷的不断进场,只能一味的调低空调机的设定温度值,致使机房内温度低得像个冷库一样。
  
    目前85%以上的数据中心机房存在过度制冷问题,数据中心过冷成为了普遍性问题。对应的机房空调机组耗能也会比设计工况增加能耗50%以上,最终造成机房空调居高不下的高额运行费用。

    脱离IT设备需求产生巨额制冷运行费用

    设备发热量又与设备类型、型号,机房布置有着很大关系。据对一些机房做过的调研,发现有的设备发热量并不大,可是机房冷负荷远远小于常规计算指标的165~222W/m2。而现实中有的机房占地面积达到了396平方米,而真正需要机房空调的服务器和配线架负荷区域却仅有60平方米。这种脱离IT设备需求的精密空调配置,无疑又浪费了巨额的能耗费用。
  
    由于机房空调无法感知机房的服务器或通信网络设备具体需求量,故其制冷能力之超量会导致空调机组压缩机频繁启动,产生振荡,最终也会造成机房空调高额的运行费用。

    随着数据中心(IDC)机房采用服务器虚拟化技术的大量应用,机房内高热密度负荷势必会出现散热点向关键服务器转移的现象,届时可能会出现机房内只出现少数的高热密度区域,其微环境需求会愈加严峻。

    降低高额制冷费用解决方案
  
    针对以上问题,有关专家所给出的如何提高数据中心能效的建议。其核心理念是更好地冷却过热区域,而不浪费能量去冷却已经冷却或根本不需要冷却的区域。减少整体的冷却需求并考虑包括冷却系统的整体支出,应该直接针对机架内部的过热点进行冷却,同时将热空气排出由通风口排出。 

    具体方案为:

    1、冷却通道:热通道设计是为了促进有效流动同时将冷热空气流分开,并恰当安置空气调节设备。

    2、为服务器运行选择动力经济模式。 

    3、改进机架内部的空气流,使其穿过通道,这可以通过配置盲板隔离空机架空间来实现。
   
    4、当采用专业工程方法将冷却用水直接输送到机架以将电力系统和隔离管道等的风险最小化。

    5、数据中心过热点的直接冷却与冷却系统紧密相关,但注意不要冷却已冷却区域。将冷却空气的通道减短。使数据中心设计为服务器和存储器机架的空气流与房间空气流相匹配,这样就不会将电能浪费在从相反方向来抽取空气。
   
    6、采用刀片服务器和存储器虚拟化来减少需要动力冷却系统进行冷却的物理设备的数量。这同时也减少了数据中心所占用的空间。

    7、采用多核芯片来整合服务器可以减少所需冷却服务器的数量。购买更多的高效芯片并进行动力分级以减少待机功率,这样可减少冷却需求。
  
    8、如果可能,采用空气调节装置运行于冬季经济模式。
  
    9、检查个别的空气调节单元是否相协调并且未进行相反工作。

    10、采用更多的高能效照明设备(安装控制器或定时器),这可以直接节约照明费用,并节约冷却费用(因为照明设备的使用会导致其自身过热)。 

    11、采用动态计算流软件(computationalfluiddynamics)对数据中心的空气流进行模拟,并尝试不同的地面通风口位置和计算空间空气调节单元位置。最优冷却系统可使数据中心能源支出节约25%。
  
    12、无论负荷大还是小,冷却系统的能耗是固定的。很好地利用将使其固定能耗降低。在保证增长的情况下,将生产量与数据中心设备的冷却需求相匹配。

本文地址:http://www.bridgescomic.com/news/2009928/n26792414.html 网友评论: 阅读次数:
版权声明:凡本站原创文章,未经授权,禁止转载,否则追究法律责任。
相关评论
正在加载评论列表...
评论表单加载中...
  • 我要分享
更多
推荐图片