加入收藏
设为首页
热线:010-62104284
首页
关于金恒
机房空调
空调维修
UPS电源
空调维保
机房冷通道
机房建设
经典案例
新闻中心
联系我们
首页
>
新闻中心
>
ASHRAE90.4数据中心能效标准的建议与检查
ASHRAE90.4数据中心能效标准的建议与检查
文章来源:admin
发布时间:2016-04-29 08:51:56
浏览:
0
次
据悉,
数据中心
行业遵循的美国采暖、制冷与空调工程师学会(以下简称ASHRAE)TC9.9数据中心处理环境热指南即将发布第4版,而90.4和90.1的标准将在2016年最后定稿,数据中心行业人士对此进行了解是很重要的。
ASHRAE90.4p标准明确提出“建立数据中心的能源效率的最低要求:设计、施工和运行维护计划,并利用现场或非现场可再生能源”。范围包括a)新的数据中心或其部分和其系统;b)新增加的数据中心或其部分和其系统;以及c)修改现有数据中心或其部分系统和设备。标准还指出,本标准的条款并不适用于:A.电话交换机;B.必要设施(IES)C.信息技术设备(ITE)。
强制性法规
拟议的90.4标准规定:“遵守本标准是自愿的,除非法律管辖权通过立法来强制执行”。如前所述,许多数据中心行业关注的问题之一就是“当局管辖的”(AHJ)。这包括美国各州和地区的建设主管部门,以及联邦政府机构,在使用90.1时以此为依据,对多种类型的商业和工业的新建筑物提出要求,或升级现有的建筑物的要求。因此,它们也将使用90.4作为其新的
数据中心
的标准,因为这个标准将其修订到90.1标准。此外,90.4也为90.1进行了更详细的补充,实际上其他的具体要求都要符合90.1建筑规定。除了在设计上妥协和增加成本,这似乎不太可能的,很多监管部门的当地建筑检查员可以理解复杂的数据中心的具体问题,如冗余级别,甚至熟悉TC9.9或绿色网格PUE指标。但这可能会延误批准或强制进行不必要的设计修改,只需当地建筑检查员对90.1和90.4标准进行解释。
强制性电气和机械能合规(90.4)
电气损耗部分(ELC):
新数据中心的设计师和的建设者需要证明他们的设计将如何遵守高度特异性和相互交织的强制性合规路径。这是通过定义的“设计的电气损耗分量(设计ELC)”部分。这些涉及有关IT电气系统能效在50%负载以及100%负载时的最低标准问题表的多样性设计。除此以外,它需要证明多层次的电气系统的路径损耗和UPS的效率,其中包括25%,50%和100%的负载系统在各级冗余(N,N+1,2N和2N+1)的电气系统路径损耗。
此外,它描述了三个不同的电源链损失部分:“输入设备段:
UPS
段,信息技术设备配电段(延伸到IT机柜电缆的电源损失)。此外,它指出ELC设计,以及应该“使用的每个电源链段在最坏的情况下显示的电效率最低水平。”
强制性的PUE:
建议90.4标准的第二次修订明确列出授权的最大PUE范围从1.30到1.61,每个具体涉及到18个ASHRAE气候区中列出的地理区域。然而,这些PUE值设得过低,许多人认为他们会大幅度增加最初的设计和建设的成本,这引发了很多业内人士的关注、评论和抗议。此外,它没有考虑到当地能源的可用性和燃料来源,或者水的使用或在使用水中有任何潜在限制或短缺的情况,例如去年在美国加州的持续干旱问题。这个PUE参考值将在未来版本中删除然而,本地能源的问题却仍没有得到解决。
机械损耗部分(MLC):
第三版本的修改删除所有引用绿色网格PUE要求;但是它包含了采用最低能源效率的机械冷却系统非常详细的具体要求,再次具体列出了ASHRAE规定的18个气候区。第三次修订了另一个冷却性能表(也再次列出18个气候区),将“机械设计负荷(设计MLC)”定义为所有冷却、风机,水泵、散热的设计功率的总和除以数据中心所有信息技术设备(ITE)的设计功率(100%和50%)。
另一个重大的问题,所有的冷却效率计算似乎排除了有效利用的“容许”的范围,以满足强制性和规定要求:“计算机架入口温度和露点必须在数据处理环境热指南推荐的范围内。”因此,即使数据中心设计的目的是为了提高IT设备运行的更高环境温度(如A2,A3或A4),也没有必要为较低的温度推荐范围进行设计和构造,这可能会大幅增加冷却系统的成本。
采用A3和A4的服务器的标准
A3和A4的服务器并不在2011年最初制定的标准范围之内,而到了2015年,市场上已经有了几个A4额定服务器制造商的规格说明,这些服务器可以在45°C的环境下连续运行,对可靠性没有影响。一些制造商生产的新一代A3和A4的服务器硬件克服了限制温度的早期限制。
在90.4标准第三稿发布的同时,ASHRAE还发布了新的修订提案90.1-2013供公众审查,目前已经删除了所有引用强制性PUE合规性。附录提供了一个明确的削减所有
数据中心
的能效要求的90.4,这应该可以减少潜在的冲突和混乱(建筑的其他方面仍然需要遵守当地建筑法规)。据悉,90.4的最终版本将在2016年秋天发布。
不过虽然这是一个显著的问题,为什么数据中心的环增仍然仅限于“推荐”的温度和露点,为什么不设计一个系统,以满足强制性冷却系统的能效要求?对此考虑最多的应该是数据中心运营商,如果他们打算长期在更高的温度环境中运行的话。尤其是现在,几乎所有商品的IT服务器都可以在A2范围(50-95°F)范围内工作。此外,固态硬盘(SSD)现在可以工作在32°F-170°F更广的温度范围内。虽然最初价格昂贵,但固态硬盘价格将会继续下降,而且与之相配套机械磁盘的存储容量越来越大,并显著地提供更高的系统吞吐量,提高了整体服务器性能和能源效率。如今,高性能服务器变得更加普遍,服务器也将具有更大的热耐受性,这些都将有效地降低成本。
因此在ASHRAE热准则定义了所有这些额外的因素,并提出90.4标准,其中有许多重叠的和潜在的相互冲突,那么设备设计者和管理者应如何决定以“最佳”或“符合”作业环境条件的
数据中心
?
产品推荐
艾默生Paradig...
Paradigm NXf系列高性能UPS(10~20KVA)...
艾默生列间机房专用空...
Liebert CRV是一款能自调节的精密制冷设备,是中小...
艾默生机房空调Dat...
Datamate3000 系列空调是艾默生网络能源有限公司集...
艾默生Liebert
一、Liebert PEX 系列描述 Liebert ...
联系我们
地址:北京市海淀区知春路豪景大厦B座十层
鲁文:13520099504
热线:010-62104284
QQ:514468705
112417434
邮箱:13520099504@163.com
上一篇:
“模界”战略资源合作仪式在京隆重召开
下一篇:
数据塔:萨鲁曼的数据中心
H
热点文章
ot articles
智能绿色节能,机房专用空调引领未来趋势
机房空调:令你的服务器心无旁骛
365天守护您的机房:无敌机房专用空调
维谛空调具有的自身优势体现在哪里?
艾默生:三大指标引导发展方向
大金中央空调维修中遇到的疑难问题
如何避免冷冻水型精密空调维修频率?
机房空调厂家该怎么选?
机房空调各系统的特点与性能比较
精密空调的未来发展趋势
在线咨询
电话咨询
map