国内外数据中心建设的“前后浪”——多种典型制冷方案研讨

动态新闻 / 2020-09-26
国内外数据中心建设的“前后浪”——多种典型制冷方案研讨

      9月21日,以“创新融合,绿色节能”为主题的2020中国数据中心绿色能源大会盛大启幕。英维克IDC事业部副总经理、CDCC专家技术组专家委员王前方受邀出席圆桌会议,与CDCC专家共同分析研讨国内外数据中心几种典型制冷方式。




      放眼全球,英维克王前方用“前浪”和“后浪”来形容国内外数据中心的发展关系。美国作为“前浪”,其数据中心的规划和制冷的技术处于引领阶段。中国受互联网巨头数据中心需求的推动,部分方案已行业领先。




      “近几年考察海外数据中心,明显感觉到之前到处是惊喜,现在惊喜越来越少,甚至觉得国内做得更好一点,后浪正在超越前浪。”会上,王前方就七个美日典型数据中心考察纪实进行分享,结合案例对间接蒸发冷却技术、自然冷却的应用、水冷和风冷系统在不同场景下的应用做了分析;在座的专家也纷纷发表对国内外数据中心制冷方案的见解。


Q:国内外制冷方式的差异在哪方面,这种差异对中国有哪些借鉴和参考,有哪些不适合国内的情况?

A:2009年,美国的数据中心几乎都在使用冷冻水技术;在此之后,直接新风、间接蒸发、风墙、大型AHU设备等多种制冷方式百花齐放,对国内数据中心建设有很大参考价值,并影响和促进了国内制冷技术的发展。日本出于未来地震的可能性考虑,基本以小数据中心建设为主,较容易落地各种各样的有个性的方案,如雪水冷却、新风集装箱等,比较难于推广应用。国内大型数据中心发展比较快,制冷方案的选择上也呈现多样化,但数据中心的建设方和使用方有时是割裂的,对一些技术的发展也起到抑制作用。


Q:国内呼声比较高的蒸发冷却技术在国外大致是什么情况?国内国外的技术路线有什么相同和不同之处?

A:日本多数区域温度较低,蒸发冷却会提高机房的湿度。所以日本有很多新风项目,但没有用蒸发冷却。但在美国,这些技术相对来说已有较高的使用比例,国内目前呼声较高或是近几年赶上新技术应用的缘故,实际上国内数据中心用得最多的还是水系统。也许蒸发冷却系统快速发展几年,应用比例趋于稳定,可能就会谈论液冷或者其他技术。

国内外数据中心技术路线有点殊途同归,都在走模块化、标准化、工程产品化的道路。国外是因为对建设的速度要求高,多为改造案例;国内则是基于快速建设和工程的不可控性,对模块化、标准化、工程产品化的需求更强,实际建设案例要比海外多很多,有可能这是我们超车的地方。


Q:在空调制冷方面的技术水平,国内外差距体现在哪些方面?

A:中美数据中心在硬件上的差距越来越小,甚至在某些产品的性价比上,国内还要优于美国和欧洲,但我们在逻辑控制上、软件控制上的水平参差不齐,领先的控制技术还没有普及。日本数据中心的工艺水平,以及运行维护管理的素养和水平都非常高。中国的基础素养还达不到先进水平,且工程质量可控性较差,项目交付质量不稳定。


Q:预测未来3-5年,数据中心空调制冷方面的变化?

A:通过数据分析的方法把不可控的风险跨越过去,把AI融入到制冷系统,将产品模块化、标准化,是未来需要摸索和发展的地方。未来5年间接蒸发冷却会持续放大应用规模,液冷技术可能会在南部区域大规模部署和交付,综合多种技术的冷源方案也会快速发展。 

此外,面对边缘计算的业务增长需求,针对边缘节点的插框型空调、背板空调等小型系统,在未来几年会是一个发展非常快的市场。


美日七个典型数据中心 

【美国】

美国数据中心制冷系统十分灵活,从传统的乙二醇冷却到间接蒸发冷却方式的都有应用。


Sabey Quincy 数据中心

      位于Quincy的Sabey数据中心,空调系统采用间接蒸发冷却,直接膨胀式(DX)制冷系统作为冷量补充,具备三级冷却和制冷。




SUPERNAP数据中心

      SUPERNAP数据中心空调系统100%采用绿色能源,主要用太阳能发电,全年平均PUE1.28,最低PUE1.08。其空调系统为定制化系统,有直接新风、间接蒸发、DX多种冷却模式,智能化程度高;送风系统通过温度和冷热通道压差控制风量,实现精确制冷和节能运行。




DRT数据中心

      位于Dallas市区的DRT数据中心,高达20层以上,采用乙二醇自然冷却双盘管空调系统,解决管路距离问题并利用自然冷源。低温时段通过干冷器实现自然冷却。





【日本】

日本数据中心分布与美国数据中心截然不同,多规模小且集中。


岛白河数据中心

      福岛白河数据中心制冷系统采用直接新风自然冷却+水冷冷水机组机械制冷+风墙送风的方案。整个外墙作为进风百叶,降低风阻和噪音;利用建筑结构作为送风通道,比送风风道方案降低了阻力;应用独特的鸡笼结构,利用烟囱效应来降低排风功耗。





KDDI Telehouse Tama3数据中心

      由于当地全年气候偏低,且考虑到地震等相关因素,降低整个系统的复杂度,数据中心采用传统的风冷冷水机组+双管路设计+机房下送风天花回风设计,实现低PUE。




TOKYO Datecity CC1数据中心

      其制冷方案相对传统,采用冷水机组、双管路,以及蓄冷设计。地下设有5000吨的蓄冷池,晚上利用波谷电价由冷机为蓄冷池蓄冷(5℃),白天为数据中心提供冷源,可以大幅降低冷却电费。




长冈市Data Dock数据中心

      位于北纬37°的Data Dock数据中心,有天然积雪条件并创新性提出“雪水冷却”的概念,通过储藏雪水的方式,一年中大部分时间均使用雪水进行制冷。此外配备一套压缩机系统,用乙二醇防冻液的方式来进行供冷,形成完整的配合,PUE低至1.19。