
图片
本文提出的第1种相变风辅液冷系统(以下简称为系统#1)旨在结合风冷系统结构简单、部署灵活的优势与液冷系统换热效率高的特点, 满足在现有风冷机房的有限空间内灵活扩容的需求, 直接利 用现有的风冷机房空间即可完成高密度机柜冷却系统的升级。图2以简化模型的形式展示了相变风辅液冷系统#1的结构。服务器产生的热量首先由液冷板吸收, 随后冷却工质气化并沿重力热管输送至对应的风冷冷凝器单元, 在微通道翅片换热器中完成相变冷凝过程。冷凝后的液态工质在重力作用下沿管壁自然回流至蒸发器, 实现闭式循环。同时, 冷凝器所排出的热风由机房原有的空调系统带走, 不需要新增大型冷源设备。该冷却系统充分考虑现有风冷数据中心的空间和部署条件, 具备良好的兼容性与可扩展性。系统#1可在不大幅改造机房结构、电力供配系统的前提下, 针对部分高功率密度机柜实现液冷升级, 不需要一次性整体替换机柜, 显著降低了数据中心冷却系统升级改造的风险与成本, 特别适用于分阶段部署或局部改造场景。 此外, 系统#1采用横向送风的气流组织方式, 可以有效抑制服务器局部热点、提升温度分布均匀性, 避免了传统风冷系统散热受限和液冷系统常见的分液不均等问题。图片
图3所示为相变风辅液冷系统#1所采用的微通道翅片换热器风冷冷凝器单元的结构图。该换热器具备高比表面积密度和良好的空气流通性能, 有效提升了换热效率。图片
为验证所提出的系统#1的可行性, 本文在焓差实验室中搭建了一套完整的实验平台, 如图4所示。 该实验平台包括温度采集仪、电加热模块、蒸发器模块、自驱热管模块、微通道换热单元及风机。一个机柜里排布了5个不同高度的电加热模块、蒸发器模块和冷凝器模块, 每个冷凝器模块由微通道换热单元和4个风机组成。整体系统结构紧凑, 采用了模块化设计理念。风冷冷凝部分采用模块化风机阵列, 以提升换热效率。系统中的核心组件(如自驱热管模块、冷凝器模块和蒸发器模块)可以根据服务器功率密度和机柜规模灵活组合与扩展。实验平台设置多个热电偶测温点, 分别置于5个蒸发器表面(Eva)、电加热模块表面(Surf1— Surf5)、气管(Gas)、液管(Liquid)、送风(SA)和风冷冷凝器出风(OA)处, 测试系统的稳定运行温度。实验过程中, 各蒸发器与电加热模块外部均包覆保温材料, 以降低热量散失。实验系统采用R134a作为冷却介质。图片
根据相变风辅液冷系统#1的实验平台设计、本课题组前期研究以及数据中心运维工作经验,机房空气温度设定为25°C, 机房空气与冷冻水、冷冻水与室外空气的温差均设为5°C。为直观展示系统#1在传热路径上的优势, 图5对比分析了传统的计算机房空气处理器 (computer room air handler, CRAH) 系统与系统#1在相同负荷条件下的温度热流(T-Q)图。传统CRAH系统从芯片至环境的传热路径依次经过服务器冷却空气、机房空气、冷冻水、冷却塔和室外空气, 每一换热环节均存在温差损耗: 热空气吹向空调末端(机房空调), 空调末端通过表冷器(冷水盘管)利用冷冻水吸收空气中的热量, 热量从空气转移到冷冻水, 冷冻水携带热量与室外空气进行换热。相比之下, 系统#1采用相变工质将不同服务器产生的热量直接传到分级的风冷冷凝器, 降低了总换热驱动温差, 提高了整体热效率。图片
2 实验结果分析为验证所提出的系统#1在高热负荷条件下的可行性, 本文构建了针对50kW总热负荷(5个电加热模块均设定功率为10kW)的实验测试平台。图6显示了系统达到稳定时的5个模块平均温度TEva 、 热电偶测温点的温度(TSurf1—TSurf5、TGas、TLiquid、TSA、TOA )以及5个模块蒸发器表面的平均最大温差ΔTEva, 以判断温度分布均匀性。电加热模块的温度在60.8~62.1°C范围内, 各模块负载均衡, 系统散热能力稳定。同时, 热管部分的气管、液管温度和蒸发器表面温度均控制在50°C以下, 气液管平均温度为39.85°C, 体现了该系统较高的可靠性与传热稳定性。此外,5个模块蒸发器表面的平均最大温差仅为1.9°C, 表明机柜不同高度的蒸发器表面温度均匀性较好, 没有出现局部过热现象。实验测试初步验证了相变风辅液冷系统#1在自驱动与风冷强化协同下可实现50kW高热负荷下的换热冷却。图片
3 系统能耗建模与节能分析为进一步提升相变风辅液冷系统的节能效果, 并扩展其在多区域部署与全年运行条件下的应用潜力, 本文在系统#1的基础上提出了第2种相变风辅液冷系统(以下简称为系统#2)。该系统在保留系统#1所具备的无泵气液相变冷却优势的基础上, 进一步引入热管复合节能空调, 增强冷源侧的自然冷却能力。系统#2的设计目的在于拓展系统#1在大规模部署和全年运行能效方面的适应能力。系统#2的结构如图7所示, 传热路径由热源 (服务器芯片)、液冷板至热管中流通的相变制冷剂、室内侧风冷冷凝器、室内侧热管蒸发器(制冷剂)、冷源(热管复合节能空调)组成。系统#2的室外冷源侧采用热管复合冷却系统, 这是一种高效冷源利用设备, 通过一个中间换热器将热管循环与蒸气压缩循环有机结合, 可以实现自然冷却和机械制冷同时高效运行, 大幅增加了自然冷源的利用时间。图片
为了更好地比较数据中心冷却系统的传热路径, 以下分析均以芯片传热为重点。图8对比分析了传统CRAH系统与相变风辅液冷系统#2在相同热负荷传输路径中的T-Q图。系统#2中,热量经由相变工质传至风冷冷凝器, 再从热管蒸发器传递到室外冷源侧, 减少了传热环节, 驱动温差显著缩小。图片
图9给出了不同室外温度、热负荷为50kW时系统#2的传热路径。随着室外温度的变化, 室内系统(从芯片到热管蒸发器制冷剂)的温度分布保持不变, 而室外系统的温度分布(通过冷凝器的平均空气温度)则随着室外温度的变化而变化。因此, 该系统在室外温度变化时具有很强的运行稳定性。图片
本文选取了5个具有不同气候特征和地理位置的典型城市, 分析系统#2的全年电力使用效率 (power usage effectiveness, PUE)变化趋势和节能潜力。设置整机柜总热负荷为50kW。制冷系统功耗包括末端的风冷冷凝器风机功耗、冷源侧的风机功耗和压缩机功耗。由图9分析可知, 系统#2能够实现热源与冷源(室外) 之间较小温差的换热, 在室外环境干球温度低于35°C时 即可开启自然冷却模式, 但为确保分析的保守性与 准确性, 采用25°C进行计算。为了避免过渡季对节能分析误差的影响, 将过渡季的自然冷却模式与蒸气压缩模式同时开启的情况均按照蒸气压缩模式进行计算。本文中, PUE的定义为设备总功耗与信息技术(information technology, IT)设备功耗之比。数据中心的耗电设备包括IT设备、制冷系统和其他设备, 其中其他设备占总功耗的比例为10%。具体计算公式如下:图片
式中: Ptotal为数据中心设备总功耗,PIT为IT设备总功耗,Pcooling为制冷系统总功耗,,Pothers为其他设备总功耗。Pfan-in为末端的风机功耗, Pfan-out为冷源测风机功耗,Pcom为压缩机功耗。室内模拟温度设定为25°C, 制冷循环采用R134a作为冷却介质。室内末端的风冷冷凝器的风机功耗Pfan-in可以简化为与质量流量的3次方成正比。质量流量设为Mindoor=7.04kg/s。Pfan-in用4系数表达式进行建模,功耗系数根据工业产品说明书和工业工程经验确定,本课题组前期工作已完成建模,如式(3)所示。室外冷源侧的风机功耗Pfan-out采用本课题组前期实验数据拟合的功耗曲线,可以简化为与室外环境干球温度Tamb的3次多项式关系,Pfan-out用4系数表达式进行建模,如式(4)所示。图片
压缩机功耗Pcom根据压缩机性能曲线,通过蒸发温度Teva和冷凝温度Tcon之间的关系,用 10系数表达式建模。蒸发温度与冷凝温度的取值基于本课题组对换热器运行特性的测试数据与工程经验,通过换热端温度差进行计算。压缩机功耗的表达式为图片
为对比分析系统在不同气候条件下的能效,本文基于EnergyPlus提取北京、广州、哈尔滨、西安和上海5个中国典型气候区域城市的标准气象年全年8760h逐时气象数据,并结合构建的系统能耗模型(式(3)—(5)),逐时计算制冷系统的运行功耗。再代入式(1)和(2)进行时序计算,得出全年逐时PUE值。5个城市全年PUE的变化趋势如图10所示。图片
对于北京,系统#2全年PUE(PUEannual =1.16) 远低于数据中心的平均全年PUE(PUEaverage = 1.49)以及北京新建数据中心的规定全年PUE (PUEnewbuilt =1.30)。因此,采用本文提出的系统#2的数据中心,比目前运行的数据中心可以节省约30%的总用电量。可见,系统#2在工业工程中具有巨大的节能潜力。由图10可知,系统#2在北京和西安的全年PUE低至1.16,在哈尔滨低至1.14,在广州和上海低至1.18,均明显低于传统 CRAH系统。可见,在中国大部分地区的全年多数时间内,系统#2可实现无压缩机、无水、无泵的换热过程。本文提出的相变风辅液冷系统的先进性不仅体现在节能指标PUE的大幅降低, 还体现在能够同时实现节水。传统机房空调系统依赖水作为传热介质(包括冷冻水和冷却水), 耗水量大, 对周边水资源需求量大。由于相变风辅液冷系统的制冷剂均为R134a, 传热过程中不使用水, 用水效率 (water usage effectiveness, WUE) 达到最优。制冷系统实现无水运行, 可以克服在缺水地区部署数据中心的困难。进一步分析系统#2在数据中心应用的节能潜力与经济效益。节电量Welec可以用式(6)计算。Welec=PIT tannual (PUEaverage-PUEnew-system ).(6) 其中: tannual是系统在全年运行的时间, 由于数据中心全年运行, 因此该值为8760 h; PUEaverage采用CDCC统计的2021年全国数据中心的平均PUE, 为1.49; PUEnew-system为本研究提出的系统#2在全 年运行下的能效值。系统的投资回收期可以用式(7) 计算。图片
其中投资回收期n可以通过综合评估成本和效益来计算。成本是指初始系统成本和运行/维护成本, 效益是指节电量。根据前期工程经验, 设置初始系统成本Ci为20万元, 每年的运行/维护成本Co是初始成本的8%。节省电量的费用是节电量Welec乘以工业电价Celec,其中工业电价Celec为0.7元/(kW·h)。以北京为例, 对于50kW总热负荷的数据中心来说, 采用相变风辅液冷系统#2可以节省电量为173.4MW·h, 投资回收期n为1.89a, 经济效益显著。本文提出的系统#2不仅显著提升了冷却系统运行效率, 也大大增强了冷却系统在北方缺水及电价高敏感区域的适应能力, 为数据中心绿色发展提供了有效的冷却技术方案。4 结 论本文面向高功率密度数据中心散热与节能需求, 提出了两种相变风辅液冷系统, 分别为基于风冷改造方案和热管复合空调结合方案。两种方案均采用无泵驱动的气液相变换热机制, 兼具模块化结构与灵活部署特性。通过实验测试与不同气候区域典型城市全年能耗建模分析, 验证了系统的散热性能、节能效果与工程适应性, 得到如下结论:1) 搭建的基于风冷改造方案的系统在50kW热负荷下运行稳定, 气液管平均温度为39.85°C, 5个不同高度的蒸发器表面平均最大温差为1.9°C, 验证了其良好的散热能力与温度均匀性。该系统适用于传统机房的低成本改造。 2) 在风冷改造方案的基础上, 在室外冷源侧布设热管复合空调, 可以显著优化传热路径, 使系统具备充分利用自然冷却的能力。该系统在北京和西安的全年PUE低至1.16, 相较于传统CRAH系统, 节能效果提升可达约30%, 且在不同气候区域均具备能效优势。该系统具有较短的投资回收期 (约1.89a), 且在节能、节水方面优势显著, 为绿色数据中心建设提供了可推广的工程解决方案。转自:DeepKnowledge,来源:清华大学学报 (自然科学版)作者:王 露, 王馨翊, 张 博, 陈晓轩, 李 震 本站仅提供存储服务,所有内容均由用户发布,如发现有害或侵权内容,请点击举报。天盛优配提示:文章来自网络,不代表本站观点。