在AI浪潮席卷全球的今天,算力已成为推动科技进步与经济转型的核心引擎。然而,随着大模型参数规模呈指数级增长,一场看不见的“热危机”正悄然逼近——散热,已成为制约算力发展的关键瓶颈。
在2025年12月11日上午举行的“2025算电协同发展论坛”上,一场关于“热”的讨论,却让在场听众感受到了AI算力基础设施领域的“冷思考”。深圳市艾特网能技术有限公司产品行销部高级总监徐方成发表了题为《突破“热屏障”:AI大模型背后的风液协同冷却与实践》的主题演讲,系统阐述了在算力爆发时代,冷却系统正从“配套角色”转变为“核心制约”的行业现实。
深圳市艾特网能技术有限公司产品行销部高级总监徐方成
当天论坛结束后,徐方成在IDCC产业大典采访间接受了IT168记者专访,进一步深度解析了风液协同冷却技术的现状、挑战与未来路径。从论坛讲台到采访现场,一条清晰的逻辑主线浮现:当AI算力冲向千卡万卡规模,散热已不仅是技术问题,更是战略问题。
从“算电协同”到“算电冷协同”:一个被低估的三角关系
“今天论坛的主题是‘算电协同’,但我想提出一点——再往上走,应该是‘算电冷协同’。”徐方成在演讲开场便抛出这一观点。他指出,当前制约算力发展的不仅是电力供应,冷却系统正日益成为关键瓶颈。“华东、华南等算力集中区域恰恰是绿电稀缺地区,‘东数西算’战略正是为此布局。而冷却,将成为继电力之后下一个制约算力规模的核心因素。”
这一判断基于一个严峻的现实:GPU芯片热设计功率(TDP)的攀升速度已远超传统散热技术的适应能力。徐方成透露,国内智算中心单机柜功率密度目前集中在50kW以内,而国外采用液冷方案的案例已突破100kW。“摩尔定律放缓、英伟达GB200之后芯片迭代的阶段性停滞,背后都有散热技术的极限在起作用。”
记者注意到,这一观点在业内正形成共识。当AI服务器单机柜造价从传统的十几万元飙升至几百甚至上千万元时,冷却系统的可靠性已不再是“成本项”,而是“风险项”。“冷却的及时性、高可靠性必须置于节能之前。”徐方成强调,“一个价值千万的机柜若因散热失效损毁,损失远非PUE数值所能衡量。”
液冷落地之痛:理想丰满,现实骨感
尽管液冷技术被视为高密散热的必然选择,但其规模化落地仍面临从设计到运营的全链条挑战。徐方成在采访中系统梳理了其核心痛点:
设计维度,首要难题是“规划滞后于需求”。“功率密度持续攀升,风液需求难以提前确定,导致兼容成本高企。”现有液冷系统通常包含一次侧、二次侧两套水循环,再加独立风冷系统,架构复杂、故障点多。更棘手的是标准化缺失——不同厂商的服务器接口、软管材质、密封材料各不相同,“互插混插”成为常态。
可靠性风险尤为突出。“冷板液冷先天备份性差,管网设计需考虑降低故障‘爆炸半径’。徐方成直言,“软管接头漏液可能直接导致服务器损坏,这类事故的代价是基础设施无法承受的。”
运营挑战同样不容小觑。二次侧冷却液中的添加剂会降低换热性能、增加系统阻力,反而削弱节能效果。水质管理更是“隐形杀手”——脏堵、腐蚀问题频发,维护周期短,往往需额外配置水处理设备。
“运维团队的专业断层是另一个现实问题。”徐方成坦言,“液冷系统的维护与传统风冷差异巨大,需要定期检查冷板、水质、管路、CDU等,目前行业人才储备明显不足。”
此外,供应链体系的不完善、零部件质量控制的不稳定,共同构成了液冷技术规模化部署的“隐形屏障”。这些痛点若不能系统解决,液冷将始终停留在“示范项目”阶段,难以支撑AI算力的爆发式增长。
风液协同:不是替代,而是融合
面对上述挑战,艾特网能提出了“从我到我们”的融合思路——不是从风冷完全转向液冷,而是实现风液协同、动态适配。徐方成重点介绍了两种创新方案:风液同源水侧方案与制冷剂侧“无水”液冷架构。
风液同源水侧方案的核心在于“统一环路、智能调度”。该方案将CDU(冷却分配单元)与风侧空调集成在同一套冷却水系统中,打破了传统液冷与风冷“各自为政”的架构。“就像一套水系同时满足灌溉与饮用,我们让同一套冷却水同时服务液冷CDU和风冷空调。”徐方成解释,“这不仅简化了系统设计,降低了成本,更能实现风液比例的动态调节,智能匹配不同机型与负载变化。”
“无水”液冷架构则是面向极限场景的前瞻布局。随着GPU芯片TDP持续升高,二次侧冷却液温度需降至30℃以下,传统冷却塔已无法满足要求。“‘无水’架构在一次侧完全采用冷媒循环,省去了水系统维护与水质处理的负担,特别适合缺水或高温地区部署。”
徐方成透露,艾特网能正在推进更前沿的技术探索——二次侧采用低沸点相变介质的相变冷板液冷。“如果技术成熟,未来甚至可能省去CDU这一中间环节,实现一次侧相变冷机直接供冷,系统将更加简洁高效。”
标准引领与实践验证:推动产业走向成熟
技术突破需要标准引领,也需要项目验证。徐方成表示,艾特网能深度参与了多项国标、行标的编制工作,包括已发布的GB 19413-2024和即将于2026年发布的首个算力基础设施标准《算力设施工程技术标准》以及GB 50174、GB 40879等核心标准的修订。
他特别指出GB 19413能效计算方法变化对行业的深远影响。“新标准下,机房空调的能效考核更加严格,CLF(PUE制冷因子)计算方式调整,对实现PUE 1.15以下的目标提出了更高挑战。”
与此同时,行业正在讨论将IT设备内部风扇功耗计入PUE分母的可能性。“智算服务器风扇功率可能占整机20%,这部分功耗若从IT设备剥离计入基础设施,将进一步推高PUE值。”徐方成认为,这客观上倒逼基础设施厂商进行能效调优与产品迭代。
在实践层面,艾特网能已交付多个标杆项目:北方某智算中心15MW液冷项目采用“磁悬浮相变+风墙冷却”技术;新疆某数据中心超10MW液冷布局正在推进;多个单机柜功率20-50kW的高密风冷场景也已稳定运行,这些实践为其技术方案提供了扎实的验证基础。
结语:冷却,是基础设施,更是战略能力
从“算电协同发展论坛”的讲台到IDCC采访间,徐方成始终在传递一个核心信息:冷却系统必须被提升到战略高度。“从‘西电东送’到‘东数西算’,从3060双碳目标到源网荷储一体化,国家能源战略正在系统布局。冷却作为连接算力与电力的关键环节,决定了AI基础设施的能效上限与可靠底线。”
在记者看来,这场关于“热屏障”的讨论,揭示了一个更深层的产业逻辑:在AI算力竞赛中,冷却已不仅是“配套工程”,更是“核心能力”。随着国产芯片加速突围、算力需求持续爆发,一套高效、可靠、绿色的冷却体系,将成为中国在全球AI竞争中不可或缺的“隐性基础设施”。
“我们不再讨论是否该用液冷,而是如何用好液冷,如何让风与液更好地协同。”徐方成这句话,或许正指明了下一代数据中心冷却技术的发展方向——融合、智能、可持续。而突破“热屏障”的过程,实则是突破算力发展天花板的过程。在这场静默却关键的技术演进中,中国企业正在给出自己的解决方案。