首 页
研究报告

医疗健康信息技术装备制造汽车及零部件文体教育现代服务业金融保险旅游酒店绿色环保能源电力化工新材料房地产建筑建材交通运输社消零售轻工业家电数码产品现代农业投资环境

产业规划

产业规划专题产业规划案例

可研报告

可研报告专题可研报告案例

商业计划书

商业计划书专题商业计划书案例

园区规划

园区规划专题园区规划案例

大健康

大健康专题大健康案例

行业新闻

产业新闻产业资讯产业投资产业数据产业科技产业政策

关于我们

公司简介发展历程品质保证公司新闻

当前位置:思瀚首页 >> 行业新闻 >>  产业投资

AI 算力加速升级,液冷产业链空间广阔
思瀚产业研究院    2025-10-10

1.算力发展+政策推进,液冷渗透率快速提升

AI算力时代,数据中心能耗大幅增长。随着AI大模型的快速发展,全球算力规模快速提升。根据IDC预测数据,2025年我国智能算力规模将达到1,037.3EFLOPS,并在2028年达到2,781.9EFLOPS,2023-2028年中国智能算力规模和通用算力规模复合增速将分别达到46.2%和18.8%。

算力规模的快速增长,将加剧数据中心能耗挑战,根据IDC数据,2024年全球AI数据中心IT能耗(含服务器、存储系统和网络)达到55.1TWh,2025年将增至77.7TWh,是2023年能耗量的两倍,而到2027年则将增长至146.2TWh。22-27年复合增速将达到44.8%。

单机柜功率持续提升,算力中心高密化趋势加速。算力训练以高度集中化的GPU集群为依托,近年来GPU芯片算力实现大幅提升,英伟达芯片TDP设计功耗从H100/H200/H800的700W,提升至B200的1000W,而GB200更是达到2700W。

随着芯片功耗的快速提升,数据中心单机柜功率密度也进一步增加。AI服务器通常由8卡GPU或NPU模组构成,单台服务器功耗约为5-10kW,而进一步组成整体机柜时,功率密度将达到40kW以上。未来随着AIDC的发展,机柜功率密度有望进一步提升。以英伟达服务器为例,DGX架构8卡GPUH100服务器额定功耗为10.2kW,安装4台服务器的风冷机柜功耗为42kW。新一代的GB200架构中,NVL36机柜功率密度为72kW,NVL72液冷机柜功率密度则为120kW。

风冷散热逼近极限,液冷渗透率有望快速提升。房间级风冷空调远端送风型式的散热能力上限为单机柜25kW,当单机柜功耗超过25kW时,房间级风冷空调将难以满足服务器的散热需求。根据美国暖通制冷空调行业协会ASHRAE的推荐,当芯片的TDP大于300W,机柜功率密度大于40kW以上时推荐使用液冷制冷技术。

政策明确PUE目标,液冷方案优势明显。近年来国家相继出台一系列与数据中心建设相关的政策,对电能利用效率(PUE)提出明确的规定。“东数西算”工程明确规定张家口、韶关、长三角、芜湖、天府、重庆集群的PUE限制在1.25以下,林格尔、贵安、中卫、庆阳集群的PUE限制在1.2以下。2024年国家发改委等部门发布的《数据中心绿色低碳发展专项行动计划》要求到2025年底,新建及改扩建大型和超大型数据中心电能利用效率降至1.25以内,国家枢纽节点数据中心项目电能利用效率不得高于1.2。

液冷是使用液体取代空气作为冷媒,为发热部件进行换热,带走热量的技术。相较于传统风冷散热方案更为简化,取消了冷水机组、空调末端等高能耗设备,优势明显。液冷技术利用液体的高导热、高传热特性,在进一步缩短传热路径的同时充分利用自然冷源,可实现PUE小于1.25的极佳节能效果。此外,在同等算力规模下,对于单机架功率20kW和40kW的场景,液冷技术可以比传统风冷节省约10%和14%的投资成本。

液冷数据中心规模增长迅速,冷板式为目前主流方案。按照液体与发热器件接触方式不同,液冷技术可分为冷板式、浸没式和喷淋式三种。其中,浸没式和喷淋式为接触式液冷,冷板式液冷为非接触式液冷。冷板式液冷通过铜、铝等导热性较好的金属构成的冷板散热器,将发热元器件的热量传导给散热器中的冷却液体。浸没式液冷是将服务器完全浸入冷却液中,全部发热元件热量直接传递给冷却液,通过冷却液循环流动或蒸发冷凝相变进行散热的一种方式。喷淋式液冷则是用冷却液直接喷淋芯片等发热单元,通过对流换热进行散热。

冷板式液冷:系统架构由室外(一次侧)和室内(二次侧)两部分组成,室外冷却塔中的冷却液通过室内冷却液体流量分配单元(CDU)提供冷却液循环动力,经冷却液体流量分配单元(CDU)二次侧输出并与服务器中CPU、GPU、内存等发热量大的电子元器件导热冷板直接进行热交换,形成的热液经冷却液体流量分配单元(CDU)输出到室外冷却塔进行冷却后再循环。

浸没式液冷:系统室外侧包含冷却塔、一次侧管网、一次侧冷却液;室内侧包含CDU、浸没腔体、IT设备、二次侧管网和二次侧冷却液。使用过程中IT设备完全浸没在二次侧冷却液中,因此二次侧循环冷却液需要采用不导电液体,如矿物油、硅油、氟化液等。按照热交换过程中冷却液是否存在相态变化,可分为单相浸没液冷和两相浸没液冷两类。

喷淋式液冷:系统主要由冷却塔、CDU、一次侧/二次侧液冷管路、冷却介质和喷淋式液冷机柜组成;其中喷淋式液冷机柜通常包含管路系统、布液系统、喷淋模块、回液系统等。

根据IDTechEx数据,预计2025年全球液冷组件市场规模在50-100亿美元之间,至2028年可达到约149亿美元,至2030年可达到250亿美元左右,2025-2030年CAGR约25%。在三大液冷技术路线中,冷板液冷技术应用范围较广,与服务器兼容情况较好,空间利用率高,且具备初期投资低、运维风险可控等成本优势,从冷却塔、CDU到液冷板组件供应链发展较为成熟、主流厂商技术方案标准化程度较高,在未来有望继续保持当前的主流地位。

预计2025年全球冷板式液冷市场规模为31亿美元,到2034年将增长至248亿美元,2024-2034年均复合增速为25.79%。浸没数据中心适配单机柜功率密度50kW以上的高密场景,其中单相浸没技术在最大程度保证冷却效果的前提下,实现对成本的大幅优化,随着油质冷却液的普及有望成为高密场景的标配。

今年以来随着AI产业的加速发展,我国液冷渗透率进一步提升。根据赛迪顾问数据,2024年我国新建液冷数据中心规模为109.4MW,同比增长54.30%。今年1-5月我国液冷机架在多数运营商新建数据中心占比高达60%-70%。预计2025年我国新建液冷数据中心规模有望大幅增长375.40%达到520MW,并有望在2027年突破1100MW,增速将高于数据中心整体水平。

2.液冷产业链及价值量拆解

液冷产业链上游为零部件和IT设备,其中零部件包括液冷散热模块(液冷板、CDU、Manifold、UQD快插接头等)、冷却液(氟化液、矿物油等)、循环设备(水泵、冷却塔、干冷器等)。中游为技术服务厂商,如浪潮信息、中科曙光、中兴通讯、英维克、高澜股份等。下游应用则覆盖数据中心、AI算力、电子通信、互联网、金融、能源、交通等领域,其中AI数据中心和超算中心是核心增长点。

液冷模块为液冷系统核心环节。一套完整的冷板式液冷系统可分为两大部分:一次侧系统和二次侧系统。一次侧系统主要指室外散热循环,二次侧系统则覆盖室内设备端的液冷循环。两套循环在CDU(冷却液分配单元)处进行热交换,在物理上是隔离的,避免室外水质影响室内精密设备。其中一次侧主要组件包括冷却塔/干冷器、冷却水管道、水泵/压缩机;二次侧则包括CDU、去离子水管道、液冷机柜、冷板,是系统的核心,对散热效果有直接影响。在液冷模块中,冷板、CDU、Manifold、UQD为四大核心硬件组件。

冷板:冷板主要由冷板基板、流道盖板、流体通道构成。冷板基板为冷板的底层部件,通过界面材料与发热器件直接接触。流道盖板为冷板的顶层部件,与基板密封形成封闭的腔体。冷板整体预留有配管或连接口,冷却液流过流体通道,并通过与流体通道的接触实现换热。

冷量分配单元CDU:主要功能是环路热交换及冷却液流量分配。CDU将热量从热源(如服务器等)传递到冷却介质中,从而实现对设备的有效冷却,作为整个液冷系统的“心脏”,负责提供并调节低温冷却液,为冷却液提供循环动力,通过换热器将其热量传递至一次侧系统冷源,实现冷却介质的降温。CDU设备组成包括板式换热器、二次侧循环水泵、定压补液系统、膨胀罐、过滤器、控制调节阀、温湿度传感器、压力传感器、温度传感器、流量计、控制系统、触摸屏、电源模块、智能电表等配件。CDU根据布置方式不同,可分为分散部署的机架式CDU和集中部署的柜式CDU。按一次侧冷却方式不同,可分为风-液式CDU和液-液式CDU。

Manifold:用于连接液冷机柜CDU与冷板之间的主管路,是整个液冷循环通路的重要桥梁。液冷管路于配套阀门协同作用,实现液冷系统各部件间的连接及冷却液的可控输送。管路系统会集成电磁关断阀、电动调节阀及自动故障切换阀等组件用于实现冷却液流量调控、异常工况下的快速隔离与系统冗余切换。

UDQ:通用快接头,也称流体连接器,是冷板式液冷系统中的关键连接组件,主要用于分集液器(Manifold)与液冷节点之间的连接与关断,通常由公头(插头)和母头(插座)组成,公母头在Manifold和服务器上各有一个,互相配对使用。由于液冷服务器的关键在于防泄漏,而快接头在插拔过程中容易出现密封失效等问题,因此对快接头的密封性提出了极高的要求。

根据插拔形式,快接头可分为手插和盲插两种,其中,手插是依靠机房运维人员手动进行插拔操作,而盲插则是通过快接头模组实现服务器机架与机柜之间的液体自动连通与断开。英伟达在NVL72液冷整机柜服务器率先规模化使用UQDB(盲插快接头)。今年8月英特尔成立UQD互插互换联盟,首批认证合作伙伴包括英维克、丹佛斯、立敏达科技、蓝科电气和正北连接五家企业,此次联盟成立旨在构建液冷行业统一标准,通过制定通用快接头规范,各厂商产品将实现互插互换功能,有助于解决液冷系统兼容性问题,推动行业规模化发展。

液冷需求提升,价值量有望持续增长。以英伟达GB200NV72为例,目前机柜及服务器热管理为风液混合,服务器及交换机依然配置风扇,用于辅助非GPU、CPU部分散热,组件合计占整体价值的2.8%左右,单机架价值量约83770美元。其中,液冷部分单机架价值量约78820美元:

1)冷板部分,每台GB200NV72L配置18台服务器和9个交换机,每台服务器采用4GPU+2CPU,需配置6x18=108块冷板,单价300美元;每台交换机配置2块冷板,共需2x9=18块冷板,单价200美元;

2)CDU,每台GB200NV72L配置一台机架式CDU,单价3万美元;

3)Manifold,每台机柜配置两条Manifold,单价约2000美元;

4)UQD,单机柜用量约126对,单价70美元。

随着功耗伴随算力的进一步增加,英伟达GB300NV72将采用全液冷设计,不同于GB200的集成化架构,GB300为模块化架构,为每个GPU芯片配备专用的入口/出口液冷板。同时,英伟达最新推出的Rubin与下一代Feynman平台功耗预期将突破2000W,预计将采用全新的微通道水冷板MLCP技术,即通过将传统上覆盖在芯片上的金属盖与上方的液冷板整合,内嵌微通道设计,使液冷散热冷却液能够直接流经芯片表面,单价有望较现有散热方案提升3-5倍。算力的高速增长带动液冷方案的持续迭代升级,未来液冷解决方案价值量有望呈倍数级提升,市场空间广阔。

免责声明:
1.本站部分文章为转载,其目的在于传播更多信息,我们不对其准确性、完整性、及时性、有效性和适用性等任何的陈述和保证。本文仅代表作者本人观点,并不代表本网赞同其观点和对其真实性负责。
2.思瀚研究院一贯高度重视知识产权保护并遵守中国各项知识产权法律。如涉及文章内容、版权等问题,我们将及时沟通与处理。