液冷技术相较于传统风冷技术,具有低能耗、高散热、低噪声和低 TCO 等优点,符合数据中心高能耗、高密度的发展趋势:
1)高效散热:液体的冷却能力是空气的 1000-3000 倍,使得液冷技术更适用于高能耗、高功率的服务器应用场景。
2)节能降耗:液冷系统可实现更高能效比,降低数据中心能耗。液冷技术(尤其是浸没式液冷)可将数据中心的PUE值降至1.2以下,相较于传统风冷技术,可以节省电量30~50%。
3)提高设备可靠性:液冷技术可以减少因高温引起的设备故障,延长服务器的使用寿命,并避免因风扇引起振动和噪音。
4)节省空间:液冷技术允许更紧凑的服务器布局,无需像风冷那样需要较大的空气流通空间,从而节省了数据中心的占地面积。5)提高功率密度:液冷技术可以支持更高的机架功率密度,满足高性能计算和 AI 应用的需求。浸没式液冷方案可以将单机架功率提升到 100kW 甚至 200kW 以上。
冷板式和浸没式等主流液冷技术在散热性、集成度、能效等冷却效果指标上显著优于传统风冷技术。
人工智能变革和数字经济转型趋势下,数据中心往高能耗、高密度方向发展,液冷技术应用渐广。传统的风冷方式只能满足 2.7kW/机柜的数据中心散热需求,无法适应中高密度数据中心需求。液冷技术利用高比热容的特点和对流传热的能力,可以满足 2.7-30kW/机柜的数据中心散热需求,解决超高热流密度的散热问题,未来液冷技术必将在数据中心领域得到愈加广泛的应用。
AI 大模型对算力需求大,推动 AI 基础设施建设。AIGC 行业进入高速发展期,AI 大模型性能持续提升的背后是千亿级以上的参数训练,带来对算力的高额需求,有望推动新一轮 AI基础设施建设。根据 OpenAI 官网,AI 模型训练计算量自2012 年起每 3.4 个月就增长一倍。
以 GPT-3 模型为例,根据 lambdalabs 数据,该模型参数规模达 1750 亿,完整训练运算量达 3640PFlop/s-days(以 3640PFlop/s 速度进行运算,需要 3640 天)。模型完成单次训练约需要 355 个 CPU 年并耗费 460 万美元(假设采用 Nvidia Tesla V100 芯片)。
高算力需求迫切,推动 AI 基础设施建设。高训练算力需要与相应基础设施匹配,根据《2022-2023 中国人工智能计算力发展评估报告》预计,2023 年全球 AI 支出增速有望达 27.9%,而中国智能算力规模将达 427EFlop/s,同比增长 59%。
人工智能行业高速发展,算力巨额缺口推动 AI 服务器出货量高速增长。2023 年全球普通AI 服务器/高端 AI 服务器出货量分别为 47.0 和 27.0 万台,较 2022 年分别同比增长 36.6%和 490.5%,并预计 2024 年全球普通 AI 服务器和高端 AI 服务器出货量分别为 72.5 和 54.3万台,分别同比增长 54.2%和 172.0%。
AI 服务器出货量高速增长
资料来源:华勤技术投资者关系公众号,源达信息证券研究所,思瀚
根据 2023《中国液冷数据中心市场深度研究报告》,预计 2024 年中国液冷数据中心市场规模有望达 236.3 亿元,同比增长 53%。基于市场需求发展及产业生态建设进程,未来五年中国液冷数据中心市场将以 59%的复合增长率持续发展。预计到 2027 年,AI 大模型商用落地,液冷生态趋于成熟,市场规模将出现较大幅度增长,有望达到 1020 亿元。
更多行业研究分析请参考思瀚产业研究院官网,同时思瀚产业研究院亦提供行研报告、可研报告、产业规划、园区规划、商业计划书、专项调研、建筑设计、境外投资报告等相关咨询服务方案。