2024 年 2 月 15 日,OpenAI 发布人工智能文生视频大模型 Sora,可以根据用户的文本提示创建最长 60 秒的逼真视频。模型效果远超所有此前文生视频模型。英伟达人工智能研究院首席科学家 JimFan 称“这是视频生成领域的 GPT-3 时刻”。2 月 16 日,谷歌发布Gemini 1.5,支持 100 万 token 上下文窗口,并在长上下文理解方面取得突破,距去年 12月 Gemini 1.0 发布时间间隔不到 3 个月。
开年以来 AI 行业不断迎来催化,强化了市场对于实现通用人工智能的信心,预计全球科技领域的巨头将持续向 AI 投入资源,加速产业发展进程。2024 年 2 月 22 日,英伟达发布 Q4 业绩情况。Q4 实现营收 211 亿美元,高基数基础上环比增长 22%,同比大幅增长 265%,超越市场预期的 204.1 亿美元,单季收入即超 2021 年全年。英伟达 CFO 表示,目前 GPU 的供应正在改善,且需求强劲。
并预计下一代产品的市场需求将远远超过供给水平。2024 年 5 月 22 日,英伟达发布 2025 财年第一财季业绩情况,Q1 实现收入 260 亿美元,高于市场预期的 246.9 亿美元,其中数据中心收入 226 亿美元,高于市场预期的 211.3 亿美元。Q1 毛利润率为 78.9%,高于预期的 77%。英伟达预计第二财季收入为 280 亿美元,将高于市场预期的 268 亿美元。英伟达业绩持续超市场预期,印证了 AI 行业发展的高持续性。
AI 行业的持续快速发展将带来高算力需求,进而带动机柜数量和单机柜功率双增长,数据中心正朝高密度方向发展。随着单机柜功率密度增大,传统风冷散热方式将逐渐无法满足散热需求,服务器液冷有望迎来加速发展。
3 月 19 日在 GTC 大会上,英伟达重磅发布 B200 芯片与 GB200 芯片,与前代 H100 相比,B200 的算力提升了 6 倍。GB200 芯片则是基于 B200 GPU 打造的 AI 加速平台,由两个 B200GPU 和一个 Grace CPU 组成。在具有 1750 亿个参数的 GPT-3 LLM 基准测试中,GB200 的性能是 H100 的 7 倍,而训练速度是 H100 的 4 倍。
随着 GPU 性能的提升,功耗也在不断增加,大会上英伟达还重点介绍了与 B200 芯片和 GB200 芯片配套的液冷技术。通过液冷散热方式的改变,英伟达实现了高密度部署和提升散热效率的目标,使得单机柜的功率能够达到较高的水平。英伟达 CEO 黄仁勋曾提到,坚信浸没式液冷技术就是未来指标,将带动整片散热市场迎来全面革新。英伟达的选择在业内具有风向标意义,这次发布会或将成为液冷发展的重要推动力,将为整体 AI 服务器市场带来划时代的技术革新。
工业富联旗下子公司鸿佰科技出席了英伟达 2024 GTC AI 大会,展出与英伟达合作开发的新一代 AI 服务器与液冷机柜等多项技术和解决方案。会上,鸿佰科技展出多种 AI 服务器产品,包括Ingrasys NVIDIA MGX 服务器、搭配液冷解决方案的 AI 加速器 GB6181、AI 数据中心液冷解决方案 GB200 NVL72、ES2100 储存系统等。
在国内,液冷渗透率提升趋势在三大运营商 AI 服务器集采中亦得以彰显。2023 年 8 月 21日,中国电信发布 AI 算力服务器 (2023-2024 年)集中采购项目集中资格预审公告。集采的产品品类分别为训练型风冷服务器(I 系列)、训练型液冷服务器(I 系列)、训练型风冷服务器(G 系列)、训练型液冷服务器(G 系列),共计 4175 台,其中风冷型服务器3121 台,液冷型服务器 1054 台,液冷服务器占比约 25%。
2024 年 1 月 17 日,中国移动通信有限公司发布《中国移动 2023 年至 2024 年新型智算中心(试验网)采购(标包 12)》招标公告。采购人工智能服务器 1250 台及配套产品,其中风冷型服务器 106 台,液冷型服务器 1144 台,液冷服务器占比超 90%。液冷服务器在运营商集采中占比提升。