首 页
研究报告

医疗健康信息技术装备制造汽车及零部件文体教育现代服务业金融保险旅游酒店绿色环保能源电力化工新材料房地产建筑建材交通运输社消零售轻工业家电数码产品现代农业投资环境

产业规划

产业规划专题产业规划案例

可研报告

可研报告专题可研报告案例

商业计划书

商业计划书专题商业计划书案例

园区规划

园区规划专题园区规划案例

大健康

大健康专题大健康案例

行业新闻

产业新闻产业资讯产业投资产业数据产业科技产业政策

关于我们

公司简介发展历程品质保证公司新闻

当前位置:思瀚首页 >> 行业新闻 >>  产业投资

AI 算力:全球基建浪潮高增,核心产业链全面受益
思瀚产业研究院    2025-12-03

AI 大模型你追我赶,全球 CSP 加大 CapEx 投入

谷歌发布 Gemini 3 成为新一代大模型标杆,Scaling Law 再次得到强化。谷歌 Gemini 3突破原生多模态架构,将文本、图像、音频等信息统一处理,实现了深度的跨模态理解和关联推理,而不仅仅是简单的模态拼接。

Gemini 3 凭借百万级上下文窗口和 Deep Think 深度推理模式,在多项专业测试中表现超越竞争对手。Nano Banana Pro 则专注于图像生成,解决了角色一致性和文字精准渲染两大痛点,并能基于逻辑理解进行图像编辑。谷歌 Gemini3 Pro 重新定义了前端开发,将 Agent 与 UI 融为一体,或证明了 Scaling Law 依然是通往AGI 道理的灯塔。

全球 AI 大模型的你追我赶,是推动上游算力基础设施需求爆发的重要驱动力。目前,以谷歌 Gemini 3 Pro 为代表的新一代多模态大模型,凭借其在复杂推理、长文本理解和跨模态交互方面的卓越表现,正在引领全球 AI 技术前沿。这种旗舰模型的迭代速度和对算力消耗的指数级增长,直接决定了全球云服务商必须持续加大资本开支以满足训练和部署需求。

与此同时,国内头部互联网公司和 AI 初创企业亦在大模型领域展开激烈竞争,国产模型如通义千问、Kimi、文心一言等,在中文语境和特定场景应用上不断优化,技术差距正加速缩小,并积极适配国产算力平台。这种全球范围内技术你追我赶的态势,奠定了未来几年 AI 硬件产业链高景气的基调。

北美巨头与国内大厂在 AI 基础设施投入上形成共振,全球 CSP 资本开支大幅提升。受 AI强劲需求的驱动,全球云服务商(CSP)正迎来新一轮的资本开支扩张周期。北美科技巨头为抢占 AI 技术高地,持续加码基础设施建设,推动投资重心坚定地向算力侧及自研芯片倾斜。与此同时,随着大模型商业化进程的加速及自研训练需求的释放,国内云厂商的投资意愿也显著回暖,正在走出调整期并重回增长轨道。展望未来,在中美两大市场需求的“共振”下,AI 算力竞赛将持续深化,这为全球 CSP 资本开支维持长期上行趋势提供了坚实的逻辑支撑。

2026 年 CSP 资本支出合计或增长至 6000 亿美元以上,算力迈入新一轮结构性成长周期。TrendForce 上修 2025 年全球八大主要 CSP 资本开支总额增长率至 65%(原值 61%),并预期 2026 年 CSPs 仍将维持积极的投资节奏,合计资本支出将进一步推升至 6000 亿美元以上,年增 40%,展现出 AI 基础建设的长期成长潜能。这波资本支出成长将激励 AI Server需求全面升温,并带动 GPU/ASIC、存储器、封装材料等上游供应链,以及液冷散热模块、电源供应及 ODM 组装等下游系统同步扩张,驱动 AI 硬件生态链迈入新一轮结构性成长周期。

全球 AI 基建 CapEx 动能强劲,拉动 AI 服务器出货保持高增长。2026 年来自 CSP、主权云的需求持续稳定,加上 AI 推理应用蓬勃发展,我们预计 AI 服务器出货量维持高增速。根据 Gartner 数据,2024 年全球 AI 服务器出货量 160 万台,同比增长 59%,预计 2025/2026年将增长至 200 万/240 万台,同比增长 24%/17%。

全球 AI 基建 CapEx 动能强劲,拉动 AI 服务器出货保持高增长。2026 年来自 CSP、主权云的需求持续稳定,加上 AI 推理应用蓬勃发展,我们预计 AI 服务器出货量维持高增速。根据 Gartner 数据,2024 年全球 AI 服务器出货量 160 万台,同比增长 59%,预计 2025/2026年将增长至 200 万/240 万台,同比增长 24%/17%。

海外链:GPU 与 ASIC 共振,关注服务器与 PCB 等环节价值重塑

英伟达作为 AI 算力的领军者,其产品迭代节奏显著加快,持续引领行业性能天花板。从Hopper 架构到 Blackwell 架构,英伟达 GPU 在算力及 HBM 显存等指标上实现显著提升。英伟达预计在 26H2 推出 Rubin GPU 芯片,Rubin GPU 由两颗 Reticle 尺寸的核心组成,具备 50 PFLOPS 的 FP4 精度算力,并配备 288GB HBM4 高带宽内存。性能方面,VeraRubin NVL144 平台可达成 3.6 Exaflops 的 FP4 推理与 1.2 Exaflops 的 FP8 训练算力,相较 GB300 NVL72 提升约 3.3 倍。英伟达计划在 27H2 推出更高阶的 Rubin Ultra NVL576平台,将进一步把性能提升至 15 Exaflops。

产能瓶颈有望突破,英伟达 Blackwell+Rubin 至 26 年底预期出货 2000 万颗。黄仁勋在美国华盛顿特区 GTC DC 2025 大会上预计,到 2026 年底前,Blackwell 与 Rubin GPU 总出货量或将达到 2000 万颗,Blackwell 与 Rubin 将合计带来 5000 亿美元的 GPU 销售额。对比而言,上一代 Hopper 架构芯片在整个生命周期内仅出货了 400 万块。

大模型厂商你追我赶,推理需求提升推动 ASIC 芯片需求增长。LLM 推理可以分为预填(Prefill)、译码(Decode)两个阶段,Prefill 阶段需要可以进行高度并行的大矩阵计算,Decode 阶段则需要高带宽、低延迟的存储器,两个阶段对芯片的要求侧重不同。目前市场上的 AI 芯片(多数是 GPU),通常采用“一体适用”的设计,也就是用同一颗芯片来跑完Prefill 和 Decode 两个阶段,造成了一定的资源浪费。为顺应推理需求增长,各大 CSP 积极开发自研 ASIC,考量成本效益与高能效比。其中其中 Google 于 2025 年 4 月份推出了首款适用于 AI 推理时代的第 7 代 TPU- Ironwood ,Meta 的 MTIA 2 同样也已于 2025 年第三季量产。

AI 服务器架构升级,关注 ODM、PCB 等环节价值量提升。AI 服务器正从单 GPU 组件升级向机架级(rack)集成设计演进,叠加算力密度的跳跃式提升,机柜需求或将迎来快速增长。英伟达 2024 年推出 GB200 NVL72 采用第一代 Oberon 架构,2025 年量产第二代Oberon 架构产品 GB300 NVL72,预计 2026 年下半年推出第三代 Oberon 架构的 VeraRubin NVL144,且 27 年推出的 Vera Rubin NVL576 有望升级为 Kyber 架构。架构升级有望带来 ODM 毛利率不断提升,工业富联作为全球 AI 服务器 ODM 龙头,已切入英伟达及ASIC AI 服务器核心供应链,市场份额有望稳定提升。

AI 服务器架构升级,关注 ODM、PCB 等环节价值量提升。AI 服务器正从单 GPU 组件升级向机架级(rack)集成设计演进,叠加算力密度的跳跃式提升,机柜需求或将迎来快速增长。英伟达 2024 年推出 GB200 NVL72 采用第一代 Oberon 架构,2025 年量产第二代Oberon 架构产品 GB300 NVL72,预计 2026 年下半年推出第三代 Oberon 架构的 VeraRubin NVL144,且 27 年推出的 Vera Rubin NVL576 有望升级为 Kyber 架构。架构升级有望带来 ODM 毛利率不断提升,工业富联作为全球 AI 服务器 ODM 龙头,已切入英伟达及ASIC AI 服务器核心供应链,市场份额有望稳定提升。

国产链:软硬解耦加速 AI 算力落地,产业链上下游共同受益

在供应链安全与自主可控需求的推动下,国产算力芯片正加速缩小与国际先进水平的差距。一方面,国内 AI 大模型的性能水平在全球保持较强的竞争实力,CSP 龙头在 AI 基建的投资需求扩张;另一方面,美国对华芯片制裁使得英伟达 GPU 在大陆禁售,给国产 AI 算力芯片带来大量空间。以华为昇腾、寒武纪、海光信息为代表的国产算力芯片性能不断提升,并随着良率突破,市场份额有望不断增长。以华为昇腾芯片为例,25Q1 推出昇腾 910C 芯片,后续或将在 26Q1 推出全新的昇腾 950PR 芯片,26Q4 推出昇腾 950DT 芯片,27Q4,华为将推出昇腾 960 芯片,28Q4 推出昇腾 970 芯片。

DeepSeek-V3.1 使用 UE8M0 FP8 Scale 的参数精度,国产 AI 芯片迎接战略性机遇。DeepSeek 发布的 V3.1 模型使用了 UE8M0 FP8 Scale 的参数精度,是针对即将发布的下一代国产芯片设计的。UE8M0 是 MXFP8 路径里的“缩放因子”,其优势包括缩短时钟关键路径;指数表容纳跨度大,为后续块缩放提供充足空间;在保持 8 bit 张量精度的同时大幅减少信息损失。我们关注到,目前多家国产 AI 芯片厂商的下一代产品都或将支持 FP8 计算,这表示国产 AI 正走向软硬件协同阶段,或能实质性减少对海外算力的依赖,我们认为,V3.1的发布为国产 AI 芯片产业链带来了战略性机遇,AI 芯片替代进程有望提速。

先进制程的演进虽然面临外部限制,但晶圆代工厂的技术突围仍在持续。尽管面临地缘政治挑战,全球晶圆代工厂在制程节点的推进上依然按部就班。从 FinFET 向 GAA(全环绕栅极)晶体管架构的演进,将进一步提升芯片的能效比。对于国产算力而言,利用成熟制程通过 Chiplet(小芯片)架构和先进封装技术提升系统级性能,已成为明确的技术路径。

国内 IP 授权及芯片定制服务商显著受益于系统厂商造芯的浪潮。随着互联网大厂及系统厂商纷纷涉足自研芯片,对上游 IP 核及设计服务的需求激增。以芯原股份为代表的一站式芯片定制服务商,能够提供从芯片定义、设计到流片的完整解决方案,帮助客户降低研发风险并缩短上市周期。在算力专用化趋势下,这类赋能型企业的价值量有望持续提升。

更多行业研究分析请参考思瀚产业研究院官网,同时思瀚产业研究院亦提供行研报告、可研报告(立项审批备案、银行贷款、投资决策、集团上会)、产业规划、园区规划、商业计划书(股权融资、招商合资、内部决策)、专项调研、建筑设计、境外投资报告等相关咨询服务方案。

免责声明:
1.本站部分文章为转载,其目的在于传播更多信息,我们不对其准确性、完整性、及时性、有效性和适用性等任何的陈述和保证。本文仅代表作者本人观点,并不代表本网赞同其观点和对其真实性负责。
2.思瀚研究院一贯高度重视知识产权保护并遵守中国各项知识产权法律。如涉及文章内容、版权等问题,我们将及时沟通与处理。