各大科技公司发展AI竞争激励,Tokens调用消耗量日益增长
大模型持续迭代,训练需求持续增长。
爆发起点:2023 年,ChatGPT3.5 点燃“大模型革命”,海外巨头率先发力。
万模大战:2024 年,ChatGPT4-o1模型能力进入60指数,其他模型能力进入“平台期”。
竞争白日化:2025年,各大科技公司持续迭代大模型,中国DS异军突起,行业竞争白日化。
大模型未来发展有可能再分化:复杂任务解决能力、多模态、解决模型幻觉等,或持续提升算力需求。
AI推理的token量出现爆发式增长。
(1)AI agent:Token 消耗从 “单次交互”转向 “任务链条式累积”,token用量也呈现爆发式增长。
(2)多模态模型:图像、视频、音频转换为模型可理解的 Token,会产生海量 Token。
(3)AI的渗透和生态发展:例如,Google的token用量从5月的月均480e增加到7月980e,Gemini app月活超过4.5亿,Google Cloud新增客户量环比+28%。
CSP互联网云厂进入AI军备竞赛状态,持续加大投入建设智算中心
海外CSP云厂的资本开支持续增加,景气度持续。
Google:2025年全年capex从750亿美元上调至850亿美元。月均Tokens达到980万e,AI Overviews 20+亿的月度用户,Gemini app月活4.5+eGoogleCloud新增客户量环比+28%。
Meta: 25年全年capex上调至660-720亿美元。宣布启动 Prometheus 与Hyperion 集群项目,重金组建44人超级智能实验室,.Family of Apps 生态月活34.8亿,Meta AI月活超10亿.
微软:FY2025全年资本开支800亿美元,预计FY26Q1资本支出超300亿。过去一年数据中心新增超2吉瓦容量,数据中心数量超400个。
AWS: 预计25年全年capex 1000亿美元。 Alexa+用户数超过10万。
国内五大CSP厂商资本开支持续攀升。
2025年Q1阿里资本开支增长126.7%,腾讯同比增长91%,百度预计2025年不断增加资本支出,字节、华为也有大幅投入,且多用于 AI 基础设施建设。
CSP互联网云厂开启自研ASIC算力芯片之路
CSP加速了ASIC研发,每家都有自研AISC芯片并发展数据中心,数通行业持续受益。AWS目前以与Marvell协同设计Trainiumv2为主力,其主要支持生成式 AI与大型语言模型训练应用,AWS也和Alchip合作Trainium v3开发。Google已于2024年底推出TPU v6 Trillium,主打能效比和针对AI大型模型的最佳化,官方称相比上一代训练能力提升4X,推理吞吐量提升3X。Meta已部署首款自研AI加速器MTIA后,正与Broadcom共同开发下一代 MTIA v2。
智算中心网络架构由Scale-up和Scale-out组成
数据中心内网络Scale-up/Scale-out对光模块需求量越来越大。Scale Up扩展算力的C2C互联技术,Scale Out做面向AI集群扩展。
AI底层互联技术:Serdes单通道速率升级,推动传输带宽升级到1.6T
Serdes技术升级。电信号传输能力核心是SerDes技术,是芯片与外界交换数据的基本单元,光端口带宽为Serdes带宽整数倍。SerDes的全称是SERializer(串行器)/DESerializer(解串器),是一种高速的时分多路复用(TDM)、点对点(P2P)的串行通信技术。224G SerDes产品在2024年开始逐步成熟,Marvell在FQ4 2024业绩电话会上表示,其下一代单通道200Gb/s速率的1.6T PAM DSP产品已经在客户侧进行认证。以太网、InfiniBand、PCIe等技术也在不断升级。
AI底层互联技术:英伟达、博通发力,加速迭代芯片升级发展
英伟达的 NVLink 自 2014年推出以来已历经五代演进,迭代速度持续加快。早期 1.0~3.0 版本聚焦机框内 GPU 高速互联,对标 PCIe 并依托 Ethernet生态实现带宽优势,还引入 NVSwitch 构建总线域网络;4.0 版本突破机框限制,对标 InfiniBand 和 Ethernet 网络。
博通交换机芯片持续迭代,覆盖Scale-up和Scale out场景 。如51.2TJ4交换机芯片覆盖Scale-out 数据中心间DCI互联场景和数据中心内的场景。Tomahawk 6(102.4T主要定位超大规模scale-out互联方案)、TomahawkUltra(51.2T超低延时,主要定位scale-up超节点高速互联),形成了AI数据中心完整的的产品矩阵。