由于 DeepSeek 模型训练成本的快速下降,直接导致了全球资本市场GPU行业的短暂恐慌,市场开始担心未来对于 GPU 等算力硬件的需求被过度放大。我们认为短期内由于各家 AI 巨头公司在大模型领域的“军备竞赛”不会停止,所以行业内算力支出金额的增长仍然难以看到放缓的趋势。
算力军备竞赛持续加剧
从 2022 年 Q4 到 2024 年,我们可以看到美国五大云服务提供商的AI 投资占比持续增长。2022 年 AI 支出占比普遍在20%-40%,至2024 年提升至50%-85%。此前,市场一致认为对于算力的需求没有上限,这导致全市场都对于算力产生了一种“恐慌性”需求。那算力需求真的会一直线性甚至指数级持续提升吗?
从算力瓶颈到数据瓶颈
根据此前提到的 Scaling Law,AI 模型性能(如准确率或生成质量)与模型规模、训练数据量及计算资源(如算力)之间成正相关关系。虽然目前提升算力确实能够推动 AI 能力的升级,但是这一切的前提是我们拥有充足的高质量数据投喂到训练过程中。
EPOCH AI 在 2024 年 6 月发布论文《Will we run out of data? Limits of LLMscaling based on human-generated data》,人类生成的公共文本数据总有效库存量约为 300T token(90%可能性在 100T 至1000T 之间)。按照目前大模型算力能力进化的趋势来看,2027-2028 年左右现有的大模型训练就将会耗尽所有的公开文本数据。
而根据目前 OpenAI 最新的模型 GPT4 参数规模的预估值1.8T,以及OpenAI每一代升级后至少一个数量级上升的速度。我们认为,在未来2-3 代模型升级时间之内,影响 AI 模型性能升级的关键将不再是算力投资。数据资源正在成为模型进化的重要瓶颈。
数据瓶颈之后的发展方向在哪里
虽然公开的文本数据正在以肉眼可见的速度被耗尽,但是仍然有大量的高价值专业数据,以及实时动态数据存在于各个行业公司,政府部门以及媒体领域。我们认为,未来 AI 模型的进化方向除了继续在算力硬件方面投资,更重要的是在专业细分领域利用数据资源优势实现具备差异化优势的细分模型。
目前最先进的模型(包括DeepSeek-R1)已经足够完成训练重点行业的数据集。因此,我们可以相信目前的算力水平已经足够完成细分行业的模型有效训练。也就是说在现有模型框架下,模型训练的算力需求并不会持续的以线性或者指数级方式增长,未来的算力需求主要来自于细分领域的推理需求。
更多行业研究分析请参考思瀚产业研究院官网,同时思瀚产业研究院亦提供行研报告、可研报告(立项审批备案、银行贷款、投资决策、集团上会)、产业规划、园区规划、商业计划书(股权融资、招商合资、内部决策)、专项调研、建筑设计、境外投资报告等相关咨询服务方案。