(1)GPU 与 GPGPU 概述
GPU(Graphics Processing Unit),即图形处理器,又称显示核心、视觉处理器、显示芯片、计算芯片,是计算系统中程序运行的最终执行单元之一,在现代计算系统和电子设备的图形处理与并行计算等方面发挥着核心作用,已广泛应用于智算中心、工作站、智能终端等设备上。
GPU 从逻辑上可以划分为控制单元和运算单元等。控制单元从存储单元中获取可执行的代码,通过指令译码将其转换为可执行的指令,并通过线程管理、资源分配确保任务的高效执行;运算单元则基于获取的指令对存储单元中的数据进行运算,包括浮点运算、整数运算和张量运算等。
按照应用领域,GPU 通常可划分为图形 GPU 和 GPGPU(General-Purposecomputing on Graphics Processing Unit):
图形 GPU:应用于图形处理。早期 GPU 多被用于 2D 和 3D 图形处理(视频渲染、游戏渲染等),因为图形处理往往涉及到大量的矩阵运算,计算量大但易于并行化,GPU 通过简化控制单元并集成大规模的并行运算单元,实现对图形渲染等并行任务的良好支持。图形 GPU 通常内置图像渲染、视频编解码加速引擎、2D/3D 加速引擎等专用运算模块。
GPGPU:即通用 GPU,应用于高性能计算。近年来,随着人工智能、大数据的发展,GPU 由于在浮点计算、大规模并发运算领域具有强大的优越性,其应用领域逐渐向需要大量重复计算的人工智能训练/推理、复杂科学计算、大数据处理等高性能计算领域的方向持续演进,衍生出 GPGPU 分支。GPGPU 在原 GPU 架构的基础上,去掉了为图形处理而设计的加速硬件单元,并针对不同计算领域的需求增加了专用向量、张量、矩阵运算指令,提升了浮点运算的精度和性能,目前已成为智算芯片的首选。
GPGPU 具有高度并行性、高内存带宽与多级缓存的特征:
高度并行性:GPGPU 拥有大量并行计算单元,多条流水线可以在单一控制部件的集中控制下运行。
高内存带宽与多级缓存:GPGPU 通常集成高速的 GDDR 或 HBM 显存颗粒,提供高访存带宽以处理数据密集型运算;GPGPU 的多级缓存体系包括全局内存、共享内存、寄存器等,大幅提高数据访问效率、降低延迟。
(2)GPU 软件生态
软件生态是解决 GPU 易用性的核心,能够提高 GPU 在复杂任务场景下的性能表现,为高性能计算构筑深厚的技术壁垒。一方面,软件生态是硬件潜能释放的关键,GPU 实际使用性能与之紧密相关。GPU 硬件设计复杂度较高,需要软件层(包括驱动、编译器、数学库等)深度优化才能有效利用算力资源。
例如软件生态内丰富的工具链可以优化任务拆分和资源协调,提升 GPU 面向复杂任务的扩展性和稳定性。另一方面,软件生态能够重塑人工智能、数据科学等开发者场景的工作流程,支持工作流迁移,大幅提高了开发者的工作效率,不断培养开发者的软件使用习惯、增强开发者粘性,并逐渐形成生态壁垒。此外,随着多样化的人工智能应用在各行各业落地,软件层的快速迭代能够支持已有硬件资源灵活适应复杂多样的大模型新技术和应用场景需求。
GPU 软件生态主要由上层 AI 框架、算法应用,中层通信库、数学库及各类工具链,底层编译器、驱动程序等构成。作为软件生态建设的先行者与领导者,英伟达于 2006 年推出的通用并行计算架构和编程模型 CUDA 经过多年积淀,已形成了一套完整的开发工具链,内含非常庞杂的组件,开发者能够基于此使用主流编程语言编写代码、开发应用,而无需深入了解 GPU 底层硬件细节,学习成本和使用门槛较低,助力英伟达 GPU 产品快速拓展应用领域和持续优化用户体验。
如今整个人工智能计算的应用生态大多构建在 CUDA 的基础之上,其软件库覆盖率、AI 框架和算子库的支持度已较为完善,因而 CUDA 在人工智能和并行计算领域已占据绝大部分市场。截至目前,全球 CUDA 开发者超 600 万,加速库及模型数量突破 900 个。
对于国产 GPU 厂商而言,自建生态需要较长时间才能完成工具链完善与开发者迁移,因此国产厂商在自建生态的同时保持对CUDA 生态的兼容能够有效实现软件层的自主可控与平稳过渡,既能在中短期内保持较低的迁移成本、较高的迁移效率,增强客户使用国产 GPU 产品的意愿,长期来看也能降低对海外算力资产的依赖。
(3)GPU 市场概况
GPU 作为并行计算的核心,其应用领域从图形渲染扩展到高性能计算,逐渐在人工智能、智能驾驶、云游戏等诸多领域大规模应用,拥有广阔的市场前景。近年来,大模型的爆发引燃了 GPU 市场巨变,智算中心资本投入急剧增长,GPU在计算领域的应用快速超越其在图形渲染领域的应用,带动 GPU 整体市场规模高速增长。
以英伟达为例,2021 年英伟达数据中心业务占比为 39%,而 2024 年英伟达数据中心业务占比已达 88%,显著超越游戏部门,成为其 GPU 业务的核心增长极。根据 Verified Market Research 的数据,2024 年全球 GPU 市场规模为 773.9亿美元,2030年有望达到4,724.5亿美元,2024-2030年的复合增长率高达35.19%,呈现强劲的增长态势。
GPU 作为全球人工智能供应链的重要环节,近年来在中国发展速度较快且取得了显著进步。根据中商产业研究院数据,2024 年中国 GPU 市场规模约为1,073 亿元,同比增长 32.96%。但是我国 GPU 产业相较海外发达国家仍存在一定差距,具体体现如下:
第一,中国 GPU 市场拥有庞大的消费群体,然而大量的 GPU 需求高度依赖进口。根据 Precedence Research 的数据,2024 年亚太地区占据了全球 GPU 市场的最大份额 31%,其中中国、日本和韩国等主要国家发挥着关键作用。然而中国GPU 市场自给率较低,海外龙头厂商占据绝大部分市场份额。
第二,产业集中度低于发达国家。国产 GPU 厂商起步较晚,大多处于“从零到一”的阶段,直到近几年才真正实现大规模量产,且在产品能力和市场份额上与国际领先企业存在一定差距。而全球 GPU 市场集中度较高,市场份额基本由“一超一强”垄断。
第三,制造工艺受限于国际贸易政策。美国近年来出台了一系列政策限制全球头部晶圆厂为中国企业代工生产芯片,进一步影响国产先进制程 GPU 的迭代速度和商业化进展。伴随国家政策大力扶持、国内人工智能产业链各重要环节技术的不断成熟,国产 GPU 厂商将迎来关键发展机遇,进口替代迫在眉睫。
2、GPU 主要应用市场概况
GPU 被广泛应用于计算和渲染场景。在计算场景下,算力通常包括以 CPU、GPU 为载体,用于大数据处理、复杂科学研究等场景的通用算力,以及以 GPU、ASIC/DSA、FPGA 等人工智能芯片为载体,用于人工智能的训练和推理计算等场景的智能算力。
根据中国信通院的研究,2022 年我国通用算力稳定增长,增速达 26%,在我国算力占比约 40%;而智能算力增长迅速,增速为 72%,在我国算力占比达 59%,成为算力快速增长的驱动力。在渲染场景下,GPU 主要应用于游戏、专业制图等图形处理市场。
(1)通用 GPU 在人工智能计算领域的应用
通用 GPU 是人工智能芯片的主要分支,人工智能计算是通用 GPU 的重要应用领域。
1)人工智能行业发展背景
人工智能是一门融合计算机科学、数学、统计学、神经科学等多学科知识的综合性技术领域,旨在通过构建智能系统,运用神经网络、深度学习、机器学习等算法从大量数据中提取特征、模式和规律,使其具备模拟、延伸和扩展人类及自然智能的能力,如学习、推理、思考、规划等,继而让计算机实现更高层面的智能应用。
自 2022 年 11 月生成式 AI 的典型应用 ChatGPT 发布以来,人工智能正式进入黄金发展期,引领世界各国进入新一轮“军备竞赛”。从实现路径来看,算法、算力及数据是实现人工智能的三驾马车,其中算力是构筑人工智能时代的物理基石和底层基础设施,是开启人工智能时代的关键要素。
人工智能芯片作为驱动人工智能算法运转的物理载体,其计算能力深度影响大模型的效果及效率。根据 OpenAI 发布论文《Scaling Laws for Neural LanguageModels》中提出的“Scaling Law”理论,模型参数量、数据量以及计算资源的增长能得到更好的模型智能。随着大模型快速迭代,模型参数和训练数据量的持续增长与人工智能算法的不断更新增强,需要更强大的算力来支撑人工智能训练和推理过程,不断促进算力需求同步增长。
OpenAI 公司在 2018 年对人工智能模型与硬件发展趋势进行分析,认为基于 Transformer 的 AI 模型对算力需求增速远大于传统的 CNN 模型,并远超摩尔定律的演进速度,因而算力成为人工智能技术突破的关键要素。在新一轮人工智能发展浪潮下,国内外智算中心持续建设与扩容。IDC 数据显示,2020 年中国智能算力规模为 75.0 EFLOPS,到 2028 年预计将达到 2,781.9EFLOPS,预计 2020-2028 年复合增长率达到 57.1%。
2)人工智能芯片行业发展概况
A. 需求场景
对于大模型的计算需求,人工智能芯片在云端、边缘端和终端设备中均有广泛应用,该三种应用领域与不同的大模型需求场景密切相关,对于人工智能芯片的计算能力和功耗等特性有着不同要求。从需求场景来看,人工智能芯片主要应用于大模型“训练”和“推理”两个阶段,其中训练阶段也可以细分为“预训练”和“后训练”阶段:预训练阶段基于大量数据训练模型,不断调整和优化模型参数并进行大规模、反复的迭代计算,以实现最小化预测误差。
预训练阶段模型将学习大量无标注或弱标注数据,使其模仿人类语言构成训练数据集,进而具备各场景通用的生成能力、形成通用大模型。预训练阶段涉及大量模型参数,同时需要构建大规模智算集群对庞大数据集进行密集矩阵运算,因此训练芯片更注重计算能力和互连通信能力,并应具备较好的通用性以便完成不同深度学习任务。
后训练阶段也称微调、优化阶段,在预训练阶段形成的通用大模型的基础上学习小规模行业或特定领域专业知识,通常需要借助有标注的专业数据集针对模型输出层参数进行微调或优化(如量化、剪枝),通过强化学习等方式强化模型对特定领域的生成能力。后训练阶段的计算量不如预训练阶段大,但随着模型应用对特定领域知识的需求提升及强化学习等技术发展,后训练阶段在整个模型训练过程中的比重将逐步提升。
整个训练阶段结束以后,人工智能模型已经建立完毕,已可用于推理阶段。推理阶段是使用训练好的模型对新输入数据进行预测、推理或分析的过程。推理阶段的算力需求量与人工智能应用的调用量相关,当部署在云端时,推理芯片需要处理大规模数据和复杂任务的场景,对计算能力要求较高;当部署在边缘端或终端时,推理芯片更加注重综合性能水平,其中单位功耗、时延等都是衡量推理芯片性能的重要考量因素。
凭借高算力门槛,国际领先厂商英伟达的产品一直以来都是人工智能训练端的首选。而推理端(尤其是边缘端、终端推理)对芯片性能要求较训练端低,因此推理芯片市场百花齐放,各类芯片均占有一席之地。从需求结构来看,在人工智能技术探索阶段,算力需求主要来源于模型训练,因而目前训练需求在人工智能领域占据主要地位,但从中长期来看,随着训练模型的完善与成熟,人工智能推理应用有望大规模落地,推动推理阶段占比不断提升。
由于中国人工智能芯片市场起步较晚,国产厂商通常从门槛相对较低的推理端切入市场,目前已取得阶段性成果;而训练端的国产替代率仍相对较低。在海外高性能芯片出口管制不断升级的背景下,拥有高性能计算能力、产品可有效应用于训练端的国产 GPU 厂商将充分受益于国产替代。
B. 市场规模
IDC数据显示,2024年全球人工智能服务器市场规模预计为 1,251亿美元,2025 年将增至 1,587 亿美元,2028 年有望达到 2,227 亿美元。根据 PrecedenceResearch 数据,2024 年全球人工智能芯片市场规模约为 732.7 亿美元。随着人工智能技术日趋成熟,数字化基础设施不断完善,人工智能商业化应用将加快落地,推动人工智能芯片市场高速增长,预计 2030 年全球人工智能芯片市场规模将达到 3,360.7 亿美元。
在国际地缘政治加剧的背景下,中国加快了智能算力领域的战略布局,国内智算中心的快速建设推动了人工智能芯片的需求不断抬升。IDC 数据显示,2024年中国加速计算服务器市场规模达到 221 亿美元,同比 2023 年增长 134%;到2029 年,中国加速计算服务器市场规模将超过千亿美元。中商产业研究院预测,2025 年中国人工智能芯片市场规模将增长至 1,530 亿元,2020 年至 2025 年复合增长率达 53%。
中国作为全球人工智能芯片市场的重要参与者,预计将与全球人工智能芯片市场同频共振,成长空间巨大。作为人工智能芯片中占比最高的 GPU芯片,可以预见其在人工智能计算领域具有广阔的发展前景。
3)人工智能芯片技术路径
由于人工智能行业处于快速发展期,人工智能算法尚在不断开展前沿技术探索,因此也涌现了处理不同人工智能任务的芯片。人工智能芯片存在不同的技术路径和分类标准,目前尚无统一的划分标准。主流研究机构通常认为人工智能芯片包括通用型、专用型计算架构。
通用型芯片(GPU)具备灵活的指令集和精巧的处理器架构,可覆盖人工智能领域多元化应用场景,是目前主流的人工智能芯片计算架构。根据 IDC 数据,2024 年中国加速服务器市场中 GPU 服务器依然是主导地位,占据 70%的市场份额。从海外大模型厂商的算力布局来看,专用型芯片厂商如谷歌的整体算力储备中大部分算力芯片依然为 GPU 架构。
通用型芯片(GPU)在人工智能场景具有比较优势,主要系:
1)专用型芯片的设计目的是针对特定场景进行优化,其在更多维的计算类型和场景中适应性较低,通用性能不足。考虑到人工智能算法正处于不断发展演进的过程,模型结构并未固化,大模型的迭代速度持续加快、迭代创新日趋频繁,算子也随之快速变化,通用型芯片相较专用型芯片能更高效适应算法快速更迭的环境。
2)在云端,服务器需要服务下游不同的应用场景,客户快速迁移、大规模复制的能力更为关键,因此对人工智能芯片的通用性和灵活性要求较高。随着云端智算集群的需求快速扩张以及后训练、推理等阶段新模型结构的快速演变,具有更强通用性、灵活性和可扩展性优势的 GPU 架构仍将是未来主流的人工智能芯片技术路径之一。
(2)图形 GPU 在桌面端及游戏端的应用
计算机的图形处理任务主要由显卡承担。近年来大型 3A 游戏和专业图形渲染等应用领域不断提高对图形处理能力的要求,图形 GPU 作为显卡的核心部件,下游市场对其需求亦稳步提升。根据 Jon Peddie Research 数据,2024 年全球独立显卡出货量为 3,470 万张,相较去年同期同比增长 12%。
游戏市场是传统意义上图形 GPU 的主要应用场景,GPU 设计之初即专门用于加速特定 3D 渲染任务。当前全球游戏玩家数量较为稳定,相应维持了图形GPU 的市场规模。随着大规模开放世界、3A 级大作等新一代游戏不断推出,游戏玩家对高质量游戏画质、超高图像帧率、全景光线追踪等需求不断提升,需要更高性能的图形 GPU 在特殊渲染算法等性能方面提供支持。GPU 配置也成为游戏用户在选择笔记本电脑/主机过程中优先考虑的性能指标,进一步引发玩家换机需求,预计将为图形 GPU 行业带来新动能。
专业图像及视频渲染是图形 GPU 的重要应用场景,国内虚拟现实、美术设计、建筑设计、工程设计、影视动画等应用专业图形渲染技术的细分领域正在平稳发展。The Business Research Company 数据显示,2024 年国内图形渲染软件市场规模达到 84.3 亿美元,预计 2024-2029 年复合增长率为 9.6%。图形渲染软件借助高性能 GPU 提升图形处理能力,以支撑渲染技术的应用,因而为图形 GPU市场贡献了稳定的市场需求。
3、GPU 在下游垂直行业的应用前景
作为新一轮科技革命的核心驱动力,生成式人工智能正逐渐重塑全球产业格局,通过提升效率、优化决策和创造新模式,推动各行各业向智能化跃迁,其中教科研、金融、交通、能源、医疗健康、大文娱等与业务流紧密结合的人工智能应用场景有望率先实现商业化落地。GPU 芯片作为关键的底层算力资产,将充分受益于下游垂直行业的蓬勃发展。
(1)“AI+教科研”应用市场
高校、科研院所是人工智能生态圈的关键参与方、先行者,同时也是 AI forScience 的核心推动者,持续引领全球前沿技术的突破。作为基础研究与理论创新的源头,高校和科研院所借助人工智能技术,能够快速处理海量实验数据、识别潜在规律,实现降本增效、引领核心技术原始创新,并通过校企合作加速技术转化和产业升级。
材料科学中的分子模拟、生命科学中的基因测序与分析、中医药等需要处理海量数据和进行复杂计算的科研任务均是人工智能技术的重要应用场景。随着人工智能技术与教科研的深度融合,高校、科研院所已经成为 AI算力的重要需求方,例如清华大学、上海交通大学、复旦大学、浙江大学、香港科技大学等多所高校纷纷发布了千万元级别甚至上亿元的算力采购需求,国家实验室和省级实验室的 GPU 算力需求也在迅速扩张。
人工智能行业具有知识和人才密集、年轻化的特征,高校作为人才培养与知识沉淀的枢纽,通过顶尖学科建设培养了大量高性能计算、人工智能和信息技术人才,这些人才将是未来行业发展和持续创新的源动力。
在地缘政治、科技封锁持续升级的背景下,中国高校成为改写中国信息技术教育基因的关键,通过产学研合作、生态圈建设等方式将国产算力播种进校园,例如CCF开源委员会 AI Infra工委会,从高校教育开始即教学 GPU 异构编程与优化、软件工具链、大模型应用开发与部署的全国产化,长期来看将大幅降低我国人工智能行业对海外算力的依赖,真正推动我国智能算力自主可控。
(2)“AI+金融”应用市场
金融作为数据密集型、效率敏感型、业务场景及展业流程多样复杂的行业,具有人工智能技术应用的丰富场景、广阔空间和巨大效益,金融机构正纷纷加大投入、加快布局,力图抢占这一前沿技术竞争高地,赋能自身业务高质量发展。相较于已在金融领域被广泛应用的传统判别式 AI,大模型具有更强的通用泛化能力,能够处理复杂多样的信息理解、内容生成、多轮对话等任务需求,在金融领域存在较大的价值创造空间,例如据麦肯锡测算,大模型有望对全球金融行业每年带来 2,000~3,400 亿美元的增量价值。
金融大模型当下主要被应用于业务场景简单的非决策类环节,如主要赋能对客服务、数据挖掘、业务助手等环节,而在对金融领域专业能力要求较高、涉及提供金融投资建议、需要承担核心分析决策任务的业务场景和业务环节中,大模型的落地应用仍处于早期。
随着推理模型技术的不断深化,金融行业 AI 部署将进一步提速。从资本支出层面来看,在《金融科技(FinTech)发展规划(2022—2025 年)》、《关于银行业保险业数字化转型的指导意见》等政策指引下,中国金融行业加速了数字化转型步伐,许多大型金融机构已经建立了完备的 IT 基础设施,并且在云计算、大数据处理等方面进行了大量投资。“AI+金融”具有广泛的需求场景和明确的资本开支计划,行业规模有望快速发展。根据艾瑞咨询数据,2027 年中国金融科技市场有望突破 5,800 亿元,带动 GPU 行业高速增长。
(3)“AI+交通”应用市场
智能驾驶技术正深刻改变着人类出行方式,而人工智能作为智能驾驶领域的核心驱动力,正推动交通产业向全面智能化迈进,通过云端与边端(车端)协同,共同构建起自动驾驶系统的技术闭环。云端作为智能驾驶的“超级大脑”,承担着海量数据处理与算法迭代的核心任务。通过各类传感器如摄像头、激光雷达等连接数百万辆车的实时数据流,云端算力每日可处理千万级路侧单元上传的多模态数据。
基于大规模标注数据,云端利用分布式计算集群训练和优化智能驾驶模型,例如使用千亿参数大模型识别和理解复杂、特殊的交通场景、道路标志以及行人行为等。云端还负责高精地图的动态更新、交通流预测等宏观任务,并通过 OTA 技术将优化后的模型部署至车端。此类任务需云端具备弹性扩展的算力,通常依赖万卡级 GPU 集群与高速互连技术。因此复杂自动驾驶大模型需要庞大的云端训练算力支撑,特斯拉、小鹏、理想等自动驾驶厂商纷纷采用不同模式建设云端计算中心用于模型训练。
以特斯拉为例,特斯拉自建的 Dojo 超级计算集群算力规模约 100 EFLOPS,相当于30 万张英伟达 A100 GPU 的算力总和;特斯拉自建的 Cortex 训练集群由大约 10万张英伟达 H100 和 H200 芯片组成。自动驾驶厂商逐年递增的云端算力开支正成为 GPU 芯片市场的重要增长点。
车端边缘计算设备作为行车安全的“第一响应者”,需在毫秒级延迟内完成感知、决策与控制,包括传感器数据实时处理、紧急刹车与避障、轻量级推理等。车载芯片的架构模式正经历从分布式架构向中央计算架构演进,中央计算架构中,汽车端计算将升级为含大量 GPU 在内的高性能计算平台,进而保证了整车架构的稳定性、功能的扩展性和高算力。但面临算力天花板有限、长尾场景处理不足等限制,云边算力融合成为未来重要发展趋势。
云端与边端通过算力动态调配,形成“云端智能升级,边端敏捷执行”的生态。高阶智能驾驶是一个巨大的综合性工程,最终的技术范式尚未确定,自动驾驶大模型的布局需要持续探索、长期投入。随着车辆自动驾驶等级的提升,对于车辆的主动性要求也大幅度提升,多样性和复杂性的交通场景给自动驾驶模型带来了更多挑战。
从 L2 级开始,自动驾驶汽车不仅需要处理各环节传感器收集的环境数据、地图定位数据、V2X 信息通信数据,还需要通过各种智能算法规划优化决策,同时控制执行单元,因此需要大算力芯片支撑感知、决策算法的高效运行,算力需求呈现指数级增长,形成“算法迭代-算力升级-场景落地”的正向循环。
根据思瀚产业研究院的预测,2025 年我国 L3、L5 级别智能驾驶渗透率将分别达到 14%、1%,到 2030 年两者将分别达到 40%、12%。未来,随着高阶智能驾驶汽车渗透率的提升,将会持续带动智能驾驶市场整体算力芯片需求的增加。
(4)“AI+能源”应用市场
在全球积极寻求能源可持续发展的大背景下,人工智能正成为推动能源行业从规模扩张向智能跃迁变革的核心力量之一,为能源的高效生产、精准传输与调度、智能存储以及合理消费带来了重大机遇与创新。全国政协十四届三次会议期间,全国政协委员共商“AI+能源”的发展战略,强调加强算力、网络与能源一体化统筹规划。
国家能源集团、中国石油、中国石化、中国广核、国家电网等能源企业亦纷纷响应、加速布局能源大模型。人工智能技术对能源产业的赋能,本质上是将能源系统的物理规律转化为可计算的数字模型,通过持续逼近帕累托最优边界实现产业效率的革命性提升。在能源生产环节,人工智能算法可以精准预测风光资源,优化发电设备运行参数,提升可再生能源利用效率。
在能源传输环节,人工智能算法可以实时分析电网负荷、预测电力需求、优化电力分配与调度、检测电网故障与提前预警,确保电网稳定运行。在能源消费环节,人工智能算法能够协助用户实时监控家庭或企业的能源消耗情况、结合用户使用习惯实现精准用能,降低能源成本、实现节能降耗。
能源行业事关国家安全和民生保障,对人工智能系统的可靠性和安全性要求极高;同时,在“双碳”目标下,低碳算力、绿色算力成为能源企业的重点建设方向。因此,具有更高能效比和供应稳定性的国产算力提供商将在能源应用场景加速渗透。
(5)“AI+医疗健康”应用市场
医疗健康是人工智能的重要落地场景。根据艾瑞咨询统计,截至 2023 年底,我国行业大模型分布中医疗大模型占比达 21.9%。2024 年 11 月,国家卫健委、国家中医药局、国家疾控局联合发布了《卫生健康行业人工智能应用场景参考指引》,支持 AI 在医疗服务等 84 个领域的应用,为 AI 在医疗领域的应用提供了明确的政策引导及方向。
人工智能赋能医疗服务众多环节,涵盖就医前的健康管理、诊前医疗数据积累分析、诊中的取号导诊排队、病历录入、多种影像分析、辅助及临床诊断、医保支付、电子病历生成、手术机器人操作、药物临床辅助决策、诊后的术后院内康复与健康追踪以及就医后的康复管理、随访回访、就诊记录管理系统等。
随着模型调用成本的下降和模型智能的提升,“AI+医疗健康”应用市场有望快速放量。根据 Data Bridge 的测算,预计至 2031 年全球生成式 AI 在医疗保健领域市场规模将达到 172 亿美元,2023-2031 年期间复合增长率为 32.60%。根据弗若斯特沙利文的数据,预计中国医疗人工智能行业市场规模有望从 2024 年的117 亿元增长至 2033 年的 3,157 亿元,未来 GPU 芯片在医疗领域具备广阔的市场空间。
(6)“AI+大文娱”应用市场
内容是文娱行业的核心。生成式人工智能具有通过算法模型自主创造全新内容的特性,能够提高内容生产效率、生产更优质的内容,直接影响了文娱行业的创作范式,因此文娱行业成为了人工智能天然的落地场景。“AI+大文娱”涵盖了内容创作、制作、分发和消费等环节,涉及游戏、影视、音乐、文学等多个文娱垂直领域,在提升内容生产效率、辅助创意、探索内容创新边界以及实现个性化内容生产和创新用户交互等方面发挥着重要作用,目前正处于快速发展和深入应用阶段,也是众多互联网科技企业实现 AI 商业闭环的关键场景。
随着技术进步,文娱行业对于内容丰富度和供给效率的要求将不断提高,内容将会以实时生成、实时体验、实时反馈的方式提供给用户,该等高并发场景将持续推动算力需求抬升。