6G 中的 AI for Net 将是一个原生的、泛在的技术,为6G 提供全面的支撑。为了在 6G 更好地发挥 AI 的作用,需要结合用例的丰富性和系统的执行效率,提出更科学、更高效、更普适的设计目标。
目标一:基于逻辑功能的统一生命周期管理
随着 AI 技术的成熟和 AI 设备的普及,将会有更多高价值的AI for Net 用例。如果仍沿用 5G 中烟囱式的用例设计方式,协议的复杂度和冗余度将会大幅增加,其中 AI 模型的生命周管理是协议影响较高的流程。
同时,通过分析对比可以发现,不同用例实现的生命周期管理的逻辑功能是相同的,即所有用例都离不开数据收集、模型训练、模型部署、模型推理和模型管理等逻辑功能。因此,在6G中部署 AI 用例,应以逻辑功能和逻辑节点为基准进行生命周期管理方案的设计。
因此,可以基于上述逻辑功能设计一套统一的生命周期管理方案。设计好一套基于逻辑功能和逻辑节点的生命周期管理方案后,在具体的用例中只需要将逻辑节点映射到实际的物理节点即可完成不同用例的生命周期管理。
目标二:AI 资源与用例解耦
6G 网络的 AI 用例对 AI 资源的需求存在一定的错峰现象,即不同的用例对AI 资源的需求在时间上呈现不同的规律,不同用例的资源需求峰值的出现时间也不尽相同。
对此,可通过 AI 资源与用例解耦,以更小的成本和代价实现更优的资源利用率和性能。多用例共享 AI 软件资源时,需要考虑多个用例的平台是否兼容,以及多个用例的算法软件接口是否兼容。此外,终端侧调制解调器专用AI 资源和终端通用 AI 资源之间的共享也值得关注。随着AI 的普及,终端侧通用硬件的 AI 软硬件能力将大大提升,甚至会远高于调制解调器专用的AI 软硬件能力。
因此,可以将调制解调器内部的 AI 资源和通用AI 芯片上的AI 资源进行协调和共享,为 AI 用例提供服务。这两种资源的共享可能会导致不同的模型推理延迟,因此需要进一步考虑对不同用例的适用性。
目标三:支持丰富的学习架构与方法
不同类型的用例一般需要采用不同的训练/学习方法。封闭-静态环境中的用例是最简单的一类用例,通过监督学习的方式即可获得泛化性较高的模型,并可以直接部署推理。
封闭-动态环境中很难通过离线训练获得泛化性好的模型,因此需要通过迁移学习、小样本学习、持续学习等技术实现模型与环境的适配。开放-静态环境中的关键是用例与环境或系统会存在较强的交互,环境或系统会根据模型给出的结果发生变化,强化学习是解决此类问题的重要手段。而开放-动态环境是最复杂的环境,需要联合迁移学习、强化学习等才能实现优秀的推理性能。此外,网络中的数据往往分布在各个节点,同时考虑到数据隐私的需求,分布式学习也是一种非常有价值的学习架构。
目标四:持续自演进无线环境和系统需求
随着时间都会不断变化,所以用例和模型都需要不断地演进来适配系统。这种演进,如果仍依赖于人工调参和用例选择,演进效率将会大打折扣。因此,如何将模型和用例的演进过程自动化是一个值得深入研究的问题。融合了 AI 的未来移动通信系统在运行过程中将不断地、自动地收集数据、提取知识、与环境和用户迭代交互,自动化地实现旧模块的更新、淘汰以及新模块的衍生,逐步搭建更高效的通信系统,称之为自演进。
AI自演进可划分为L1~L3共三个层级,自演进能力逐级提升:
L1 级自演进:AI 模型参数自演进。L1 级自演进是在短时间内完成模型参数的自动更新,适配业务需求和部署环境的变化。
L2 级自演进:AI 模型超参数(如输入、输出、结构)自演进。L2 级自演进是 L1 级自演进的高阶版本,不仅可以解决参数适配问题,还可以基于实际环境中的数据自动地找出最适配该用例的模型超参数。
L3 级自演进:AI 用例自演进。这一级别的自演进跳出了特定用例的束缚,可以对新用例进行探索,也可以对旧用例进行淘汰。而用例变化的过程中自然伴随着 L1 和 L2 级的自演进。
更多行业研究分析请参考思瀚产业研究院官网,同时思瀚产业研究院亦提供行研报告、可研报告(立项审批备案、银行贷款、投资决策、集团上会)、产业规划、园区规划、商业计划书(股权融资、招商合资、内部决策)、专项调研、建筑设计、境外投资报告等相关咨询服务方案。