AI大模型市场表现与竞争格局发生变化,Kimi成为国产大模型曙光。市场上的大模型层出不穷,以Kimi为代表的产品凭借其在长文本处理领域的卓越能力,迅速成为用户访问量最高的产品,打破了现有竞争格局。Kimi在中文领域对GPT-4、Claude等国际大模型展现出明显优势,并通过不断的技术迭代和用户体验优化,实现了用户流量的激增和市场的快速扩张。公司认为,Kimi的AI-Native产品核心价值在于提供个性化交互,其长文本上下文处理能力(LongContext)能大幅减少模型定制成本,解决90%的模型定制问题。
2024年3月下旬,Kimi进一步将上下文处理能力提升至200万汉字,随着用户流量的激增,服务连续进行了5次扩容。公司在C端致力于将Kimi打造成超级应用,成为AI原生交互的入口;在B端,通过Moonshot AI开放平台提供与OpenAI兼容的API,内测期间已有法律、游戏阅读等领域应用进行测试,反馈良好。随着Kimi应用访问量的持续增长,预计将再次拉动算力需求的快速增长,推动AI行业的算力基础设施发展。
随着AI大模型技术的发展和应用场景的拓展,全球算力需求正面临重估。Meta等科技巨头对AI算力的需求超出预期,预计到2024年底将拥有接近60万颗H100GPU的等效算力。Sora模型的发布标志着AI视频生成领域的新突破,进一步推动了多模态大模型的发展,预示着未来对算力需求的大幅提升。
同时,美国政府的限制措施可能促使中国等国家的企业自行购买算力卡或租赁国产AI算力,推动国产AI产业链的革新和发展。在此背景下,Kimi等国产大模型的成功,不仅带动了产业链的革新,还为内容创作、游戏互动、AI陪伴等领域带来了新的应用场景和创新机遇。此外,Step系列通用大模型的发布和Pixverse在AI视频生成领域的领先地位,进一步展示了国产AI技术的竞争力和市场潜力。
月之暗面发布Kimi,长文本成为破局关键
月之暗面成为国产大模型新星。2023 年10 月,清华大学杨植麟及其AI 团队“月之暗面”发布了Kimi,拥有优秀的长文本处理能力,可处理20万汉字输入。同时,利用Long Context 可以大幅减少 fine-tune 的成本,实现模型应用的“多、快、好、省”。例如可以先用5万字定制一个模型的能力,剩余还有大量文字窗口,也足够日常交互使用。而fine-tune需要构造数据并训练,时间较长且需要较高的复杂度,单位token的成本也更高。公司选择用Long Context方式来解决 90%的问题,更好向前向后兼容,也成为公司最高优先级的技术突破方向。
“大海捞针”测试验证了 Kimi 长文本能力。长文本能力是实现人类与AI之间无损理解的基础,它使 AI 可以更准确地理解人类的复杂、感性思维,从而在多种应用场景中更有效地服务于人类。根据近一年全球各个大模型迭代方向,上下文窗口的“长文本”再持续升级。
其中,在文本持续变长过程中,大型是否会忽略掉部分细节内容的问题一直是“长文本”能力的关键。因此有开发者进行了一项名为“大海捞针”的大模型长文本性能测试,即在文本中加入一句与该文本内容不相关的句子,测试大模型是否能通过Prompt把这句话准确提取出来。月之暗面的工程师在2023年12月也进行了测试,选取模型为Kimi chat(支持20万汉字输入),GPT-4 Turbo(支持128K上下文窗口),Claude 2.1(支持200K上下文窗口)。根据测试结果,Kimi chat在“大海捞针”中的表现明显好于GPT-4Turbo和Claude 2.1。
更多行业研究分析请参考思瀚产业研究院《2023-2028年中国大模型行业市场现状与投资前景预测规划报告》,同时思瀚产业研究院亦提供行研报告、可研报告、产业规划、园区规划、商业计划、专项调研、建筑设计、境外投资报告等相关咨询服务方案。