关于报告的所有内容,公众号『行业报告智库』阅读原文或点击菜单获取报告下载查看。
尽管2024年以来,全球可获取的训练数据有限,OpenAI GPT-5发布延期等事件引发了业内对大模型性能迭代放缓的质疑,但AI大模型的性能仍在持续提升。根据Scaling Law,大模型的性能与计算量、参数规模和数据量密切相关。虽然训练数据端的边际效益逐渐放缓,但通过合成数据和推理阶段的创新,大模型的性能增长潜力依然强劲。
OpenAI、Anthropic和Meta等大模型厂商正在积极探索合成数据方向。OpenAI的o1模型通过高质量的合成数据降低模型错误率,Anthropic的Claude 3.5 Sonnet在多个测试中表现优于GPT-4o。Meta的Llama 3.1 405B模型在约15万亿tokens的公开数据上进行训练,微调数据涵盖了超过2500万个合成数据示例。
模型架构与算法革新带动了大模型推理成本的降低。过去一年内,上下文长度扩展、MOE(混合专家架构)的引入、集中规模化处理调用任务和异构资源的应用等革新使得大模型的推理效率得到较大提升,成本持续下降。根据微软2024年Build开发者大会的数据,GPT-4自发布以来,性能提升了6倍,而成本降低至原来的1/12。
硬件优化同样促进了推理成本的下降。2022年国内数据中心用于推理的服务器占比已达到58.5%,预计到2026年将提升至62.2%。英伟达的GB200 NVL72服务器相较于上一代,对于大模型推理性能提升30倍,成本和能耗降低25倍。博通的3nm XPU预计在2025年下半年大规模出货,具有能效成本优势。
AI技术正在改变传统软件开发流程。根据IDC数据,全球82%的开发人员已使用具有智能化码生成功能的IDE或代码编辑器,其中71%的人表示其编码代码40%以上由AI自动生成。GitHub Copilot帮助开发者将通过所有单元测试的可能性提升了56%,显著缩短了错误修复和新功能部署的时间。
在代码生成等软件开发任务中,产品性能和用户体验是评价产品的关键维度。国内市场头部产品在解答完整度、代码质量、注释质量等方面差异不大,用户体验成为决定工具是否能成为开发者首选的关键因素。
AI大模型技术嵌入办公软件,显著提升了办公效率和智能化水平。微软的Microsoft 365 Copilot通过嵌入Copilot,打通了Word、PowerPoint、Excel、Outlook、Teams等各软件产品间内容共享的通道,显著提升了办公效率。尽管Copilot功能大幅升级,但其商业化效果仍有待观察。
在创意生成领域,AI大模型可以实现图像、视频、3D内容的生成、编辑和优化。OpenAI的Sora模型通过多层去噪机制和文本提示,生成高质量的连续视频帧。但视频生成的训练和推理成本较为高昂,对算力造成了较大挑战。根据FactorialFunds测算,Sora的训练计算预算范围被估算为1.1X1025FLOPS-2.7X1025FLOPS,大约需要4211至10528张H100运行1个月。
生成式AI发展至今,逐渐衍生出了三种人机协同方式——嵌入(Embedding)、副驾驶(Copilot)和智能体(Agent)方式。Agent模式智能化程度更高,AI可以进行主动感知环境并进行自主决策。
AI大模型技术在B端的高ROI应用场景包括软件开发、广告投放和CRM等领域。这些场景具有较为标准化的任务和对效率提升的明确需求,能带来可量化的投资回报,因此也能得到更快的市场采纳,将率先实现产品市场契合。