华泰证券发布研究报告称,关注AI景气周期下,算力基础设施产业机遇。分析师认为,国产厂商未来或将训练出自己的GPT模型,带动算力设施产业迎来景气周期。相关公司包括:1、算力芯片厂商;2、服务器厂商;3、IDC服务商。
大模型训练热潮下,算力基础设施有望迎来产业机遇
ChatGPT发布之后,引发了全球范围的关注和讨论,国内各大厂商相继宣布GPT模型开发计划。分析师认为,以GPT模型为代表的AI大模型训练,需要消耗大量算力资源,随着国产大模型开发陆续进入预训练阶段,算力需求持续释放或将带动算力基础设施产业迎来增长新周期。产业链相关公司包括:1、算力芯片厂商;2、服务器厂商;3、IDC服务商。
ChatGPT:大模型训练带来高算力需求
训练ChatGPT需要使用大量算力资源。据微软官网,微软Azure为OpenAI开发的超级计算机是一个单一系统,具有超过28.5万个CPU核心、1万个GPU和400 GB/s的GPU服务器网络传输带宽。据英伟达,使用单个Tesla架构的V100 GPU对1746亿参数的GPT-3模型进行一次训练,需要用288年时间。此外,算力资源的大量消耗,必然伴随着算力成本的上升,据Lambda,使用训练一次1746亿参数的GPT-3模型所需花费的算力成本超过460万美元。分析师认为,未来拥有更丰富算力资源的模型开发者,或将能够训练出更优秀的AI模型,算力霸权时代或将开启。
需求场景:预训练+日常运营+Finetune
具体来看,AI大模型对于算力资源的需求主要体现在以下三类场景:1)模型预训练:ChatGPT采用预训练语言模型,核心思想是在利用标注数据之前,先利用无标注的数据训练模型。据分析师测算,训练一次ChatGPT模型(13亿参数)需要的算力约27.5PFlop/s-day;2)日常运营:用户交互带来的数据处理需求同样也是一笔不小的算力开支,分析师测算得ChatGPT单月运营需要算力约4874.4PFlop/s-day,对应成本约616万美元;3)Finetune:ChatGPT模型需要不断进行Finetune模型调优,对模型进行大规模或小规模的迭代训练,产生相应算力需求。
算力芯片+服务器+数据中心,核心环节有望率先受益
分析师认为,随着国内厂商相继布局ChatGPT类似模型,算力需求或将持续释放,供给端核心环节或将率先受益:1)算力芯片:GPU采用了数量众多的计算单元和超长的流水线,架构更适合进行大吞吐量的AI并行计算;2)服务器:ChatGPT模型训练涉及大量向量及张量运算,AI服务器具备运算效率优势,大模型训练有望带动AI服务器采购需求放量;3)数据中心:IDC算力服务是承接AI计算需求的直接形式,随着百度、京东等互联网厂商相继布局ChatGPT类似产品,核心城市IDC算力缺口或将加大。
风险提示:下游需求不及预期。