财经新闻网消息:
全文如下
我们认为,从大模型的演进路径来看,模型规模将进一步扩大,导致算力需求持续增长。 长期来看,成熟大机型的运营预计将带来3169亿美元的增量服务器市场。 与2023年全球AI服务器市场211亿美元相比,仍有很大增长空间。 基于此,我们认为大模型的持续迭代有望带来算力基础设施的大量需求,建议关注算力行业的投资机会。
核心思想
全球对AI算力的需求持续上升
随着大模型不断迭代,模型能力不断增强,这是“规律”下模型参数和数据集不断增多的结果。 我们认为,从大模型的演进路径来看,模型规模将进一步扩大,导致算力需求持续增长。 具体来说,大模型的算力需求体现在预训练、推理、调优三个环节。 根据我们的计算,以千亿参数模型为例,三个环节的总算力需求约为180,000 PFlop/s-day,相当于需要28,000个A100等效GPU算力。 长期来看,成熟大机型的运营预计将带来3169亿美元的增量服务器市场。 与2023年全球AI服务器市场211亿美元相比,仍有很大增长空间。 基于此,我们认为大模型的持续迭代有望带来算力基础设施的大量需求,建议关注算力行业的投资机会。
模型规模越来越大,带动算力建设需求
大型语言模型 (LLM) 是在大型数据集上预先训练的模型,在处理各种 NLP 任务方面显示出巨大的潜力。 架构的出现开启了大型模型的进化之路。 随着解码模块栈数量不断增长,模型参数数量不断增加,不同版本的模型如GPT-1、GPT-2、GPT-3、PaLM等逐渐演化。 参数数量也从数十亿、数百亿增加到数千亿、万亿。 我们看到每一代模型的演进都带来了功能的增强。 这背后一个非常重要的原因是参数量和数据集的增加带来了模型感知、推理和记忆能力的不断提升。 基于模型的标度律,我们认为未来的模型迭代可能会延续更大参数量的路径,进化出更智能的多模态能力。
大模型对算力的要求体现在:预训练、推理、调优。
从拆解来看,大模型的算力需求场景主要包括预训练和日常运行。 对于三部分算力需求,我们的计算思路如下: 1)预训练:基于“缩放定律”假设,计算量可以用公式C≈6NBS来表征; 2)推论:根据流量,计算量可以用公式C≈2NBS来描述; 3) 调优:向后调整调优所需的 GPU 核心小时数。 以千亿参数模型的预训练/推理/调参为例,三个环节的算力需求分别为13889、5555.6、216 PFlop/s-day。 我们认为,在缩放定律(Law)的支持下,随着模型规模的增长,对算力的需求有望持续释放。
基础设施需求有望持续释放,关注算力行业投资机会
结合大模型预训练/推理/调优的算力需求计算,我们测算千亿级模型从开发到成熟运行,A100等效GPU需求量为2.8万块。 根据我们测算,成熟大模型的运行预计将为全球AI服务器市场带来3169亿美元的增量。 相比之下,据IDC预测,2023年全球AI服务器市场规模为211亿美元,2024-2025年复合年增长率预计将达到22.7%,未来仍有相当大的增长空间。 此外,考虑到国内高性能芯片的获取有限,AI GPU的国产化也有望进一步加速。
风险提示:宏观经济波动、下游需求低于预期、测算结果可能出现偏差。
免责声明 ① 本网所刊登文章均来自网络转载;文章观点不代表本网立场,其真实性由作者或稿源方负责 ② 如果您对稿件和图片等有版权及其他争议,请及时与我们联系,我们将核实情况后进行相关删除 ③ 联系邮箱:215858170@qq.com