报告

国海证券:AIGC专题报告:站在当前时点,怎么看AIGC板块投资逻辑

admin2023-12-20 11:30 35人已围观 下载完整内容

简介我们为什么认为AIGC是产业级趋势?——人工智能步入新发展阶段,逐步迈向AGI;AIGC创造人机交互新变革,将迎来更多新机遇;通用大模型是AI产业的水平化分工的

我们为什么认为AIGC是产业级趋势?——人工智能步入新发展阶段,逐步迈向AGI;AIGC创造人机交互新变革,将迎来更多新机遇;通用大模型是AI产业的水平化分工的关键,有望实现规模效应与飞轮效应,商业模式逐步清晰;生成式AI可能打破现有流量竞争格局。

复盘海外vs国内典型AIGC概念股行情演绎逻辑,有哪些启示?——海外行情率先启动,海外演绎逻辑:算力(率先启动、涨幅最大)—大模型—应用,国内演绎逻辑:数据—算力、大模型—应用。

投资逻辑总结:三阶段论。——【阶段1】起点:百模大战,巨头和垂直厂商纷纷投入大模型的研发和训练,早期训练对高性能算力需求度大,厂商大量囤积芯片,算力投资确定性相对较高,大模型与应用仍处于早期;【阶段2】承压:路径分化,少数通用基座大模型+较多垂直行业/公司大模型厂商,基于开源模型开发与底层自研并行,NLP大模型训练算力需求有限,应用侧尚未迎来大幅增长,推理算力消耗有限,大模型也处于商业化早期,产业链整体承压;【阶段3】突破:技术迭代、结合新硬件带来新变化,多模态逐步成熟,3D生成、策略生成等技术逐步突破,未来结合MR、机器人等新硬件,应用加速普及,进一步打开商业化空间,带动整体产业链形成正循环。

如何看待NLP大模型训练与推理算力成本?——①训练算力需求:通用大模型算力消耗大但数量相对较少,行业/公司级大模型数量多但算力消耗相对较小,整体空间有限。根据训练所需算力符合经验公式=6*参数量*数据量,假设通用大模型平均模型参数量1200亿、平均模型训练数据量Tokens7000亿、A100GPU利用率45%、模型预计训练时间维持在34天时,单个大模型训练需要1222张A100,若大模型数量达到30个,则需要36660张A100。当平均模型参数量提升至2265亿、平均模型训练数据量Tokens16603亿、A100GPU利用率达到较高水平57%、模型预计训练时间维持在34天时,单个大模型训练需要4319张A100,若此时大模型数量达到20个,则需要86386张A100。对于行业/公司级大模型来说,若平均模型参数量在100-146亿、平均模型训练数据量Tokens在1000-1464亿、A100GPU利用率在43%-45%、模型预计训练时间维持在30天时,当行业/公司级大模型数量达到80-231个时,则需要1381-8164张A100。②推理侧算力需求:伴随用户体量增加,整体需求量较大。假设单个模型参数量在1200-2265亿,根据显存容量经验公式,可换算所需显存容量在231-436GB,单次推理需要3-6张A100。假设DAU在0.5-2.5亿,对应并发推理需求最大设计容量在10000-50000次,假设单次推理时合并的推理需求数量12-8次,并发推理所需要的次数在834-6250次,对应推理所需要的的A00显卡数量在2502-37500张。③从GPT-4来看推理成本与收入:GPT-4的参数量为1.8万亿,但GPT-4采用的结构是MoE,每个专家的参数大约为1110亿个,每次前向传递中会调用其中两个专家模型,此外约有550亿个共享参数被用于注意力机制,因此每次前向推理(生成一个token),仅用了约2770亿个参数(1110×2+550),对应到0.554TFLOPs,根据推理所需算力符合经验公式=2*参数量*数据量,假设FLOPS利用率为21.3%、8个A100的GPU服务器使用成本为12美元/小时,则对应推理算力成本约为0.0035美元/1000tokens,根据目前定价,在提取摘要(长生短)、内容创作(短生长)两种典型场景下推理毛利率在70%~90%之间,伴随用户数提升及使用频率提升,对应收入及算力消耗均有提升。

  • 微信公众号

下载完整内容

文章评论


评论0

    站点信息

    • 微信公众号:扫描二维码,关注我们