chatgpt需要的算力芯片 【电子*张良卫】深度——AI系列深度:ChatGPT掀起算力潮

AI资讯1年前 (2023)发布 fengdao
26 0

电子

AI系列深度:掀起算力潮

芯片及服务器上游投资价值凸显

投资要点

爆火,其能力已接近人类水平。GPT升级至四代,模型能力高速提升。2023年3月15日,正式官宣了多模态大模型GPT-4,将输入内容扩展到2.5万字内的文字和图像,较能够处理更复杂、更细微的问题。最新版的GPT-4在的GPT-3.5基础上主要提升了语言模型方面的能力,并添加了多模态功能,在不同语言情景和内部对抗性真实性评估的表现都显著优于GPT-3.5,在各种专业和学术基准上已经表现出人类水平。

以搜索引擎和办公软件为支点,下游应用多点开花。+传统搜索引擎=AI智能搜索引擎。能生成和理解类人类思维方式与上下文联系的结果,都对传统搜索引擎是一种颠覆式进化。方面:+办公软件,以全家桶与微软 Teams 为例。+三大件Word、Excel、可完成从文字创作到可视化全程服务。可以根据用户的描述需求自动撰写文档内容,缩短文档的创作时间;根据已形成文档内容智能推荐文档格式、排版等;并根据用户描述制作个性化PPT,同时智能生成朗读语言助力PPT演示。

芯片算力是什么意思_芯片的算力如何计算_chatgpt需要的算力芯片

算力需求带动AI服务器需求量上涨。GPT4作为大型多模态模型支持图像和文本的输入,背后是大语言模型的演进与参数量、训练数据量的指数级增长。GPT4频频下调提问限制次数传达算力不足信息,大语言模型的快速迭代催生大量算力需求。满足算力需求依托叠加AI服务器数量与提升服务器算力性能两种途径,从而支撑大语言模型发挥预期功效。我们率先提出建立推理/训练服务器需求测算模型:1)考虑大语言模型迭代呈现参数量指数级增长趋势,GPT-4参数量为万亿,此基础上我们测算得出 GPT-4推理发挥预期功效所需服务器数量为6652台,百万亿参数基础上,所需服务器数量将上升至66万台;2)根据硅谷披露GPT-4训练Token数9万亿,我们测算得出GPT-4训练所需服务器数量为1391台。未来随着大语言模型不断迭代、GPT等语言模型渗透率不断提高,算力时代下服务器呈现基建化趋势。

AI服务器核心依托高性能芯片,国产芯片自主发展潜力大。AI芯片中GPU凭借并行计算具备强大算力,占据AI芯片大部分市场;美企英伟达独占鳌头,占据80%GPU市场。相比英伟达产品,国产芯片性能存在较大差距,仍处于追赶阶。受美实体清单影响,高端芯片采购受阻,倒逼国内服务器厂商大力推进国产替代,利好国产芯片自主发展。

投资建议:我们看好算力芯片及服务器需求剧增下相关零组件的成长空间。CPUGPU等:寒武纪、景嘉微、海光信息;存储:江波龙、聚辰股份;电源芯片:晶丰明源、杰华特;封测:长电科技、通富微电;PCB及其他:深南电路、沪电股份、鼎通科技、裕太微、澜起科技、工业富联。

风险提示:LLM模型发展不及预期、行业空间测算不及预期、AI芯片发展不及预期。

(分析师 张良卫、马天翼、唐权喜、周高鼎)

chatgpt需要的算力芯片_芯片算力是什么意思_芯片的算力如何计算

最新金股组合

© 版权声明

相关文章

暂无评论

暂无评论...