巴克莱:LLM计算需求远超预期 AI芯片支出浪潮尚未见顶
巴克莱表示,人工智能(AI)芯片支出必须增加,才能满足模型开发商的最低预期。
巴克莱分析师Tom O'Malley表示,自英伟达(NVDA.US)8月底发布财报以来,人工智能芯片股的抛售已经在整个人工智能生态系统中引起了反响,人们越来越质疑人工智能芯片支出浪潮“是否正在接近顶峰”。分析师认为,这种观点没有适当地考虑到未来的计算需求。
分析师补充说,至少有9个独立的组织开发尖端的、参数数量庞大的大型语言模型(LLM)。由于多种原因(投资回报、资金、训练数据限制、路线图问题等),这些公司中的大多数都无法保证会继续推进模型开发的下一轮迭代。不过,仅仅几次模型迭代就需要令人难以置信的大量计算。
这一需求远远超过了行业目前的预期,分析师认为以下三个因素是他们覆盖股票的关键。
首先,需要逐步实现预计的产能。分析师估计,到2027年,仅为三个参数约为50T的前沿模型提供动力所需的计算资源,就需要近2000万块芯片进行训练。需求量大的一个主要原因是,新模型计算需求的增长速度预计将远高于目前的预期。
其次,商家和消费者有办法实现双赢。分析师认为,在人工智能加速器方面,应该采取双管齐下的方法,英伟达和AMD(AMD.US)的商业解决方案更适合于训练和推理前沿模型,而超大规模定制芯片将用于数据中心内更专业的工作负载。
分析师补充说,他们看到这种情况总体上如预期的那样发展,除了少数例外,如苹果(AAPL.US)使用TPU。他们继续预计,这种市场分化将在未来发挥作用。
第三,推理市场将十分强劲。O'Malley表示,英伟达最近声称其约40%的芯片用于推理,再加上其他加速器提供商重新关注推理市场,为这个新兴市场的发展提供了支撑。
推理将成为目前正在开发的前沿模型货币化的主要渠道。分析师表示,投入更多资源以降低推理成本,将有助于提高开发模型的投资回报率。
本文 狮子狗个人网站 原创,转载保留链接!网址:https://9377news.com/post/13202.html
1.本站遵循行业规范,任何转载的稿件都会明确标注作者和来源;2.本站的原创文章,请转载时务必注明文章作者和来源,不尊重原创的行为我们将追究责任;3.作者投稿可能会经我们编辑修改或补充。