随着OpenAI周一发布新的大语言模型GPT-4o,市场对于人工智能的热情再上一个台阶。
然而,不少分析师警告称,在人工智能的爆炸性需求影响下,高带宽存储芯片(HBM)的供应短缺情况可能将持续今年一整年。
HBM今明两年库存已经几乎售罄
人工智能热潮下,高端存储芯片备受市场追捧。近日,两家全球最大的存储芯片供应商——SK海力士和美光都已经表示,2024年的高带宽存储芯片(HBM)已经售罄,而2025年的库存也几乎售罄。
″我们预计整体内存供应在整个2024年都将保持紧张。”晨星股票研究主管Kazunori Ito在最新报告中写到。
对于像OpenAI的ChatGPT这样的大语言模型来说,HBM芯片在其模型训练中发挥着至关重要的作用。大语言模型非常需要这些芯片来记住过去与用户对话的细节和他们的偏好,从而针对用户查询给出类似人类的反馈。
“这些芯片的制造更为复杂,提高产量一直很困难。这可能会在2024年剩余时间和2025年大部分时间造成短缺,”纳斯达克IR Intelligence主管威廉•贝利(William Bailey)表示。
今年3月,市场情报公司TrendForce曾表示,与个人电脑和服务器中常见的DDR5内存芯片相比,HBM的生产周期要长1.5至2个月。
为了满足日益增长的需求,SK海力士计划在美国印第安纳州投资先进的封装设施,并在韩国清州市的M15X工厂和韩国龙仁市半导体园区投资,扩大产能。
今年4月,三星在其第一季度财报电话会议上表示,其2024年的HBM供应“比去年增长了三倍以上”。
“我们已经完成了与客户就承诺供应的讨论。到2025年,我们将继续以每年至少两倍或更多的速度扩大供应,我们已经就供应问题与客户进行了顺利的谈判。”三星当时表示。
“AI竞赛”仍如火如荼
目前,大型科技公司微软、亚马逊和谷歌正展开“AI竞赛”,纷纷斥资数十亿美元培训自己的大语言模型,以保持市场竞争力。在这场“AI竞赛”中,市场对人工智能芯片的需求飙升,而英伟达及其上游的SK海力士等芯片公司都从中受益。
“人工智能芯片的大买家——像Meta和微软这样的公司——已经表示,他们计划继续投入资源建设人工智能基础设施。这意味着,至少到2024年底,他们都将大量购买包括HBM在内的人工智能芯片。”《芯片战争》一书作者克里斯·米勒(Chris Miller)表示。
为了抓住人工智能热潮,芯片制造商们正在激烈竞争,以制造市场上最先进的存储芯片。
SK海力士在本月初举行的记者招待会上表示,将于第三季度开始批量生产最新一代HBM芯片——12层HBM3E。三星电子在业界率先推出了这种芯片的样品,计划在第二季度开始批量生产。
“目前,三星在12层HBM3E采样工艺方面处于领先地位。”大和证券(Daiwa Securities)执行董事兼分析师SK Kim表示,“如果他们能比同行更早获得认证,我认为它可以在2024年底和2025年获得多数市场份额。”