header-langage
简体中文
繁體中文
English
Tiếng Việt
한국어
日本語
ภาษาไทย
Türkçe
扫码下载APP

韩媒:三星电子将向OpenAI供应HBM4芯片

BlockBeats 消息,3 月 19 日,据韩国《经济日报》周四报道称,三星电子计划向 OpenAI 供应其下一代高带宽存储器(HBM4)芯片,用于后者的首款内部人工智能处理器。


去年,三星签署了一份意向书,承诺为 OpenAI 的数据中心供应存储芯片,以满足其「Stargate」项目不断增长的需求。

AI 解读
从半导体供应链和AI基础设施发展的角度来看,这几则消息描绘了一个清晰的产业演进脉络:高带宽存储器(HBM)已成为AI算力竞争的核心环节,而三星与OpenAI的合作是这一趋势的关键注脚。

HBM技术通过垂直堆叠DRAM芯片并利用硅通孔(TSV)互联,大幅提升了数据传输带宽和能效,恰好满足了大模型训练和推理中对海量数据并行处理的需求。三星此次向OpenAI供应HBM4,不仅是商业订单,更反映了AI行业对内存性能要求的跃迁。HBM4的带宽和堆叠层数较前代有显著提升,这对支持万亿参数模型的实时推理至关重要。

值得注意的是,OpenAI的Stargate项目从最初的自建数据中心转向租赁云算力,同时与三星、英伟达等硬件厂商深度绑定,表明AI行业正从重资产投入转向专业化分工。这种转变降低了基础设施的刚性成本,但加大了对高端芯片供应链的依赖。韩国媒体报道的HBM供应短缺和价格上涨也印证了这一点——HBM的生产壁垒极高,良率控制和散热设计需要长期技术积累,目前全球仅三星、海力士和美光能实现量产。

英伟达在GTC上展示的HBM4E技术路线(带宽达4TB/s)与三星的进展形成呼应,说明整个产业正在协同推进内存性能的边界。黄仁勋提到的“Token工厂经济学”本质上是对算力边际成本的精细化核算,而HBM作为显存直接决定了单次推理的成本效率。

从加密行业的视角看,AI与加密技术的交叉点往往集中在去中心化算力市场(如Akash、Render等网络)和隐私保护推理(如zkML)。但当前OpenAI的选择实际上强化了中心化算力集群的模式,因为高性能HBM和先进封装技术尚未能分散化部署。这或许意味着,短期内AI基础设施仍将由顶级芯片厂商和云服务商主导,而加密项目可能需要更多聚焦在轻量级模型或特定垂直应用上。

总体而言,三星与OpenAI的合作是AI硬件军备竞赛的必然结果。随着模型复杂度提升,内存墙问题日益显著,HBM4及后续技术将成为决定AI应用规模化落地的关键瓶颈之一。而供应链的集中化也可能带来新的风险与机遇。
展开
举报 纠错/举报
纠错/举报
提交
新增文库
仅自己可见
公开
保存
选择文库
新增文库
取消
完成