首页 > 资讯 > 科技 > 正文

三星计划今年HBM产量增加两倍 引领AI芯片时代

中国基金网

全球最大的内存芯片制造商三星电子公司,正计划在人工智能芯片领域取得领先地位,预计将今年高带宽记忆体芯片的产量,较去年提高两倍。

周二在加州圣荷西举行的全球芯片制造商聚会Memcon 2024上,三星公司执行副总裁兼DRAM产品和技术主管Hwang Sang-joong表示,他预计该公司将增加HBM芯片产量今年产量是去年的2.9倍。

这项预测高于三星今年稍早在CES 2024上公布的预测,即该芯片制造商到2024年HBM芯片的产量可能会增加2.5倍。

Hwang 在Memcon 2024 上说:「继第三代 HBM2E 和第四代 HBM3 已经量产后,我们计划在今年上半年,大批量生产 12 层第五代 HBM 和 32GB 128GB DDR5 产品。 」

「透过这些产品,我们期望增强我们在人工智能时代高性能、大容量存储器领域的地位。 」

会上,三星公布了HMB路线图,预计2026年HBM出货量将是2023年产量的13.8倍。 到2028年,HBM年产量将进一步增至2023年水平的23.1倍。

在会上,三星向与会者展示了最新的HBM3E 12H芯片—业界首款12堆叠HBM3E DRAM,标志着HBM技术有史以来最高容量的突破。

三星目前正在向客户提供HBM3E 12H芯片样品,并计划在上半年开始量产。

会议参与者包括SK海力士公司、微软、Meta Platforms、Nvidia和AMD。

在Memcon 2024上,三星还推出了其 Compute Express Link 内存模组产品组合的扩展,并展示了其最新的HBM3E技术,巩固了在面向人工智能应用的高性能、 大容量解决方案。

三星电子美国设备解决方案研究中心- 内存公司执行副总裁 Jin-Hyeok Choi 以及公司执行副总裁、DRAM 产品和主管 SangJoon Hwang 三星电子的技术人员 上台介绍了新的内存解决方案,并讨论了三星如何在人工智能时代引领 HBM 和 CXL 创新。

三星指出,这次推出的CXL内存模组 – Box ,是一款尖端的CXL DRAM 内存池产品,突显了CXL生态系统的成长动能。 三星 CMM-B 可容纳八个 E3. S 外形尺寸的 CMM-D 设备,并提供高达 2 TB 的容量。 巨大的内存容量由高达 60 GB/s 的带宽和 596 奈秒的延迟的高效能支持,可以服务于需要大容量内存的各种应用,例如 AI、内存数据库 、数据分析等。

中国基金网遵守行业规则,本站所转载的稿件都标注作者和来源。 中国基金网原创文章,请转载时务必注明文章作者和来源“中国基金网”, 不尊重本站原创的行为将受到激光网的追责,转载稿件或作者投稿可能会经编辑修改或者补充, 如有异议可投诉至:Email:133 4673 445@qq.com