C114门户论坛百科APPEN| 举报 切换到宽版

亚星游戏官网

 找回密码
 注册

只需一步,快速开始

短信验证,便捷登录

搜索

军衔等级:

亚星游戏官网-yaxin222  少将

注册:2015-1-2880
发表于 2024-9-6 16:44:22 来自手机 |显示全部楼层
IT之家 9 月 6 日消息,美光在本月发布的技术博客中表示,其“生产可用”(IT之家注:原文 production-capable)的 12 层堆叠 HBM3E 36GB 内存现正向主要行业合作伙伴交付,以在整个 AI 生态系统中进行验证。


美光表示,其 12 层堆叠 HBM3E 容量较现有的 8 层堆叠 HBM3E 产品高出 50%,允许 Llama-70B 这样的大型 AI 模型在单个处理器上运行,可避免多处理器运行带来的延迟问题。


美光 12 层堆叠 HBM3E 内存具有 9.2+ Gb/s 的 I/O 引脚速率,可提供 1.2+ TB/s 的内存带宽。美光同时还宣称该产品较友商 8 层堆叠 HBM3E 竞品功耗明显更低。




27300bd3-0670-4220-9562-f2e3955e93f3.png



HBM3E 并非孤立产品,而是集成在 AI 芯片系统中,这仰赖于内存供应商、产品客户与 OSAT 企业的通力合作。而美光是台积电 3DFabric 先进封装联盟的合作伙伴成员。


台积电生态系统与联盟管理处处长 Dan Kochpatcharin 近日表示:


台积电与美光一直保持着长期的战略合作伙伴关系。作为 OIP 生态系统的一部分,大家密切合作,使美光基于 HBM3E 的系统与 CoWoS 封装设计能够支撑客户的人工智能创新。

举报本楼

本帖有 1 个回帖,您需要登录后才能浏览 登录 | 注册
您需要登录后才可以回帖 登录 | 注册 |

手机版|C114 ( 沪ICP备12002291号-1 )|联系大家 |网站地图  

GMT+8, 2024-11-3 22:08 , Processed in 0.088343 second(s), 19 queries , Gzip On.

Copyright © 1999-2023 C114 All Rights Reserved

Discuz Licensed

回顶部
XML 地图 | Sitemap 地图