如果您希望可以时常见面,欢迎标星收藏哦~
尽管 JEDEC 仍需最终确定HBM4 规范,但业界似乎需要尽快推出新的内存技术,因为对 AI 高性能 GPU 的需求是无止境的。为了使芯片设计人员能够构建下一代 GPU,Rambus 推出了业界的 HBM4 内存控制器 IP,其功能超越了迄今为止宣布的 HBM4 的功能。
Rambus 的 HBM4 控制器不仅支持 JEDEC 指定的 HBM4 6.4 GT/s 数据传输速率,而且还具有支持高达 10 GT/s 速度的空间。这使得每个 HBM4 内存堆栈的内存带宽达到 2.56 TB/s,具有 2048 位内存接口。
Rambus HBM4 控制器 IP 可以与第三方或客户提供的 PHY 解决方案配对,以创建完整的 HBM4 内存系统。
Rambus 正在与 Cadence、三星和西门子等行业领导者合作,以确保这项技术能够顺利融入现有的内存生态系统,促进向下一代内存系统的过渡。
JEDEC HBM4 规范的初步版本表明,HBM4 内存将采用 4 高、8 高、12 高和 16 高堆栈配置,支持 24 Gb 和 32 Gb 的内存层。使用 32 Gb 层的 16 高堆栈将提供 64 GB 的容量,使具有四个内存模块的系统的总内存容量达到 256 GB。此设置可通过 8,192 位接口实现 6.56 TB/s 的峰值带宽,从而显著提高苛刻工作负载的性能。
如果有人设法让 HBM4 内存子系统以 10 GT/s 的速度运行,那么四个 HBM4 堆栈将提供超过 10 TB/s 的带宽。不过,Rambus 和内存制造商通常会提供对增强速度的支持,以提供空间并确保在标准数据传输速率下稳定且节能的运行
Rambus 高级副总裁兼硅 IP 总经理 Neeraj Paliwal 表示:“大型语言模型 的参数现已超过一万亿,并且还在不断增长,克服内存带宽和容量瓶颈对于满足 AI 训练和推理的实时性能要求至关重要。作为 AI 2.0 的领先硅 IP 提供商,我们将业界首款 HBM4 控制器 IP 解决方案推向市场,帮助我们的客户在其最先进的处理器和加速器中实现突破性的性能。”
由于 HBM4 的每个堆栈通道数是 HBM3 的两倍,因此由于接口宽度为 2048 位,因此需要更大的物理占用空间。此外,HBM4 的中介层与 HBM3/HBM3E 的中介层不同,这又会影响它们的数据传输速率潜力。
半导体精品公众号推荐
专注半导体领域更多原创内容
关注全球半导体产业动向与趋势
今天是《半导体行业观察》为您分享的第3882内容,欢迎关注。
『半导体第一垂直媒体』
实时 专业 原创 深度
公众号ID:icbank
喜欢我们的内容就点“在看”分享给小伙伴哦
声明:本网转发此文章,旨在为读者提供更多信息资讯,所涉内容不构成投资、消费建议。文章事实如有疑问,请与有关方核实,文章观点非本网观点,仅供读者参考。
深度