股票之声

 找回密码
 注册

QQ登录

只需一步,快速开始

股票之声 首页 行业分析 查看内容

电子行业 :AI端侧之近存计算:CUBE有望助力端侧AI落地

2025-2-26 10:50| 发布者: 神童股手| 查看: 89| 评论: 0

摘要:   核心观点   随着AI 算力需求的不断提升,冯·诺依曼架构的存算性能失配问题日益显现,存算一体化技术应运而生。近存计算通过2.5D 和3D 堆叠
  核心观点

      随着AI 算力需求的不断提升,冯·诺依曼架构的存算性能失配问题日益显现,存算一体化技术应运而生。近存计算通过2.5D 和3D 堆叠技术有效融合计算与存储,提升内存带宽并降低访问延迟,成为提升芯片性能的主流方案。HBM 和CUBE 方案作为代表,能够广泛应用于高性能计算和边缘设备中,随着AI 终端的普及和算力需求的加速,近存计算有望成为未来技术发展的关键趋势。

      算力需求提升导致冯·诺依曼架构存算性能失配,近存计算将破局

      冯氏架构以计算为中心,计算和存储分离,二者配合完成数据的存取与运算,在AI 时代随算力持续提升,存算之间性能失配问题凸显。近存计算利用先进的封装技术,将计算逻辑芯片和存储器封装到一起,通过减少内存和处理单元之间的路径,实现高I/O 密度,进而实现高内存带宽以及较低的访问开销。我们认为未来近存计算将成为AI 时代芯片性能提升的主流方案。

      HBM 历经多次迭代,已成为高性能计算、数据中心主流近存计算架构

      HBM 采用TSV 技术堆叠DRAM die 以大幅提升I/O 数,再配合2.5D 先进封装制程,在维持较低内存频率的同时达到更显著的总通道宽度提升,兼具高带宽、高容量、低功耗。自2016 年以来,HBM(高带宽内存)技术不断革新。HBM2 (2018)采用8层DRAM,提供256GB/s 带宽,2.4Gbps 传输速度,8GB 内存。HBM2E (2020):将传输速度提升至3.6Gbps,内存增加至16GB。 HBM3 (2022)将堆叠层数和管理通道增加,传输速度最高可达819GB/s,16GB 内存。HBM3E 将传输速度高达8Gbps,容量增至24GB。目前HBM 已广泛应用于高性能计算、数据中心等领域。

      AI 终端持续落地,CUBE 方案有望大放异彩

      CUBE 采用2.5D 或3D 封装,与主芯片SoC 集成,通过高达1024 个I/O 实现超高带宽,可广泛适用于适用于可穿戴设备、边缘服务器设备、监控设备及协作机器人等高级应用。CUBE 容量相对较小,适用于边缘端应用。以AI-ISP 为例,AI-ISP 中有很多灰色部分属于神经网络处理器(NPU),如果AI-ISP 要实现大算力,就需要很大的带宽,或者是SPRAM。但是在AI-ISP 上使用SPRAM 的成本非常高,使用LPDDR4 的话,因为需要4-8 颗,因此成本亦较高。使用CUBE 方案则可以缩小L3缓存,放大L4 缓存,在降低芯片成本的同时提高带宽。未来随AI 手机等AI 端侧设备以及机器人等新型AI 终端发展,CUBE 有望成为端侧AI 主流近存计算架构。

      受益标的:北京君正、兆易创新、瑞芯微。

      风险提示:下游需求不及预期,技术验证及迭代不及预期。

鲜花

握手

雷人

路过

鸡蛋
【2024年5月31日最新敬告:文明发帖】

Archiver|手机版|小黑屋|股票之声 ( 京ICP备09051785号 )

GMT+8, 2025-4-30 19:23 , Processed in 0.043691 second(s), 7 queries , MemCache On.

Powered by Discuz! X3.4

Copyright © 2001-2021, Tencent Cloud.

返回顶部