cycle positionDRAM 上行周期 Q14 · 已超历史最长 12Q · 越线运行
loading prices…
17 theses
← 返回首页 A2 · A · 需求 · priority high

单 GPU HBM 含量(GB / TB·s⁻¹ / 美元)代际超线性增长

当前档位
STRONG-YES
timeline updated Thu May 07 2026 00:00:00 GMT+0000 (Coordinated Universal Time) · today created Thu May 07 2026 00:00:00 GMT+0000 (Coordinated Universal Time)
⚠ 概率档位更新仅在桌面端开放(≥1024px 非触摸设备)。慢思考保护。

📊 跟踪指标 · 命题指示要监控的关键数字

5 项
Rubin (R100) HBM 容量
支持
288GB (HBM4 12-Hi)
目标/阈值: ≥288GB
NVIDIA GTC 2026
DGX Rubin 单 GPU HBM 带宽
~20 TB/s
目标/阈值: +30% YoY
NVIDIA NVL8 spec
代际容量提升幅度
关注
H→B +140% / B→R +50%
目标/阈值: ≥+20%
NVIDIA roadmap
代际带宽提升幅度
支持
H→B +135% / B→R +63%
目标/阈值: ≥+30%
各家 spec
HBM4E 单 stack pin speed
支持
16 Gbps / 4.0 TB/s
Samsung GTC 2026

✓ 命题成立条件

1 / 5 已达成
  • Rubin (R100) HBM 容量确认 288GB+ (HBM4 12-Hi 已确认) — NVIDIA GTC 官方规格
  • Rubin Ultra HBM 容量提升至 384GB+
  • 单 GPU HBM 美元含量代际增速维持 +30% 以上
  • HBM 带宽代际增速维持 +30% 以上
  • 下一代(R300 / 2028+) 三项指标继续上升

桌面端点击图标可标 ✓ / ✗ / ○,写入 D1 + 决策日志

✗ 命题失败条件

4 项 monitor
  • 任一项绝对指标代际提升幅度跌破 +20%
  • 出现非 HBM 替代(HBF、CXL 池化、SOCAMM2 等)在高端 GPU 中实质应用并替换 HBM
  • 单 GPU HBM 美元含量出现代际下降(意味着架构革新)
  • NVIDIA 出现"HBM lite"路线(低 HBM 含量的成本优化型号大量出货, 拉低 mix)

▲ 当前支撑证据

6 条
  • H100 → B100 → R100 HBM 容量: 80 → 192 → 288 GB (+140%, +50%)
  • DGX Rubin NVL8 官方规格: 2.3TB GPU memory + 160 TB/s HBM bandwidth (折算 288GB/GPU + ~20 TB/s/GPU)
  • HBM3E → HBM4 单 stack pin speed: 8 → 11.7 Gbps (Samsung 标准, 13 Gbps 目标)
  • HBM4 36GB 12-Hi 单 stack 带宽 >2.8 TB/s (Micron 数据)
  • HBM4E 公开样品: 16 Gbps / 4.0 TB/s 单 stack (Samsung GTC 2026)
  • 三家 16-Hi roadmap 明确, hybrid copper bonding 解决散热

▼ 当前反对证据

4 条
  • 代际提升幅度本身在放缓: +140% → +50% 容量提升,+135% → +63% 带宽提升
  • TSV (硅通孔) 物理极限可能在 16-Hi 见顶
  • 5 年外推时,真正"指数"和"次指数"差异巨大 (32x vs 7.6x)
  • Co-packaged optics (CPO) 发展可能改变内存-计算架构

档位演化

2026-05-07 · STRONG-YES2026-05-07 · STRONG-YES
  1. 2026-05-07STRONG-YES用绝对指标替代 BoM 占比;Rubin 带宽数字 update 至 ~20 TB/s/GPU
  2. 2026-05-07STRONG-YES初始建立。Hopper → Blackwell → Rubin 实测数据支持

命题主体

A2 · 单 GPU HBM 含量(GB / TB·s⁻¹ / 美元)代际超线性增长

命题表述

每一代 NVIDIA 数据中心 GPU 中, HBM 的三个绝对指标都呈代际超线性增长:

  1. HBM 容量(GB/GPU): H100 80GB → B100 192GB → R100 288GB → Rubin Ultra 384GB+
  2. HBM 带宽(TB/s/GPU): H100 3.4 → B100 8 → R100 ~20 (基于 DGX Rubin NVL8 规格 2.3TB / 160 TB/s 折算)
  3. HBM 美元含量($/GPU): H100 ~$3K → B100 ~$8K → R100 ~$15K+

这意味着即使 GPU 出货量保持不变, HBM 总需求(按 bit 或美元口径)也会逐年增加。

不再使用"BoM 占比"作为核心指标, 因为 BoM 占比受 GPU die 价格、advanced packaging cost、NVLink、液冷、机柜级系统价格变化影响, 是一个内生的比率而非干净的需求量。专家指出这点对 — 用绝对指标(GB / TB·s / 美元)更可靠。

这是 fin哥 "token throughput = HBM × BW" 终局论的真正物理基础。需要注意, 这是次指数关系而非"指数:1", 但仍然显著超线性 (代际容量增速 ~+50%, 带宽增速 ~+60-150%)。

概率档位历史

日期 档位 原因
2026-05-07 strong-yes (initial) 初始建立。Hopper → Blackwell → Rubin 实测数据支持
2026-05-07 strong-yes (revised) 用绝对指标替代 BoM 占比;Rubin 带宽数字 update 至 ~20 TB/s/GPU

关联机制

  • hbm_per_gpu_uplift: 单 GPU HBM 含量代际提升
  • memory_bound_inference: 推理工作负载是 memory-bound,HBM 越多 throughput 越高

关联指标

  • hbm_capacity_per_gpu: 单 GPU HBM 容量(GB) 按代际
  • hbm_bandwidth_per_gpu: 单 GPU HBM 带宽(TB/s) 按代际
  • hbm_dollar_content_per_gpu: 单 GPU HBM 美元含量 按代际

交易表达

  • long_hanmi: HBM TC bonder 是 12-Hi → 16-Hi 升级的关键设备,需求随 stack 数增加
  • long_advantest: HBM tester 测试时间随 stack 数线性增加
  • long_substrate_suppliers: HBM4 基板需求随容量上升

复盘锚点

每次新一代 GPU (Rubin → Rubin Ultra → 后续) 发布时,必须更新三项绝对指标。如果连续两代任一指标提升幅度 < +25%,触发命题降档。


修订说明 (v2 vs v1)

维度 v1 v2
核心指标 "BoM 占比每代上升" 三项绝对指标: GB/GPU, TB/s/GPU, $/GPU
Rubin 带宽数据 13 TB/s ~20 TB/s (基于 DGX Rubin NVL8 官方规格)
失败条件 "BoM 占比 < 25%" "美元含量代际下降" 等绝对指标恶化

专家反馈采纳: 完全采纳 — "用 GB/GPU、TB/s/GPU、$/GPU 替代 BoM 占比"。BoM 占比受太多其他变量影响, 不是干净指标。

关联命题