Hotdry.
ai-systems

LLM 推理硬件的内存墙困境:四大架构方向的工程可行性边界

从 David Patterson 与 Xiaoyu Ma 的最新论文出发,拆解 LLM 推理场景下内存与互连瓶颈的成因,并评估高带宽 Flash、近存计算等四大架构方向的工程落地边界。

大语言模型推理正在经历一场静默的硬件危机。当业界将注意力集中在模型参数规模和 Token 生成速度时,一个更深层的矛盾正在浮现:推理效率的瓶颈早已从计算能力转移到了内存带宽与数据传输。这一转变的根源并非偶然,而是 Transformer 解码机制与模型架构演进共同作用的结果。

推理与训练的本质差异

理解这场硬件危机的第一步,是认识到推理过程与训练过程在资源需求模式上的根本差异。训练阶段依赖大规模并行计算,现代 GPU 的矩阵运算单元能够得到充分利用;而推理阶段的 autoregressive 解码过程要求逐个生成 Token,每一步都需要从内存中读取完整的模型参数。这意味着推理性能不再取决于每秒能执行多少次矩阵乘法,而是受制于每秒能从内存中搬运多少数据。

以一个拥有 700 亿参数的模型为例,在 FP16 精度下仅模型权重就需要约 140GB 存储空间。每次推理请求至少需要完整加载这些权重,而自回归解码过程需要在每个时间步将这些数据在计算单元和内存之间往返。传统 GPU 的内存带宽虽然达到 TB/s 级别,但在面对如此规模的数据搬运需求时,仍然显得捉襟见肘。计算单元大部分时间处于等待数据的状态,硬件利用率不足的问题在推理场景中尤为突出。

更深层的挑战来自模型架构的演进方向。Mixture of Experts 架构通过条件激活机制,在不显著增加训练成本的前提下扩展模型参数规模。DeepSeekV3 采用了 256 个专家模块的稀疏激活设计,这种架构选择虽然提升了模型质量,却将推理过程的内存和通信压力进一步放大。每次解码步骤都需要在更多可选的专家模块中进行路由决策,激活模式的不可预测性使得预取和缓存策略难以生效。

内存墙的特殊形态

内存墙问题在 LLM 推理场景中呈现出与经典定义不同的特征。传统意义上的内存墙主要指 CPU 性能增长落后于内存容量增长的速度差异,但在推理硬件领域,这一问题演化为三个相互关联的维度:容量墙、带宽墙和延迟墙。

容量墙是最直观的挑战。最新一代大模型的参数规模已经突破万亿级别,单个 GPU 的高带宽内存容量远远无法容纳完整的模型实例。DeepSeekR1 等推理优化模型虽然通过多头潜在注意力等压缩技术降低了推理时的内存占用,但模型体积的增长速度仍然快于内存容量的增长曲线。这意味着部署更大更强的模型需要更多的 GPU 节点,而节点间的协调开销又会引入新的性能瓶颈。

带宽墙的影响更为隐蔽却同样致命。现代 GPU 通过堆叠高带宽内存来缓解带宽压力,但 HBM 工艺的物理极限使得每代产品的带宽提升幅度逐渐收窄。与此同时,模型架构中注意力机制的 O (n²) 复杂度意味着序列长度增加时,键值缓存的访问量会呈平方级增长。当序列长度达到数万 token 时,即便是最先进的 GPU 也会陷入内存带宽的泥潭。

延迟墙则是分布式推理场景的专属难题。在多 GPU 部署架构中,模型切分策略决定了不同节点之间需要交换的数据量。流水线并行引入的节点间通信延迟虽然可以通过计算与通信重叠来隐藏,但张量并行所需的细粒度数据交换对网络延迟极为敏感。Patterson 团队在论文中特别指出,低延迟互连是加速节点间通信的关键,而传统数据中心网络架构在这方面存在明显短板。

四大架构方向的工程拆解

针对上述挑战,Patterson 团队提出了四个具有代表性的架构研究方向。每个方向都试图从不同角度突破内存墙的限制,但工程落地时面临的约束条件各有不同。

高带宽 Flash 存储方案

高带宽 Flash 方案试图将企业级 SSD 的高容量优势与接近 HBM 的带宽性能相结合。其核心思路是利用先进封装技术将 NAND Flash 存储阵列与控制器紧密集成,在保持 TB 级容量的同时提供类似 HBM 的数据传输速率。根据论文中的描述,这一方案有望实现 10 倍于传统方案的内存容量,同时保持可比的带宽水平。

工程实现层面的挑战主要集中在三个方向。首先是 NAND Flash 本身的读写延迟特性,虽然顺序读取带宽可以达到较高水平,但随机访问延迟仍然比 DRAM 高出数个数量级。其次是存储介质的耐久性问题,频繁的读操作虽然不像写入那样消耗寿命,但控制器层面的磨损均衡策略仍需谨慎设计。第三是散热管理,高密度 Flash 堆叠产生的热量需要有效的热传导路径导出。这些约束决定了高带宽 Flash 更适合作为冷启动后的模型权重存储,而非运行时频繁访问的激活值缓存。

从工程评估角度看,该方案对推理系统的收益取决于模型的激活模式。参数量大但单次推理过程中参数复用率高的模型能够从高带宽 Flash 中获得更大收益,因为模型权重可以常驻 Flash 而无需在每次请求时重新加载。相比之下,序列长度极长且注意力机制需要频繁随机访问键值缓存的场景,Flash 的延迟特性可能成为瓶颈。

近存计算架构

近存计算通过在内存控制器中集成轻量级计算单元,将部分推理计算任务下推到靠近数据的位置执行。这种架构设计的目标是减少数据在内存与计算单元之间的往返次数,从而缓解带宽压力。论文指出,近存计算对于激活函数、归一化操作等内存密集型子任务具有天然的效率优势。

工程实践中的关键问题是计算单元的功能边界划分。将过于复杂的计算逻辑集成到内存控制器中会显著增加设计复杂度和功耗,而过于保守的功能划分又无法充分释放近存计算的潜力。当前可行的方案是在内存控制器中实现向量加法、点积等基础运算,而将矩阵乘法等复杂操作保留在主计算单元。KV 缓存的键值查找和加权求和是近存计算的典型应用场景,因为这些操作涉及大量数据传输但计算复杂度不高。

良率控制是近存计算商业化的另一道门槛。内存阵列与计算逻辑在同一芯片上的紧密耦合意味着任何一处缺陷都可能导致整块芯片失效。论文建议的解决方案是采用模块化设计,将内存阵列划分为多个可独立旁路的子单元,即使部分子单元失效也不会影响整体功能。这种冗余设计会引入一定的面积开销,但在高价值推理芯片场景下是可以接受的权衡。

三维堆叠技术

三维堆叠技术通过在垂直方向上集成多层内存与逻辑芯片,实现了带宽密度的显著提升。与传统的 2.5D 封装方案相比,垂直堆叠能够大幅缩短芯片间的信号传输距离,同时支持更高密度的互连图案。HBM 内存已经是三维堆叠技术的成功先例,而论文进一步提出将这一思路扩展到内存与计算逻辑的直接堆叠。

工程实现面临的核心挑战是散热和功耗传输。随着堆叠层数增加,底层芯片产生的热量难以有效导出,而顶层的供电路径阻抗也会随之上升。当前业界采用的硅通孔技术虽然能够实现多层之间的电气连接,但其热阻特性需要在系统设计阶段精确建模。另一种技术路线是采用有序堆叠方案,在保持各层独立功能的前提下通过微型凸点实现层间互连,这种方法在散热管理上更为灵活,但会牺牲一定的带宽密度。

对于 LLM 推理场景,三维堆叠的价值主要体现在两个方面:一是提升单芯片的内存容量,使得更大规模的模型能够部署在更少的节点上;二是通过缩短内存访问延迟来隐藏键值缓存的读取开销。工程团队在评估这一技术路线时,需要特别关注目标模型的激活模式是否符合三维堆叠的优化方向。参数量分布均匀、内存访问模式可预测的模型能够更好地利用三维堆叠的带宽优势。

低延迟互连网络

低延迟互连网络针对分布式推理场景中的节点间通信瓶颈。当前数据中心广泛采用的以太网或 InfiniBand 网络虽然在带宽方面能够满足部分需求,但其端到端延迟和每焦耳传输的数据量并不理想。论文特别强调,推理工作负载对延迟的敏感性远高于传统的批处理任务,因为单个推理请求的端到端延迟直接决定用户体验。

工程实现层面,有几种技术路线值得关注。光互连方案利用硅光子技术实现芯片间的高速数据传输,其信号衰减特性使得长距离传输的能效优势尤为明显。但光互连的产业化进程受制于激光器集成和封装成本的下降速度,预计在高端推理场景会率先落地。另一种方案是优化现有的电气互连协议栈,通过减少转发层级、简化路由算法来降低端到端延迟。这种渐进式改进虽然效果有限,但能够在现有制造基础设施上快速部署。

网络拓扑结构的选择同样影响显著。传统的 fat-tree 拓扑虽然具有良好的扩展性,但在多租户推理场景下可能引入不必要的跳数。论文建议的替代方案包括 Dragonfly、HyperX 等更适合 AI 工作负载的拓扑结构,这些拓扑在保持可扩展性的同时能够将平均跳数控制在较低水平。工程团队在规划推理集群的网络架构时,应当根据预期的模型切分策略和请求分布模式来选择最匹配的拓扑方案。

工程落地的评估框架

对于正在规划推理基础设施的工程团队,论文提供的四大方向并非需要全部采纳的完整方案,而是针对不同场景的备选技术路径。实际决策时需要综合考虑模型特性、部署规模和成本约束等多重因素。

模型特性决定了最优技术路线的选择边界。参数量与激活计算量的比值是关键的参考指标,这一比值反映了模型对内存带宽与计算能力的相对需求。对于参数密集型模型,高带宽 Flash 和三维堆叠技术的收益更为明显;对于计算密集型模型,低延迟互连带来的收益可能不足以覆盖其部署成本。激活模式的规律性也是重要考量因素,规律性强的工作负载更容易通过预取和缓存策略来缓解内存瓶颈。

部署规模影响着技术路线的经济可行性论证。超大规模数据中心可以通过定制化芯片设计来充分挖掘某一技术方向的潜力,而中小规模的部署则更适合采用标准化产品。论文特别指出,移动设备等资源受限场景对能效比的要求更为严苛,部分在数据中心场景可行的方案可能需要经过显著的功耗优化才能移植到边缘设备。

成本约束是技术选型的硬性边界。先进封装技术的单位成本虽然在逐年下降,但与成熟工艺相比仍有数倍的差距。工程团队在评估技术路线时,需要将一次性研发投入与长期运营成本放在同一框架下比较。近存计算和三维堆叠技术的前期研发投入较高,但一旦实现规模化量产就能带来持续的边际成本优势。高带宽 Flash 方案的研发门槛相对较低,但需要在存储介质采购和控制器设计之间寻求成本平衡。

研究优先级的判断

面对众多有待探索的技术方向,工程团队需要建立清晰的优先级判断框架。基于论文的分析和当前产业趋势,以下几个维度值得优先关注。

内存带宽密度的提升应当作为首要目标。当前推理芯片的内存带宽增长曲线已经无法匹配模型规模的增长速度,这一矛盾在可预见的未来只会愈发尖锐。任何能够提升单位面积或单位功耗下内存带宽的技术路线,都值得投入资源深入探索。三维堆叠技术在这方面具有最高的潜力,但其工程实现的难度也最大。近存计算提供了一条折中路径,在可接受的复杂度增量下实现带宽效率的提升。

能效比优化是移动部署场景的核心诉求。边缘设备的功耗预算远低于数据中心,相同的技术方案在能效比上的表现可能天差地别。论文建议在评估任何技术路线时,都要将其在目标功耗约束下的性能表现作为核心指标。动态精度缩放、稀疏计算激活等软件层面的优化技术,能够与硬件层面的能效提升形成协同效应。

互连技术的演进需要与系统架构设计同步考虑。低延迟互连的价值取决于推理系统的并行粒度和通信模式,过度优化互连延迟可能在某些场景下无法获得预期收益。工程团队应当首先明确模型切分策略和请求调度机制,然后据此评估不同互连方案的边际收益。这种以系统设计为导向的技术评估方法,能够避免陷入单纯追求某一指标的技术陷阱。

结语

David Patterson 与 Xiaoyu Ma 的这篇论文为 LLM 推理硬件的演进方向提供了系统性的分析框架。核心洞察在于:推理与训练的本质差异决定了内存和互连才是真正的瓶颈所在,而突破这一瓶颈需要从架构层面进行重新设计。高带宽 Flash、近存计算、三维堆叠和低延迟互连四个方向各有其适用场景和工程约束,实际落地时需要根据具体需求进行权衡取舍。

对于工程团队而言,这篇论文的价值不在于提供可以直接采用的解决方案,而在于帮助建立评估和选择硬件技术路线的思维框架。在模型架构快速演进、硬件工艺逐渐逼近物理极限的当下,单纯依赖工艺进步已经无法持续提升推理效率。系统级的架构创新,包括算法与硬件的协同设计、存储层次的重新划分、分布式通信模式的优化,将成为下一代推理基础设施的核心竞争力来源。


参考资料

  • Ma, X., & Patterson, D. (2026). Challenges and Research Directions for Large Language Model Inference Hardware. arXiv preprint arXiv:2601.05047.
  • Semiconductor Engineering. (2026). Four Architectural Opportunities for LLM Inference Hardware.
查看归档