当晶体管尺寸逼近物理极限,传统二进制计算面临功耗墙和可靠性瓶颈时,一个诞生于 20 世纪 60 年代的 "古老" 计算范式 —— 随机计算(stochastic computing)—— 正在 AI 边缘计算中焕发新的生机。它以概率位流为载体,用简单逻辑门实现复杂运算,为神经网络硬件加速提供了全新的技术路径。
概率位流的数学基础
随机计算的核心在于将数值编码为随机二进制比特流。以比特流 1100101110 为例,它表示数值 0.6—— 即流中 "1" 的比例(10 位中有 6 个 1)。这种表示基于伯努利大数定律:概率可通过频率来估计,位数越多精度越高。
随机计算采用两种编码格式:单极编码表示 [0,1] 区间的数值,双极编码表示 [-1,1] 区间的数值。双极编码公式为 P*=2P-1,其中 P 是单极编码值。
简化运算的硬件革命
随机计算最引人注目的优势是算术运算的极简化。对于乘法操作,单极格式下仅需一个 AND 门,双极格式下使用 XNOR 门即可实现。这种 "一位运算" 特性彻底颠覆了传统二进制乘法的高成本实现。
加法操作同样简化。MUX(多路选择器)方案实现 PZ=0.5 (P1+P2),电路结构简单但精度有限;APC(近似并行计数器)通过统计所有输入流中 "1" 的总数生成二进制结果,精度高但电路复杂。
这种硬件简化带来的优势是指数级的:乘法从需要数千个逻辑门缩减到单个门电路,加法可以从多位全加器简化为简单的多路选择器或计数器。
神经网络中的 SC 突破
在卷积神经网络(CNN)中,随机计算展现出令人瞩目的性能优势。SC-DCNN 架构在 LeNet-5 上的实验显示,相比传统二进制 ASIC 硬件,实现了 61X 面积改进、151X 功率改进和 2X 能效改进,同时精度损失不到 3.07%[1]。
现代 FPGA 优化的随机计算进一步突破传统限制。8 位 SC CNN 架构在 Kintex7 FPGA 上实现完全并行化,在手写数字识别任务中仅损失 0.14% 精度,同时实现 99.72% 的图像前向传播能效节省和 31X 数据吞吐量提升 [2]。
最新的脉冲神经网络(SNN)异步架构更将随机计算推向新高度。基于概率计算的 SNN 异步架构在 Xilinx KCU116 平台上达到 78.4 GSOPS 峰值性能和 137.47 GSOPS/W 的能耗比 [3]。
工程实现的挑战与创新
随机计算的工程化面临三大挑战:比特流生成成本、长延迟导致的能耗问题,以及回归任务的精度限制。
针对比特流生成成本,新兴的忆阻器随机计算架构利用导电桥接随机存储器(CBRAM)的开关随机性直接生成随机比特流,将乘加单元(MAC)尺寸减少 5 个数量级,在 40nm CMOS 工艺下实现 1.55mm² 芯片面积和 167μW 功耗 [4]。
为解决长延迟问题,时间编码随机计算提出了革命性方案:在时间编码的模拟信号上进行数字计算,相比传统随机计算实现 99% 性能提升、98% 能耗节省和 40% 面积减少 [5]。
回归任务的精度限制促使研究聚焦于分类任务。实验表明,随机计算的固有噪声对 CNN 回归性能严重影响,但对分类任务影响较小,这推动了随机计算在边缘 AI 分类应用中的发展。
渐进式精度:独特的技术优势
随机计算最具创新性的特性是渐进式精度:无需修改硬件即可调整计算精度。比特流越长,精度越高;较短比特流可快速提供粗略估计,适合迭代系统中的早期决策终止。
这种特性为硬件设计提供了前所未有的灵活性:同一套硬件可根据应用需求动态调整精度 - 能耗平衡,在低功耗模式下快速获得近似解,在精确模式下获得高精度结果。
边缘计算时代的应用前景
随着 AI 从云端向边缘迁移,能耗和延迟成为关键约束。随机计算在图像处理、模式识别、生物医学植入物等场景展现出巨大潜力。其硬件容错性特别适合恶劣环境下的可靠计算,渐进式精度特性使其适合实时反馈系统。
最新的确定性随机计算方法进一步降低了实现成本。基于低差异序列的位流处理和多项同步时钟设计策略,为大规模随机计算系统的实用化铺平了道路。
技术范式的重新思考
随机计算不仅是一种硬件优化技术,更代表了对计算本质的重新思考。它将确定性计算转向概率计算,将精确数值转向近似表示,将硬件复杂度转向算法容错。这种范式转换在 AI 时代具有特殊意义:神经网络的内在噪声和容错特性与随机计算的本质完美契合。
从更宏观角度看,随机计算体现了计算领域从 "追求绝对精确" 到 "拥抱合理近似" 的思想转变。在资源受限和可靠性要求并存的时代,这种转变可能重新定义我们设计和部署计算系统的方式。
随机计算的故事远未结束。随着新材料(如忆阻器)的发展和新算法(如确定性序列)的涌现,这个诞生于晶体管稀缺年代的 "古老" 技术,在晶体管过剩的时代找到了新的价值。它提醒我们:有时最简单的解决方案恰恰是最持久的。
参考资料
[1] "Hardware-driven nonlinear activation for stochastic computing based deep convolutional neural networks", International Joint Conference on Neural Networks, 2017 [2] "Stochastic Computing Convolutional Neural Network Architecture Reinvented for Highly Efficient Artificial Intelligence Workload on Field-Programmable Gate Array", 2024 [3] "概率计算脉冲神经网络异步架构", 计算机辅助设计与图形学学报,2022 [4] "Memristive Stochastic Computing for Deep Learning Parameter Optimization", arXiv:2103.06506, 2021 [5] "New Views for Stochastic Computing: From Time-encoding to Deterministic Processing", 博士论文,2025