2023 年,DeepMind 首次展示了大型语言模型在数学发现中的潜力,通过 FunSearch 系统在开放数学问题上生成了可证明正确的新知识。2025 年,这一技术路径得到了质的飞跃 ——AlphaEvolve 的出现标志着 AI 从单一函数发现演进到完整代码库演化,能够处理更加复杂的算法设计任务。AlphaEvolve 的核心创新在于将 Gemini 模型的创造性问题解决能力与自动化评估器相结合,构建了一个进化式框架来迭代优化算法方案。这一系统已在 Google 数据中心调度、下一代 TPU 芯片设计、矩阵乘法内核优化以及数学前沿探索等多个场景中产生实际工程价值,其影响正从代码生成层面扩展到硬件架构与基础科学研究领域。
Gemini 驱动的进化式编码架构
AlphaEvolve 的技术架构建立在一个关键洞察之上:大型语言模型擅长生成创意性候选方案,而自动化评估器能够客观验证这些方案的正确性与性能。系统采用 Gemini Flash 与 Gemini Pro 双模型协同策略 —— 前者以极高的效率探索广泛的思想空间,后者则提供深度洞察来改进关键细节。这种双轨并行的设计确保了系统在保持探索广度的同时不失优化深度,避免了单一模型在创造力与精确性之间的权衡困境。
当用户向 AlphaEvolve 提交一个待解决的问题时,系统首先根据问题描述组装提示模板,然后由语言模型生成实现该算法的计算机程序。这些程序随后被送入自动化评估流程,接受精度、质量和效率等多维度指标的严格检验。评估结果会反馈到进化算法模块,该模块维护一个程序数据库,并决定哪些候选方案应当保留用于后续迭代。通过这种「生成 — 评估 — 选择 — 变异」的循环往复,系统能够在数小时至数天内完成以往需要人类专家数周乃至数月才能完成的算法优化工作。这种自动化能力在硬件内核优化场景中尤为突出:传统上,工程师需要手动调整 GPU 指令级优化,而 AlphaEvolve 能够直接探索此前被视为「编译器禁区的」的底层优化空间。
数据中心调度:从实验到生产的落地实践
AlphaEvolve 最具代表性的工程成果之一是发现了用于 Google Borg 集群管理系统的高效调度启发式算法。Borg 负责管理 Google 遍布全球的数百万台服务器资源,其调度策略直接影响数据中心的计算效率与能源利用。AlphaEvolve 在这一领域发现了一个简洁 yet 极其有效的调度规则,该方案已在生产环境中稳定运行超过一年,持续回收约 0.7% 的全球计算资源。这意味着在任何给定时刻,相等的硬件基础设施能够承担更多计算任务,对于拥有庞大数据中心运营规模的 Google 而言,这一比例的改进意味着数以亿计的能源节约与计算成本降低。
更值得关注的是,该方案不仅在性能指标上表现出色,还具备显著的操作优势:生成的代码是人类可读的,保留了可解释性、可调试性和可预测性。这一特性在企业级生产环境中至关重要 —— 当自动化系统产生的优化方案能够被人类工程师理解与审查时,其工程采纳门槛大幅降低。传统的机器学习优化器往往被批评为「黑箱」,而 AlphaEvolve 展示了一种人机协作的可行路径:AI 提供候选方案,人类保留最终决策权与理解能力。
硬件设计:Verilog 层面的自动化电路优化
在芯片设计领域,AlphaEvolve 展现了从软件优化向硬件架构渗透的能力。系统能够针对特定数学运算电路提出 Verilog 重写建议,移除不必要的逻辑门与冗余位操作。在一个针对矩阵乘法关键运算电路的优化任务中,AlphaEvolve 生成的 Verilog 修改方案被证明能够在保持功能正确性的前提下减少芯片面积与功耗。该方案已被整合到即将推出的 Tensor Processing Unit(TPU) 设计流程中,这是 AI 系统首次直接参与 Google 自研 AI 加速器的硬件生成环节。
这一成果的工程意义远超表面上的电路优化。它代表了一种新的人机协作芯片设计范式:AlphaEvolve 不以替代硬件工程师为目标,而是扮演了一个极具创造力的「设计伙伴」角色。AI 能够以硬件工程师熟悉的领域语言(Verilog)提出修改建议,使得审查与集成过程更加顺畅。传统上,芯片设计周期以年为单位计算,而 AI 辅助的快速迭代可能将某些优化环节从数月压缩到数天。当然,所有由 AI 生成的硬件方案都必须通过严格的验证方法(包括形式化验证与仿真测试)才能进入生产流程,这确保了自动化带来的效率提升不会牺牲可靠性。
AI 训练优化:矩阵乘法内核的突破性提速
作为训练大规模语言模型的基础算子,矩阵乘法的执行效率直接决定了模型训练的成本与速度。AlphaEvolve 在这一关键领域实现了 23% 的内核性能提升,直接导致 Gemini 模型训练时间缩短约 1%。对于需要数千块 GPU 连续运行数月的训练任务而言,1% 的改进意味着数百万美元的算力成本节约。更重要的是,这一优化将内核工程优化的工作周期从专家手动工作的数周压缩到自动化实验的数天,使得研究者能够将更多精力投入到模型架构创新而非底层性能调优。
在更细粒度的 GPU 指令优化层面,AlphaEvolve 实现了 FlashAttention 内核 32.5% 的加速。FlashAttention 是 Transformer 模型中广泛使用的注意力机制高效实现,其底层优化长期被视为编译器的专属领域,人类工程师通常不会直接修改。AlphaEvolve 的成功表明,即使在已被高度优化的代码空间中,仍存在通过创造性算法重构实现显著性能提升的可能性。这一发现对于依赖大规模 Transformer 架构的 AI 系统具有普遍的工程价值。
数学发现:从算法优化到定理证明
AlphaEvolve 的能力边界延伸到了纯数学研究领域。在矩阵乘法算法发现任务中,系统设计了一个基于梯度下降的优化程序,成功发现了 4×4 复数矩阵乘法 的新算法,仅需 48 次标量乘法 即可完成运算,这一结果改进了自 1969 年以来被视为最佳的 Strassen 算法。值得注意的是,此前的 AlphaTensor 系统虽然也专注于矩阵乘法算法发现,但在处理 4×4 复数矩阵时仅能改进二进制算术情形,而 AlphaEvolve 将这一能力扩展到了复数域,这是一个实质性的数学进展。
在开放数学问题的探索中,AlphaEvolve 被应用于超过 50 个数学分析、几何、组合学和数论领域的未解决问题。在约 75% 的案例中,系统重新发现了已知的最优解;而在 20% 的案例中,系统找到了比此前已知更好的解决方案。例如,在具有 300 多年历史的 接吻数问题(kissing number problem)中,AlphaEvolve 在 11 维空间中发现了由 593 个外球组成的配置,刷新了该维度下的下界。这些成果表明,当问题的解决方案能够被编码为可自动验证的算法时,AlphaEvolve 具备探索数学前沿的潜力。
自动化定理证明与形式化验证的工程路径
AlphaEvolve 在数学发现中的成功与自动化定理证明领域产生了深刻共鸣。系统展示的「生成 — 验证 — 迭代」工作流程与形式化验证工程的核心原则高度一致:AI 负责提议候选构造与证明思路,而形式化验证工具负责最终的正确性确认。这种协作模式在硬件验证、软件安全协议分析和高可靠性系统设计中具有广阔的应用前景。
从工程实践角度看,AlphaEvolve 模式的成功依赖于几个关键条件:问题域必须有可量化的评估指标、解决方案必须能够用代码形式化表达、评估过程必须能够自动化执行。这些条件在矩阵运算优化、电路设计和调度策略等领域天然满足,但在需要复杂人类直觉的数学猜想证明中仍面临挑战。随着大型语言模型在形式化推理能力上的持续提升,AlphaEvolve 式的自动化发现系统有望扩展到更多需要严格逻辑推导的工程领域。
多学科影响与未来演进方向
AlphaEvolve 的出现标志着 AI 辅助工程进入了一个新阶段:从工具层面的效率提升(代码补全、错误检测)演进到创造力层面的问题解决(算法发现、方案优化)。其跨数学、计算机硬件、系统软件的多领域成功表明,只要问题能够被形式化描述并自动评估,AI 系统就能够提供有价值的候选解决方案。这种通用性使得 AlphaEvolve 的技术路线有望进一步扩展到材料科学、药物发现、可持续能源等依赖算法优化的领域。
与此同时,DeepMind 已开始与 People + AI Research(PAIR) 团队合作构建友好的用户交互界面,并计划推出面向学术用户的早期访问计划。这一步骤暗示着 AlphaEvolve 正在从 Google 内部的生产工具向更广泛的科研社区开放。随着 Gemini 模型本身在编程能力上的持续进化,AlphaEvolve 的能力边界预计将同步扩展,为更多跨学科的自动化推理任务提供支撑。
资料来源:本文核心事实与数据均来自 DeepMind 官方博客文章《AlphaEvolve: A Gemini-powered coding agent for designing advanced algorithms》(2025 年 5 月 14 日发布)及关联技术白皮书。