Hotdry.

Article

AI-Agent 原生交易流水线:多模型协同决策与亚秒级延迟控制

解析 HKU DS AI-Trader 的架构设计,探讨全自动化代理交易系统中多模型协同推理与订单执行延迟控制的工程实践。

2026-05-10ai-systems

在金融交易领域,速度与准确性之间的权衡始终是核心命题。当 AI Agent 开始接管交易决策时,这个权衡被赋予了全新的技术内涵。HKU DS 开发的 AI-Trader 项目展示了「Agent-Native Trading Platform」的设计理念:不仅让人类交易者使用 AI,更让 AI 代理之间能够相互协作、共享信号、执行跟单。这种架构下,决策流水线与执行流水线的延迟控制成为系统可用性的关键约束。

决策 - 执行流水线解耦的核心设计

传统量化交易系统通常将信号生成与订单执行放在同一进程中,通过紧耦合的函数调用完成从「看到机会」到「下单成交」的完整流程。这种设计在策略相对固定、决策逻辑简单的场景下效率较高,但当决策逻辑由多个 AI 模型协同产生时,紧耦合架构会成为性能瓶颈 —— 单个模型的推理延迟会级联放大为整个流水线的总延迟。

AI-Trader 采用的核心设计哲学是决策层与执行层彻底解耦。在该平台的架构中,AI Agent 负责发布交易信号(Strategy Signal),这些信号以标准化格式被记录到共享状态存储中。执行层的后台 Worker 通过异步拉取模式消费这些信号,根据实时的账户状态、持仓情况和风控规则决定是否实际下单。这种设计的关键优势在于:决策过程可以在更宽松的时间窗口内完成(秒级甚至分钟级),而执行层的核心路径被压缩到亚秒级别,仅处理「要不要执行」和「执行哪条信号」这两个轻量决策。

从工程实现角度看,解耦还带来了容错能力。当执行层暂时不可用(例如网络抖动或交易所接口超时)时,决策层可以继续正常生成信号,待执行层恢复后自动追平。这种模式在多 Agent 协作场景下尤为重要,因为不同 Agent 的推理速度可能差异很大 —— 一个基于历史数据做技术分析的 Agent 可能在 200 毫秒内完成信号发布,而一个需要调用外部数据源进行基本面推理的 Agent 可能需要 5 秒。解耦设计确保快 Agent 的信号不会因为慢 Agent 的存在而被阻塞。

多模型协同推理的并行化策略

AI-Trader 平台支持多个 AI Agent 同时发布信号,这本质上引入了一个多模型协同问题。在一个典型的协作场景中,可能同时存在做趋势跟踪的 Agent、分析情绪数据的 Agent、监控链上资金流向的 Agent,以及执行均值回归策略的 Agent。这些 Agent 各自独立生成信号,执行层需要一种机制来判断:对于同一个标的,多个 Agent 信号冲突时听谁的?多个 Agent 方向一致时要不要加倍?

多模型协同的核心挑战在于延迟预算极其有限。从市场数据 tick 到达,到订单需要被提交到交易所,中间可用时间通常不超过 50 毫秒(在高频场景下甚至要求 5 毫秒以内)。在这段时间内需要完成:接收多个 Agent 的信号、对信号进行一致性校验、应用风控规则、生成订单请求、发送到交易所接口。任何模型层面的复杂推理都必须在这个硬性时间预算内完成,否则整个流水线就会超时。

实践中的解决方案是将「重推理」与「轻决策」分离。多模型协同的真正工作不是在执行时刻发生的,而是在信号发布时已经完成。每个 Agent 在发布信号时会附带置信度、策略标签、有效期等元数据。执行层的融合模块(Fusion Layer)只需要按照预定义的策略(如置信度加权投票、风险调整后的信号评分)对已有信号进行快速聚合,而不是在每次决策时重新调用多个模型。这意味着信号发布本身可以花费较长时间(秒级),但执行决策必须在毫秒级完成。

融合策略的选择直接影响系统行为。简单多数投票在信号方向一致时工作良好,但当市场剧烈波动、多空双方信号接近时容易被噪声干扰。基于置信度加权的方法能够给予历史表现更好的 Agent 更高权重,但需要持续跟踪各 Agent 的信号准确率。一种更稳健的方案是「分层决策」:首先基于风险等级快速筛选 —— 低风险信号直接放行,高风险信号进入更严格的审核流程。这种分层设计将大部分计算量从实时路径转移到离线预处理阶段,确保在线决策的确定性延迟。

亚秒级下单延迟的技术实现

金融交易流水线的延迟可以分解为几个关键阶段:数据获取延迟、推理计算延迟、决策传播延迟、网络传输延迟、交易所处理延迟。前三者属于系统内部延迟,后两者主要取决于基础设施位置和网络质量。系统内部延迟是工程优化的重点区域。

数据获取延迟的控制依赖于实时流处理架构。传统的请求 - 响应模式(轮询 REST API 获取最新行情)在延迟上存在天然劣势 —— 每次轮询间隔内市场已经移动。采用 WebSocket 或 FIX 协议直连交易所行情流是行业标准做法,但更关键的是数据进入系统后的处理路径。Kafka + Flink 的组合能够在数据进入后立即进行确定性预处理(价格归一化、特征提取、技术指标计算),整个处理链路被设计为有界延迟(bounded latency),每个处理节点的 SLA 被明确设定,确保端到端的数据延迟可预测。

推理计算延迟的优化方向是模型小型化与缓存复用。对于需要毫秒级响应的交易决策,使用数十亿参数的大语言模型是不现实的。更可行的路径是使用蒸馏后的小模型(7B 以下参数)、决策树集成或混合专家架构。AI-Trader 的设计允许不同复杂度的 Agent 共存:部分 Agent 执行轻量级技术分析(毫秒级响应),部分 Agent 执行深度推理(秒级响应),融合层统一处理这种异构性。同时,对于市场常见状态(高波动 / 低波动 / 趋势 / 震荡),可以预计算并缓存对应的信号评分模式,在线推理时直接命中缓存的概率大大增加。

决策传播延迟的核心是减少锁竞争与进程间通信开销。当多个 Agent 的信号需要被聚合时,如果采用集中式锁机制,同步等待会导致延迟不确定性。AI-Trader 采用无锁的发布 - 订阅机制:Agent 将信号写入各自的 Topic,融合模块作为 Subscriber 异步接收并聚合。这种模式避免了读写冲突,但需要解决信号乱序的问题 —— 通过信号中的时间戳和序列号,融合模块能够正确重建信号顺序并处理重复。

网络传输延迟是基础设施约束,优化手段有限但效果显著。将交易服务器部署在交易所机房附近(co-location)是行业惯例,能够将网络往返时间从 30 毫秒压缩到 1 毫秒以内。对于 AI-Trader 这类聚合多个交易所和 broker 的平台,选择合适的数据中心位置需要综合考虑各交易所的地理位置和用户分布。AWS 的 Tokyo、Singapore 或 Dublin 区域通常是亚太和欧美的折中选择。

风控与延迟的平衡机制

任何交易系统都不能为了追求低延迟而放弃风控。AI-Trader 在架构设计中嵌入了多层风控机制,但这些机制本身不能成为延迟瓶颈。平台采用的风控策略执行模式是「预授权 + 实时校验」:在交易开始前,Agent 的交易权限和策略范围已经被明确定义(最大仓位、最大亏损、单次最大下单量等),执行层只需要做快速的存在性校验和边界检查,而不是在每次下单时重新计算风控指标。

预授权模式将风控从计算密集型任务转化为查表操作。当订单请求到达时,执行层查询该 Agent 的权限表、当前持仓表、实时盈亏表,三个表都是内存中的哈希表或跳表结构,查询时间在微秒级别。结合简单的数值比较,系统能够在 100 微秒内完成基础风控校验。超出权限范围的订单(如超量下单、交易禁售标的)会被直接拒绝,不会进入交易所接口。

对于更复杂的风险场景(如相关持仓风险、集中度风险、流动性风险),AI-Trader 将这些计算从实时路径转移到定时批处理任务中。每隔固定周期(如 1 分钟),后台任务扫描所有持仓计算风险指标,结果写入缓存供执行层查询。这种设计将复杂的风险计算从毫秒级决策路径中移除,同时保证了风险监控的及时性 —— 最多 1 分钟的延迟对于非高频策略是可接受的。

实战参数配置与监控要点

将上述架构设计落地到具体工程实现,以下参数配置和监控指标是系统可靠运行的关键。

延迟预算分配建议。对于一个目标端到端延迟 100 毫秒的交易流水线,推荐分配如下:数据获取与预处理 20 毫秒(占 20%),信号融合决策 15 毫秒(占 15%),风控校验 5 毫秒(占 5%),订单构造与序列化 5 毫秒(占 5%),网络传输到交易所 45 毫秒(占 45%),交易所确认 10 毫秒(占 10%)。如果实际测量的延迟超出预算,需要按照占比从高到低排查 —— 网络传输延迟通常是最难优化的环节,优先通过基础设部署改善;融合决策延迟可以通过简化融合策略或增加预计算缓存来优化。

模型推理超时配置。对于参与实时融合的信号,设定 50 毫秒硬性超时 —— 超出此时间的信号不参与当前决策周期,待下一周期再处理。对于非实时信号(如基本面分析信号),超时可以放宽到 5 秒,但仍需设定上限防止 Agent 永久阻塞。通过指数退避重试机制处理偶发性超时,首次重试延迟 200 毫秒,第二次 1 秒,连续三次超时后标记 Agent 状态为降级。

监控关键指标。实时层面需要追踪:端到端信号延迟(从信号创建到执行完成的耗时)、决策通过率(通过风控的订单占比)、信号融合耗时(多信号聚合的耗时 P99)、网络 RTT(到各交易所的往返时延)、重试率和错误率。历史分析层面需要追踪:各 Agent 的信号胜率(盈利信号占比)、平均持仓时长、滑点分布、策略相关性(避免 Agent 间信号过度集中于同一方向导致集中风险)。

降级与熔断策略。当检测到延迟持续超过阈值(如 P99 超过 500 毫秒超过 1 分钟),系统自动进入降级模式:暂停接收新 Agent 信号,仅执行历史已确认的低风险信号。当检测到连续多次下单失败(网关超时或交易所拒绝),触发熔断,暂停该交易所接口的订单发送,等待 30 秒后逐步恢复。降级和熔断状态通过平台 Dashboard 可视化,确保运维人员能够及时介入。


AI-Trader 项目展示的 Agent-Native Trading Platform 架构,为多模型协同交易提供了一个可复用的设计范式。其核心价值不在于单个 AI 模型有多强大,而在于通过决策 - 执行解耦、预计算 - 在线查表分离、分层融合策略等手段,在保证系统可控性的前提下实现了多 Agent 并发协作。这种架构对于构建面向未来的 AI 金融基础设施具有重要参考意义:随着更多专业化 AI Agent 加入市场,能够容纳异构推理能力、支持弹性扩展的统一交易平台将成为基础设施层的关键组件。

资料来源:AI-Trader 项目地址 https://github.com/HKUDS/AI-Trader,多模型边缘推理延迟优化方案参考 PMC 学术文献 https://pmc.ncbi.nlm.nih.gov/articles/PMC9415810/。

ai-systems

内容声明:本文无广告投放、无付费植入。

如有事实性问题,欢迎发送勘误至 i@hotdrydog.com