首页 › 2025年 › 09月 › 使用 FlashAttention 内核实现最先进的线性注意力:长序列 Transformer 的 O(n) 缩放
2025年09月13日 ai-systems

使用 FlashAttention 内核实现最先进的线性注意力:长序列 Transformer 的 O(n) 缩放

面向长序列 Transformer,给出 Flash Linear Attention 的高效实现、训练参数和推理优化要点,支持超过 1M tokens 的序列处理。

内容加载中...