首页 › 2025年 › 09月 › 使用 FlashAttention 内核实现高效线性注意力:O(n) 长序列 Transformer 训练与推理优化
2025年09月13日 ai-systems

使用 FlashAttention 内核实现高效线性注意力:O(n) 长序列 Transformer 训练与推理优化

基于 Flash Linear Attention 库,探讨如何在 GPU 上实现 O(n) 复杂度线性注意力机制,支持多种 SOTA 模型的快速训练和推理。

内容加载中...