首页 › 2025年 › 09月 › 使用Flash Linear Attention的高效内核实现线性注意力模型
2025年09月13日 ai-systems

使用Flash Linear Attention的高效内核实现线性注意力模型

基于Triton优化的Flash Linear Attention内核,帮助Transformer处理长序列,降低内存开销,提供安装与调优指南。

内容加载中...