智源FlagAttention:面向多种训练芯片的大模型高性能Triton算子集
随着人工智能产业的高速增长,大模型已成为行业创新的驱动引擎。大模型对计算资源的需求巨大,对各种AI芯片而言是难得的发展机遇。尽管NVIDIA的GPU芯片和CUDA软件生态在市场上占据主导地位,但其他芯片制造商也在加速研发,智源研究院牵头开发的FlagAttention项目,目标是构建一套对多种芯片适配更友好的大模型核心算子集合,我们选择Triton作为开发语言,基于Triton的开放性,FlagAttention不仅支持NVIDIA GPU,面向未来,还可以显著降低不同芯片之间模型适配的成本,提高大模型的训练与推理效率。