WAO:突破 Transformer 的二次方算力瓶颈背景当前主流大语言模型(LLM)大多基于 Transformer 架构,其核心