Flow Map语言模型:单次前向传播生成连贯文本,8倍加速
Available in: 中文
研究人员证明,基于连续流的语言模型可以在单次前向传播中生成连贯、高质量的文本——比最佳蒸馏离散扩散基线快8倍。
研究人员证明,基于连续流的语言模型可以在单次前向传播中生成连贯、高质量的文本——比最佳蒸馏离散扩散基线快8倍。
问题
自回归LLM(ChatGPT、Claude)一次生成一个token:
- N个token = N次顺序前向传播
- 顺序瓶颈 — 无法在生成内并行化
离散扩散模型承诺并行生成,但在少步采样时失败。
解决方案:连续流
关键洞察:用概率单纯形上的连续流替代离散跳变。
| 方法 | 所需步数 | 1步质量 | 加速 |
|---|---|---|---|
| 自回归 | N步 | N/A(顺序) | 1x |
| 离散扩散 | 50-1000步 | 差 | 不定 |
| 连续流(FMLM) | 1步 | 高质量 | 8x |
工作原理
- 从概率单纯形上的随机噪声开始
- 一次前向传播将噪声转换为连贯文本
- 分类而非回归 — 去噪器预测离散token
- 流映射将噪声"传送"到最终答案
结果
- 比最佳蒸馏离散扩散基线快8倍
- 在仅1步中匹配8步离散扩散质量
- 高质量输出 — 连贯文本生成,而非胡言乱语
为什么重要
如果此方法扩展到大模型:
- 实时生成 — 聊天机器人、代码助手8倍加速
- 并行处理 — 所有token位置同时计算
- 成本降低 — 更少前向传播 = 更少计算 = 更便宜推理
- 架构转变 — 可能最终挑战主导当前LLM的自回归范式
← Previous: Cambodia Unveils Statue of Magawa the Heroic Landmine-Sniffing Rat (200 Points on HN)Next: Fox News Partners with Kalshi to Integrate Prediction Market Forecasts Across All Platforms →
0