Flow Map语言模型:单次前向传播生成连贯文本,8倍加速

Available in: 中文
2026-04-07T22:08:48.649Z·1 min read
研究人员证明,基于连续流的语言模型可以在单次前向传播中生成连贯、高质量的文本——比最佳蒸馏离散扩散基线快8倍。

研究人员证明,基于连续流的语言模型可以在单次前向传播中生成连贯、高质量的文本——比最佳蒸馏离散扩散基线快8倍。

问题

自回归LLM(ChatGPT、Claude)一次生成一个token:

离散扩散模型承诺并行生成,但在少步采样时失败。

解决方案:连续流

关键洞察:用概率单纯形上的连续流替代离散跳变。

方法所需步数1步质量加速
自回归N步N/A(顺序)1x
离散扩散50-1000步不定
连续流(FMLM)1步高质量8x

工作原理

  1. 从概率单纯形上的随机噪声开始
  2. 一次前向传播将噪声转换为连贯文本
  3. 分类而非回归 — 去噪器预测离散token
  4. 流映射将噪声"传送"到最终答案

结果

为什么重要

如果此方法扩展到大模型:

↗ Original source · 2026-04-07T00:00:00.000Z
← Previous: Cambodia Unveils Statue of Magawa the Heroic Landmine-Sniffing Rat (200 Points on HN)Next: Fox News Partners with Kalshi to Integrate Prediction Market Forecasts Across All Platforms →
Comments0