数据来源:HuggingFace Papers

Latest Papers

1. Parallel-R1: Towards Parallel Thinking via Reinforcement Learning

Parallel thinking has emerged as a novel approach for enhancing the reasoning capabilities of large language models (LLMs) by exploring multiple reasoning paths concurrently. However, activating such capabilities through training remains challenging, as existing methods predominantly rely on supervised fine-tuning (SFT) over synthetic data, which encourages teacher-forced imitation rather than exploration and generalization. Different from them, we propose \textbf{Parallel-R1}, the first reinforcement learning (RL) framework that enables parallel thinking behaviors for complex real-world reasoning tasks. Our framework employs a progressive curriculum that explicitly addresses the cold-start problem in training parallel thinking with RL. We first use SFT on prompt-generated trajectories from easier tasks to instill the parallel thinking ability, then transition to RL to explore and generalize this skill on harder problems. Experiments on various math benchmarks, including MATH, AMC23, and AIME, show that Parallel-R1 successfully instills parallel thinking, leading to 8.4% accuracy improvements over the sequential thinking model trained directly on challenging tasks with RL. Further analysis reveals a clear shift in the model’s thinking behavior: at an early stage, it uses parallel thinking as an exploration strategy, while in a later stage, it uses the same capability for multi-perspective verification. Most significantly, we validate parallel thinking as a \textbf{mid-training exploration scaffold}, where this temporary exploratory phase unlocks a higher performance ceiling after RL, yielding a 42.9% improvement over the baseline on AIME25. Our model, data, and code will be open-source at https://github.com/zhengkid/Parallel-R1.

中文摘要

平行思维作为一种新颖的方法,已经成为增强大型语言模型(LLMs)推理能力的方案,通过同时探索多种推理路径。然而,通过训练激活这种能力仍然很具挑战性,因为现有方法主要依赖于对合成数据的监督微调(SFT),这使得教师引导的模仿成为主流,而不是探索和泛化。与这些方法不同,我们提出了 extbf{Parallel-R1},这是第一个使复杂现实世界推理任务能够进行平行思维行为的强化学习(RL)框架。我们的框架采用渐进式课程,明确解决了在使用RL训练平行思维时的冷启动问题。我们首先对来自较简单任务的提示生成轨迹进行SFT,以培养平行思维能力,然后转向RL,以探索并在更难的问题上泛化这一技能。在包括MATH、AMC23和AIME在内的各种数学基准上的实验表明,Parallel-R1成功培养了平行思维,使得其准确性比直接在具有挑战性任务上使用RL训练的顺序思维模型提高了8.4%。进一步的分析揭示了模型思维行为的明显变化:在早期阶段,它将平行思维作为一种探索策略,而在后期阶段,则利用同样的能力进行多角度验证。最重要的是,我们验证了平行思维作为一种 extbf{中阶段探索支架},在这一临时的探索阶段之后释放了更高的性能上限,使得AIME25相对于基线提高了42.9%的表现。我们的模型、数据和代码将以开源形式发布在https://github.com/zhengkid/Parallel-R1。

LLM Analysis

Q: 这篇论文试图解决什么问题?

论文旨在解决“如何让大语言模型(LLM)在训练阶段就获得并行思考(parallel thinking)能力”这一核心问题。具体而言,它试图突破以下瓶颈:

  • 现有方法依赖昂贵且难以扩展的监督数据:此前基于监督微调(SFT)的方案只能做“行为克隆”,模型只会模仿人工或合成轨迹,难以真正泛化到更复杂、更真实的多路径推理场景。
  • 强化学习(RL)冷启动困难:LLM 在预训练和普通 SFT 中从未见过“并行思考”格式,导致初始探索空间几乎无法产生可用的并行轨迹,直接上 RL 会陷入“无轨迹可学”的冷启动困境。
  • 奖励设计失衡:纯结果奖励易让模型退化为单路径“捷径”;强行奖励并行结构又可能使模型在无需并行时仍滥用标签,牺牲正确率。
  • 对“并行思考”在训练过程中的战略演化缺乏理解:其何时该用于探索、何时该用于验证,此前是黑箱,无法指导算法设计。

为此,论文提出 Parallel-R1——首个面向通用数学推理、从零开始习得并行思考的 RL 框架,通过“渐进课程 + 交替奖励 + 结构/非结构两种模型变体”一次性解决冷启动、奖励平衡与策略演化监测问题,并验证“并行思考可作为中期探索脚手架”这一新假设,从而在 AIME25 等难题上取得 42.9% 的额外提升。

Q: 有哪些相关研究?

相关研究可归纳为两条主线:并行思考(测试时或训练时)与基于可验证奖励的强化学习(RLVR)。按主题分列如下:

并行思考相关

类别

代表工作

核心特点

与本文差异

测试时并行/投票

Wang et al. 2022 Self-Consistency;Brown et al. 2024 LLM-Monkey

多轨迹独立采样→结果投票,无训练成本

仅推理阶段生效,训练阶段无并行能力

固定调度并行

Rodionov et al. 2025 Hogwild!;Hsu et al. 2025 Group-Think

按固定步长分叉/合并,手工规则

缺乏自适应,训练不更新策略

树/图搜索

Yao et al. 2023 Tree-of-Thoughts;Zhang et al. 2024 MCTS-LLM

用启发式+外部验证器做树搜索

依赖人工设计启发式,非端到端学习

SFT 并行化

Yang et al. 2025b Multiverse;Macfarlane et al. 2025

把长 CoT 拆成并行格式→SFT 模仿

仅“无损转换”,无法发现新模式;无 RL 探索

RL 并行(玩具任务)

Pan et al. 2025 CountDown RL

在封闭倒计时游戏上 RL 学并行

域极窄,未触及真实数学推理

RL with Verifiable Rewards(RLVR)

方向

代表工作

要点

与本文关系

数学推理

Guo et al. 2025 DeepSeek-R1;Yu et al. 2025 DAPO;Shao et al. 2024 GRPO

用最终答案正确性做稀疏奖励,免人工标注

本文沿用 GRPO,但首次把奖励扩展到“并行结构”

代码/多模态

Wang et al. 2025a CodeRL;Huang et al. 2025c Vision-R1

可验证奖励扩展到代码执行、图像答案

验证思路相通,但均未考虑并行思考

训练技巧

Liu et al. 2025 Self-Play;Wang et al. 2025c High-Entropy

改进探索效率、策略稳定性

本文交替奖励与“中期脚手架”策略可与之正交结合

综上,已有研究要么仅在测试时做并行,要么用 SFT 做表面模仿,要么 RL 仅限玩具域;Parallel-R1 首次把并行思考纳入通用数学 RL 训练,并系统解决冷启动、奖励设计与策略演化问题,填补了上述空白。

Q: 论文如何解决这个问题?

论文提出 Parallel-R1,通过“三步渐进课程 + 交替奖励 + 结构/非结构双变体”把并行思考从零植入 4B 规模模型。关键机制如下:

1. 冷启动:用“简单题”快速教会格式

  • 发现:对 GSM8K 级别题目,仅用 zero-shot 提示即可让强模型生成 83.6 % 合规并行轨迹;对 DAPO 难题则为 0 %。
  • 做法
    1. 在 GSM8K 上 prompt 生成 7k 条合规轨迹 → Parallel-GSM8K 数据集。
    2. 轻量 SFT 教会模型 <Parallel>…<Path>…</Path><Summary>…</Summary> 的“语法”,而不追求解题能力。

2. 两阶段 RL:先稳定格式,再泛化难题

阶段

数据

奖励函数

目标

Stage-1 格式强化

同一批 GSM8K 题

R = R_acc × R_parallel
仅当答案对且至少出现 1 组并行块才 +1,否则 −1

让模型“敢”在合理位置触发并行

Stage-2 能力泛化

DAPO 高难度题

纯答案正确率 R_acc

把并行能力迁移到复杂推理,避免奖励劫持

3. 交替奖励:防“走捷径”或“滥用标签”

结构变体 Parallel-R1-Unseen 中,采用 10 步窗口交替:

  • 80 % 步仅用 R_acc(保证正确率);
  • 20 % 步用 tiered 奖励:
    – +1.2 答案对且含并行
    – +1.0 答案对但无并行
    – −1.0 其余情况
    → 并行使用率 63 %,同时 AIME25 得分 19.0,优于单一奖励。

4. 结构隔离(可选):路径间注意力屏蔽

  • Path-window Mask:同一路径内 token 只能看到自身与共享上文,杜绝隐式泄露。
  • Multiverse Position ID:各路径用独立位置编码,保证逻辑独立。
    该变体在 Stage-1 跳过 GSM8K-RL,防止“简单题 mask 过拟合”。

5. 监控策略演化:从“探索”到“验证”

  • 度量<Parallel> 块在整条推理中的相对位置。
  • 结果:训练步数 ↑ → 触发点显著后移。
    – 早期:模型能力弱,用并行“广撒网”找可行解。
    – 后期:先单路径高置信推答案,再用并行“多视角验算”降低风险。

6. 中期脚手架:强制探索 → 卸磨杀驴

额外实验把训练切成两段:

  1. 0–200 步:交替奖励强征并行(探索阶段)。
  2. 200 步后:仅 R_acc,允许模型丢弃并行(利用阶段)。
    结果:AIME25 峰值 25.6 %,比纯单路径 GRPO 提升 42.9 %,证明并行思考可作为临时探索脚手架,帮助策略空间跳出局部最优,最终收敛到更高性能的单路径(或轻并行)策略。

总结

通过“简单题教格式 → 小尺度 RL 稳定触发 → 高难度 RL 泛化能力 → 交替奖励防失衡 → 结构隔离可选 → 监控演化 → 脚手架退火”,Parallel-R1 首次在通用数学任务上让 4B 模型从零习得可解释、可演进、可卸载的并行思考能力。

Q: 论文做了哪些实验?

实验围绕「能否在通用数学推理任务上从零习得并行思考」「不同设计与奖励如何影响性能」「并行思考在训练过程中的战略演化」三个问题展开,共包含 4 组主实验与 3 组深度分析。

1 主评测:4 大数学基准

数据集

指标

说明

AIME24 / AIME25

Mean@16 / Pass@16

16 次采样平均与最佳

AMC23

Mean@16 / Pass@16

同上

MATH

Mean@1

单次采样

对比系统

  • Qwen3-4B-Base
  • 直接 GRPO on DAPO(强 RL 基线)
  • GRPO on GSM8K→DAPO(两阶段 RL 基线)
  • 纯 SFT 并行版本(Parallel-SFT-Seen / ‑Unseen)
  • 本文方法:Parallel-R1-Seen(因果)与 Parallel-R1-Unseen-S1/S2(结构)

结果

  • Parallel-R1-Seen 平均 48.9 分,比最强基线 GRPO(DAPO) 的 45.1 高 3.8 分(↑8.4 %)。
  • 结构变体 S2 在 AIME25 达 19.0,并行使用率 63 %,验证交替奖励可兼顾性能与结构。

2 消融:训练阶段是否必要?

配置

Avg 分数

结论

Parallel-R1-Seen 完整

48.9

‑ 去掉 Stage-1 RL on GSM8K

46.6 ↓2.3

冷启动后仍需小尺度 RL 才能稳定触发并行

Parallel-R1-Unseen-S1

47.1

+ 加 Stage-1 RL on GSM8K

38.5 ↓8.6

结构 mask 在简单题上易过拟合,反有害

3 消融:奖励函数如何平衡?

奖励方案

并行比例

AIME25

结论

仅 R_acc

13.6 %

17.7

性能尚可但几乎不用并行

仅 R_parallel

80.3 %

17.7

结构滥用→性能掉

交替 Acc/Parallel

63.0 %

19.0

两者兼得,最佳平衡

4 行为演化追踪

  • 度量 块起始 token 索引 / 总长度 → 相对位置
  • 趋势:训练步数↑ → 相对位置从 ~0.4 增至 ~0.8(显著后移)
  • 解释:早期“并行即探索”,后期“并行即验证”,与奖励最大化策略一致。

5 案例可视化

  • 早期模型:在问题中段即分叉,用两种代数方法广撒网(图 5)。
  • 后期模型:先单路径推完答案,末尾用并行块做快速验算(图 6)。

6 中期脚手架验证

两阶段课程

  1. 0–200 步:交替奖励强征并行(探索阶段)
  2. 200 步后:纯 R_acc 允许丢弃并行(利用阶段)

观测

  • 阶段 1 并行比例保持 >80 %,AIME25 准确率稳步上升。
  • 阶段 2 并行比例自然跌至 20 % 以下,准确率继续攀升并 峰值 25.6 %,比全程单路径 GRPO 的 17.9 % 高 42.9 %
    → 证明“强制并行探索”可充当可卸载脚手架,帮助策略空间跳出局部最优,最终收敛到更高性能的单路径策略。

7 架构对比

  • 因果版(Seen) 平均 48.9 分,优于结构版 46.8–47.1 分。
  • 显示在 RL 场景下,软注意力硬隔离更利于梯度流动与泛化。

8 重现与资源

所有训练基于 VERL 框架,超参未调;代码、Parallel-GSM8K 数据与模型将开源,确保可复现。

Q: 有什么可以进一步探索的点?

以下方向可在此基础上继续深入,分为“算法与理论”“数据与任务”“架构与效率”“评估与分析”四大类,供后续研究参考。

算法与理论

  1. 更细粒度的奖励塑形
    • 步骤级正确性奖励(无需人工标注,可用自动验证器或反向代入)
    • 动态混合系数:根据模型不确定性实时调整探索/利用权重,替代固定 80/20 窗口
  2. 通用探索脚手架理论
    • 将“强制并行”抽象为一般正则项,证明其帮助策略逃离局部最优的样本复杂度边界
    • 与 entropy bonus、self-play 等探索机制进行正交组合,寻找最小充分探索强度
  3. 多目标 RL 形式化
    • 把“答案正确率”与“结构多样性”视为多目标 Pareto 前沿,用 MOO-RL 算法自动寻找最优权衡

数据与任务

  1. 跨领域冷启动
    • 在代码生成、逻辑推理、科学问答等可验证任务上验证“简单题教格式→难题上 RL”是否仍成立
    • 研究“格式迁移阈值”:简单题与目标题的难度差距上限是多少?
  2. 自动课程生成
    • 用难度估计器或技能检查点动态挑选“下一批”题目,实现完全自动的渐进课程,而非人工划分 GSM8K→DAPO
  3. 人类并行思考语料
    • 收集真实多人协作草稿、StackExchange 多方案对比等天然并行文本,研究少量真实数据能否替代或增强 prompt 合成数据

架构与效率

  1. 训练-推理一致性优化
    • 为结构版设计 CUDA kernel 实现真正的 batch-level 路径并行,减少 块内的重复前缀计算
    • 探索“动态宽度”:根据题目难度自适应选择分支数 N,而非固定 2-4 条路径
  2. 参数高效化
    • 仅对控制 token 与摘要层增加少量可训练参数,主模型冻结,验证能否维持性能并降低过拟合
  3. 与投机解码结合
    • 把并行路径视为投机候选,用验证器做快速 reject/sampling,实现“训练-推理双加速”

评估与分析

  1. 可解释性工具
    • 嵌入做聚类或因果中介分析,量化每条路径对最终答案的边际贡献,可视化“模型何时决定分支”
  2. 鲁棒性与安全性
    • 对抗性扰动下,验证并行思考是否比单路径更稳健;监测模型是否利用额外路径进行“奖励黑客”(reward hacking)
  3. 人类-AI 对比实验
    • 邀请人类受试者在同一批题目上做“多方案并行推理”,比较答案准确率、时间与模型曲线,验证并行思考是否带来认知协同效应
  4. 长周期遗忘监测
    • 在继续预训练或指令微调后,检测并行格式与触发概率是否灾难性遗忘,寻找最轻量级回放策略即可恢复

小结

Parallel-R1 首次验证了“用 RL 从零习得并行思考”的可行性,但仍留下大量开放问题:能否推广到更复杂领域?如何自动决定探索强度?是否能与硬件协同实现真正的训练-推理一体加速?对上述任意一点的深入,都可能成为下一代推理模型的关键突破。

Q: 总结一下论文的主要内容

论文核心贡献速览

维度

关键内容

问题

大模型缺乏“并行思考”能力;现有 SFT 只能模仿,RL 又面临冷启动、奖励失衡与策略黑箱三大难题。

方法

提出 Parallel-R1——首个面向通用数学推理、用 RL 从零习得并行思考的框架:
1. 渐进课程:简单题 prompt 合成数据 → 冷启动 SFT → 小尺度 RL 稳定格式 → 高难度 RL 泛化能力。
2. 交替奖励:80 % 步骤用结果奖励,20 % 步骤用“结果+并行”混合奖励,自动平衡正确率与结构使用率。
3. 双变体:因果模型(软并行)与结构模型(硬隔离+路径窗口注意力)供对比。

实验

在 Qwen-3-4B 上训练,于 AIME24/25、AMC23、MATH 四基准评测:
- 因果版平均 48.9 分,比最强单路径 RL 基线 ↑8.4 %。
- 结构版用交替奖励并行比例 63 %,AIME25 达 19.0,验证奖励设计有效性。
- 消融显示去掉任何阶段或改用单一奖励均显著掉分。

发现

1. 训练过程中 <Parallel> 触发位置显著后移:早期“并行即探索”,后期“并行即验证”。
2. 强制并行可作为中期探索脚手架:先 200 步交替奖励强征并行,再切回纯结果奖励,AIME25 峰值 25.6 %,相对单路径 RL ↑42.9 %,之后模型可丢弃并行仍保持高收益。

结论

首次证明 RL 能在通用数学任务上从零习得可解释、可演进、可卸载的并行思考能力,为后续跨领域、多目标及硬件协同优化奠定基础。代码与数据将开源。

Q: 想要进一步了解论文

以上只是了解一篇论文的几个基本FAQ。如果你还想与Kimi进一步讨论该论文,请点击 这里 为你跳转Kimi AI网页版,并启动一个与该论文相关的新会话。

Authors: Tong Zheng,Hongming Zhang,Wenhao Yu,Xiaoyang Wang,Xinyu Yang,Runpeng Dai,Rui Liu,Huiwen Bao,Chengsong Huang,Heng Huang,Dong Yu

Categories: cs.CL

PDF URL: https://arxiv.org/pdf/2509.07980.pdf

Arxiv URL: https://arxiv.org/abs/2509.07980

Arxiv ID: 2509.07980

CoolPaper URL: https://papers.cool/arxiv/2509.07980

Published: 2025-09-09T17:59:35Z

Updated: 2025-09-09T17:59:35.000Z


2. Visual Representation Alignment for Multimodal Large Language Models

Multimodal large language models (MLLMs) trained with visual instruction tuning have achieved strong performance across diverse tasks, yet they remain limited in vision-centric tasks such as object counting or spatial reasoning. We attribute this gap to the prevailing text-only supervision paradigm, which provides only indirect guidance for the visual pathway and often leads MLLMs to discard fine-grained visual details during training. In this paper, we present VIsual Representation ALignment (VIRAL), a simple yet effective regularization strategy that aligns the internal visual representations of MLLMs with those of pre-trained vision foundation models (VFMs). By explicitly enforcing this alignment, VIRAL enables the model not only to retain critical visual details from the input vision encoder but also to complement additional visual knowledge from VFMs, thereby enhancing its ability to reason over complex visual inputs. Our experiments demonstrate consistent improvements across all tasks on widely adopted multimodal benchmarks. Furthermore, we conduct comprehensive ablation studies to validate the key design choices underlying our framework. We believe this simple finding opens up an important direction for the effective integration of visual information in training MLLMs.

中文摘要

多模态大型语言模型(MLLMs)经过视觉指令微调的训练,在各种任务中取得了强大的表现,但在以视觉为中心的任务中,如物体计数或空间推理,仍然有限。我们将这一差距归因于当前主流的文本-only监督范式,它仅为视觉通路提供间接指导,往往导致MLLM在训练过程中丢弃细粒度的视觉细节。在本文中,我们提出了视觉表示对齐(VIRAL),这是一种简单但有效的正则化策略,旨在将MLLM的内部视觉表示与预训练的视觉基础模型(VFM)的表示对齐。通过明确执行这一对齐,VIRAL使模型不仅能够保留来自输入视觉编码器的关键视觉细节,还能补充来自VFM的额外视觉知识,从而增强其对复杂视觉输入的推理能力。我们的实验在广泛采用的多模态基准测试任务中显示出一致的性能提升。此外,我们还进行了全面的消融研究,以验证我们框架背后的关键设计选择。我们相信这一简单的发现为有效整合训练MLLM中的视觉信息开辟了一个重要方向。

LLM Analysis

Q: 这篇论文试图解决什么问题?

论文旨在解决多模态大语言模型(MLLM)在“以视觉为中心”的任务(如物体计数、空间推理)中表现不佳的问题。作者指出,现有视觉指令微调范式仅依赖文本监督,导致视觉通路缺乏直接监督,模型在训练过程中逐渐丢弃视觉编码器提供的细粒度视觉信息。为此,提出VIRAL(Visual Representation ALignment),通过显式正则化手段将MLLM内部的视觉表征与预训练视觉基础模型(VFM)对齐,从而保留关键视觉细节并提升复杂视觉推理能力。

Q: 有哪些相关研究?

相关研究可归纳为以下三类,均围绕“如何在 MLLM 中保留或增强视觉信息”展开:

类别

代表工作

与 VIRAL 的关系

内部信息流动分析

• Kaduri et al., 2025;Zhang et al., 2025b
• Jiang et al., 2025;Kang et al., 2025

证实中间层是视觉语义聚合的关键,为 VIRAL 选择第 16 层作为对齐目标提供依据。

输入阶段视觉增强

• 更强编码器:SigLIPv2、DINOv2、Eagle、Brave
• 更高效投影器:Honeybee、MM1、FastVLM

仅改善“输入”表征,未对内部视觉通路施加监督;VIRAL 与之正交,可叠加增益。

视觉 token 直接监督

• Reconstructive Visual Instruction Tuning (Wang et al., 2024)
• R OSS-3D (Wang et al., 2025)

采用重建损失保留低层像素级信息;VIRAL 转而约束中间层语义级表征,与 VFM 对齐,更适合高阶推理任务。

综上,VIRAL 首次将“内部视觉表征对齐”作为正则化策略,与上述方向互补,并在多编码器、多 backbone 上验证其通用性。

Q: 论文如何解决这个问题?

论文提出 VIRAL(Visual Representation ALignment),通过一条轻量级正则化路径直接监督 MLLM 内部的视觉表征,防止文本监督导致的细粒度视觉信息流失。具体做法分三步:

  1. 定位问题
    用 CKNNA 相似度度量发现:在仅使用文本损失训练时,中间层视觉表征与原始视觉编码器特征迅速发散(图 2e),导致模型丢弃计数、空间关系等细节。

  2. 设计正则项
    在 MLLM 第 ℓ 层(默认 16/32)取出视觉 token 表征 e_ℓ^img,经可训投影 P_π 映射到 VFM 特征空间,与冻结的 VFM 特征 ycosine 相似度最大化

    \mathcal{L}_{\text{VRA}} = -\frac{1}{N}\sum_{i=1}^{N}
    \frac{P_\pi(\mathbf{e}_{\ell,i}^{\text{img}})\cdot \mathbf{y}_i}
    {\|P_\pi(\mathbf{e}_{\ell,i}^{\text{img}})\|\,\|\mathbf{y}_i\|}
    
总损失为文本语言模型损失与该正则项的加权:

    \mathcal{L}_{\text{total}} = \mathcal{L}_{\text{LM}} + \lambda\,\mathcal{L}_{\text{VRA}}, \quad \lambda=0.5
  1. 选取更强教师
    DINOv2 作为默认 VFM 提供 y,因其具备空间-语义双优表征;实验表明对齐 DINOv2 带来的增益持续高于 CLIP、SAM、Depth-Anything、RADIO 等替代教师(表 2)。

通过上述正则化,VIRAL 在不改变模型结构、不引入额外数据的前提下,使 MLLM 同时保留编码器原始细节并吸收 VFM 更丰富的视觉知识,从而在物体计数、空间推理、幻觉检测等任务上取得一致提升。

Q: 论文做了哪些实验?

实验围绕“视觉表征对齐是否有效、为何有效、如何配置最优”展开,共 7 组系统评测,覆盖 8 个主流基准、3 类任务、多种编码器与 LLM backbone。

实验目的

关键设置

主要结论

1. 主效果验证

LLaVA-1.5-7B/13B、Qwen2.5-7B × CLIP/SigLIPv2;5 项视觉-语言基准

加 VIRAL 后 所有配置 均涨分,视觉向任务最高 +6.6 pp(CV-Bench2D)。

2. 教师模型消融

固定第 16 层,对比 CLIP/DINOv2/SAM/DAv2/RADIO

DINOv2 综合最佳;CLIP 在 MMVP 上略降,验证“教师越强→增益越大”。

3. 对齐层位消融

单层 4–32 层每 4 层一组,及 15–17、14–18 多层

第 16 层 显著优于其他;多层对齐反而过拟合。

4. 对齐目标函数

Cosine Similarity vs. Relation-MSE(自相似矩阵蒸馏)

Cosine 在 5 基准上平均 +1.9 pp,结构级蒸馏略逊。

5. 注意力可视化

文本→图像交叉注意力图 + 空间熵

VIRAL 使熵值降低 12–25 %,注意力更聚焦目标区域。

6. 训练效率

每 1 k step 早停测试 POPE/CV-Bench2D/MMVP

1 k step 时 VIRAL 已领先 3–6 pp,收敛更快

7. 鲁棒性/空间敏感性

随机打乱视觉 token 顺序,测 CV-Bench2D 空间推理

baseline 掉 5–6 %,VIRAL 掉 13–19 %,证明模型真正在用空间线索

此外提供定性可视化:

  • PCA 显示 VIRAL 中间层表征更结构化(图 5、图 A2–A3);
  • 计数、空间关系问答案例对比,VIRAL 错误更少(图 5、图 A4)。

综合结果:VIRAL 在 零额外数据、零结构改动 条件下,对多种编码器、模型规模与任务类型均带来一致且显著的提升。

Q: 有什么可以进一步探索的点?

以下方向可在此基础上继续深入,分为“方法改进”“理论剖析”“场景拓展”三大类,供后续研究参考。

方法改进

  1. 多层自适应对齐
    当前仅固定第 16 层;可引入可学习的层重要性权重,让模型自动决定在哪几层、以何种强度对齐。

  2. 动态教师融合
    不同 VFMs 擅长不同视觉属性(DINOv2 语义、SAM 分割、DAv2 深度)。可设计路由器或加权机制,按输入图像内容动态选择/融合教师特征。

  3. 对齐目标非线性化
    目前用线性投影 + cosine;可尝试轻量级 Transformer 或 Cross-attention 映射,捕捉更复杂的视觉-语言交互空间。

  4. 双向对齐
    现有工作仅把视觉拉向 VFM;可同步把 VFM 特征拉向语言空间,实现双向约束,减少视觉-语言分布鸿沟。

理论剖析

  1. 信息遗忘曲线
    量化不同深度、不同训练阶段视觉信息与 VFM 的互信息变化,建立“视觉信息生命周期”模型,指导对齐时机。

  2. 任务敏感子空间
    探究哪些维度负责计数、哪些负责空间关系,通过干预实验验证“对齐即保留”假设的因果性。

  3. 梯度冲突分析
    文本生成梯度与 LVRA 梯度可能存在冲突;可用梯度投影/梯度手术技术显式降低冲突,提升联合优化稳定性。

场景拓展

  1. 视频 MLLM
    时序视觉 token 数量大、冗余高,可扩展 VIRAL 到时空特征(如 DINOv2-Video、Video-MAE),验证对齐是否减少时序幻觉。

  2. 高分辨率输入
    当图像分辨率提升至 672×672 或 1K 以上,视觉 token 数激增;研究稀疏对齐或 ROI-对齐,降低计算开销。

  3. 多模态链式推理
    结合思维链(CoT)或可视化思维(VoT)提示,考察对齐后的视觉特征是否使逐步推理步骤更忠实于图像。

  4. 端到端视觉生成
    将 VIRAL 损失嵌入扩散-语言混合模型(如 Diffusion-LLM),观察对齐能否提升文本-到-图像生成空间一致性。

  5. 跨语言迁移
    验证在非英语场景下,对齐是否同样有效;若 VFM 语言无关,则 VIRAL 有望成为多语言 MLLM 的通用增强手段。

数据与评测

  1. 细粒度基准
    现有计数/空间数据集规模有限;可构建更高难度、多对象遮挡、三维空间推理评测集,进一步拉开对齐与不对齐的差距。

  2. 人类一致性评测
    引入眼动或人类注意力 mask,衡量 VIRAL attention 图与人眼注视的一致性,验证“更低熵→更类人”假设。

综上,VIRAL 提供了“内部视觉正则”这一新视角,未来可在自适应机制、理论解释、复杂场景三条线上持续深化。

Q: 总结一下论文的主要内容

论文核心速览

题目:VIRAL – Visual Representation ALignment for Multimodal Large Language Models
问题:现有 MLLM 仅依赖文本监督,导致视觉通路欠监督,细粒度视觉信息(计数、空间关系)在训练中被丢弃。
假设:若显式约束 MLLM 内部视觉表征与强视觉基础模型(VFM)保持一致,可阻止信息流失并提升视觉推理。
方法

  1. 在 LLM 第 16 层取出视觉 token,经轻量 MLP 投影;
  2. 冻结 DINOv2 特征做 cosine 相似度最大化,得到正则项 $ \mathcal{L}_{\text{VRA}}$;
  3. 联合文本生成损失 $ \mathcal{L}_{\text{LM}}$ 训练,权重 λ=0.5,零额外数据、零结构改动。

实验结果

  • 8 基准、3 类任务(视觉向、幻觉、通用)全部上涨,最高 +6.6 pp;
  • 消融:DINOv2 > 其他 VFM;第 16 层 > 其他层;cosine > 关系蒸馏;
  • 可视化:注意力熵↓、PCA 更结构化、对 token 打乱更敏感,验证模型真正在用空间线索;
  • 训练效率:1 k 步即显著领先,收敛更快。

结论:一条极简正则项即可让 MLLM“记住”视觉编码器的细粒度信息,为视觉-语言对齐提供新范式。

Q: 想要进一步了解论文

以上只是了解一篇论文的几个基本FAQ。如果你还想与Kimi进一步讨论该论文,请点击 这里 为你跳转Kimi AI网页版,并启动一个与该论文相关的新会话。

Authors: Heeji Yoon,Jaewoo Jung,Junwan Kim,Hyungyu Choi,Heeseong Shin,Sangbeom Lim,Honggyu An,Chaehyun Kim,Jisang Han,Donghyun Kim,Chanho Eom,Sunghwan Hong,Seungryong Kim

Categories: cs.CV

PDF URL: https://arxiv.org/pdf/2509.07979.pdf

Arxiv URL: https://arxiv.org/abs/2509.07979

Arxiv ID: 2509.07979

CoolPaper URL: https://papers.cool/arxiv/2509.07979

Published: 2025-09-09T17:59:14Z

Updated: 2025-09-09T17:59:14.000Z


Recent advances in large multimodal models have leveraged image-based tools with reinforcement learning to tackle visual problems. However, existing open-source approaches often exhibit monotonous reasoning patterns and allow only a limited number of interaction turns, making them inadequate for difficult tasks that require trial-and-error exploration. In this work, we address this limitation by scaling up tool-based interactions and introduce Mini-o3, a system that executes deep, multi-turn reasoning — spanning tens of steps — and achieves state-of-the-art performance on challenging visual search tasks. Our recipe for reproducing OpenAI o3-style behaviors comprises three key components. First, we construct the Visual Probe Dataset, a collection of thousands of challenging visual search problems designed for exploratory reasoning. Second, we develop an iterative data collection pipeline to obtain cold-start trajectories that exhibit diverse reasoning patterns, including depth-first search, trial-and-error, and goal maintenance. Third, we propose an over-turn masking strategy that prevents penalization of over-turn responses (those that hit the maximum number of turns) during reinforcement learning, thereby balancing training-time efficiency with test-time scalability. Despite training with an upper bound of only six interaction turns, our model generates trajectories that naturally scale to tens of turns at inference time, with accuracy improving as the number of turns increases. Extensive experiments demonstrate that Mini-o3 produces rich reasoning patterns and deep thinking paths, effectively solving challenging visual search problems.

中文摘要

翻译失败: Unexpected end of JSON input

LLM Analysis

Q: 这篇论文试图解决什么问题?

论文旨在解决现有开源视觉-语言模型(VLM)在高难度视觉搜索任务中表现出的两大缺陷:

  1. 推理模式单一
    现有模型多依赖“一步式”或浅层交互,缺乏 OpenAI o3 那样的深度推理策略(如深度优先搜索、试错、自我反思等)。

  2. 交互轮次受限
    开源方案通常只能在 1–2 轮工具调用内给出答案,无法像 o3 那样在测试时把交互轮次扩展到几十轮,导致对需要“反复探索”的难题束手无策。

为此,作者提出 Mini-o3,目标是在仅 6 轮交互预算的训练条件下,让模型在测试时自然扩展到数十轮交互,并持续提高准确率,从而攻克需要“试错-再推理”的复杂视觉搜索场景。

Q: 有哪些相关研究?

  • Vision-Language Models (VLMs)

    • 早期对齐框架:BLIP-2、Flamingo、LLaVA 系列
    • 最新高性能模型:Gemini、GPT-4o、Qwen2.5-VL、InternVL、Llama 3.2-Vision 等
    • 推理增强:Chain-of-Thought prompting、Visual-CoT、R1-VL、Vision-R1、MMEureka 等
  • Tool-Integrated Agents with RL

    • 纯文本 RL 训练:DeepSeek-R1、Kimi-K1.5、ReMax、GRPO、Dr.GRPO、GSPO 等
    • 多轮工具使用:OpenAI o3/o4、Kimi-Researcher、Kimi-K2、WebWatcher、WebShaper、SimpleTIR 等
    • 视觉工具代理:DeepEyes、Chain-of-Focus、Pixel Reasoner、MMSearch-R1、Active-o3、VisionThink 等

这些工作为 Mini-o3 提供了“多模态基础 + 工具交互 + RL 推理”的技术背景,但均未在开源条件下同时实现“训练低轮次-测试高轮次”的可扩展深度推理。

Q: 论文如何解决这个问题?

  • 构造高难度数据

    • 提出 Visual Probe Dataset:4 000 训练 + 500 测试对,含小目标、大量干扰物与高分辨率图像,强制模型“试错-再探索”。
  • 冷启动多轮轨迹

    • 设计迭代数据合成管线:用现有 VLM 少样本模仿手工示范,生成 6 000 条“正确且多样化”的多轮 thought-action-observation 轨迹,覆盖深度优先、回溯、目标保持等策略。
  • 强化学习 + over-turn masking

    • 采用 GRPO,奖励仅依赖答案正确性。
    • 关键改进:对“超出 6 轮或 32 k token”的未完成轨迹不计算优势(mask),避免负向惩罚。
    • 结果:训练时仅需 6 轮,测试时可自然扩展到 32 轮以上,准确率随轮次单调上升。
  • 像素预算控制

    • 将单图最大像素从 12 M 降至 2 M,换取更多交互轮次可塞进 32 k 上下文,兼顾感知精度与探索深度。

综上,通过“高难度数据 + 冷启动模仿 + 不惩罚超时轨迹的 RL”,Mini-o3 在测试时表现出 o3 式的深度推理与轮次可扩展性。

Q: 论文做了哪些实验?

  • 主实验:视觉搜索基准对比

    • 数据集:VisualProbe(easy/medium/hard)、V* Bench、HR-Bench(4K/8K)、MME-RealWorld
    • 指标:Avg@K(K=32/8/1,temperature=1.0)
    • 结果:Mini-o3 在所有基准上取得 SOTA,显著优于 GPT-4o、Qwen2.5-VL、DeepEyes 等 7B 同级模型。
  • 消融实验(VisualProbe-test,1 M 像素,6 轮训练上限)

    • 组件消融
      • 无 hard RL 数据:hard 档掉 8.6 个百分点
      • 无冷启动 SFT:性能崩溃(hard 仅 25.4)
      • 无 over-turn masking:hard 掉 12.2 个百分点,平均正确轮次从 5.5 降至 3.0
    • 像素预算消融(0.5 M / 1 M / 2 M / 12 M)
      • 2 M 最佳;12 M 因“早停”导致轮次降至 1.0,性能显著下降
    • 训练轮次上限对比(6 vs 12)
      • 6 轮收敛快但天花板低;12 轮最终准确率更高,代价是 3× 训练时间
  • 测试时轮次扩展性验证

    • 固定训练 6 轮,逐步把测试上限从 4 调到 32 轮
    • 准确率单调上升,hard 档由 30% 增至 48%,且正确轨迹的交互深度同步增加
  • 定性分析

    • 附录给出 18 轮、12 轮等多条完整轨迹,展示模型“粗定位→细聚焦→回溯修正”的深度推理过程。

Q: 有什么可以进一步探索的点?

  • 训练-测试轮次差距的极限
    目前 6 → 32 轮已验证,可继续缩小训练预算(如 3 轮)或放大测试上限(64+ 轮),观察准确率是否仍单调提升,并研究其 scaling law。

  • Over-turn masking 的理论分析
    仅通过实验验证有效,可形式化分析该策略对策略梯度方差、探索熵及收敛速度的影响,推广到其他长序列 RL 任务。

  • 工具空间的扩展
    当前仅支持“bbox 缩放 + 答案输出”,可引入箭头绘制、分割掩码、图文检索、代码执行等工具,验证 over-turn masking 在更复杂动作空间下的通用性。

  • 动态像素/轮次预算分配
    固定 2 M 像素和 6 轮为常数,可训练一个“元控制器”在每一步自适应决定下一观测的分辨率或是否提前终止,以进一步节省上下文长度。

  • 奖励设计与语义判断
    现用外部 LLM 做语义 judge,可探索可验证奖励的自动构造(如 OCR 匹配、IoU 阈值),减少对 LLM 的依赖并降低奖励噪声。

  • 多模态链式推理的可解释性
    生成轨迹长达数十轮,可引入“推理路径摘要”或“思维树可视化”,帮助用户理解模型何时/为何回溯,并支持人工干预纠错。

  • 跨领域迁移
    VisualProbe 仅覆盖静态高分辨率图像,可测试在视频目标检索、3D 场景导航、GUI 自动化等需要长程交互的任务上是否同样观察到轮次扩展效应。

Q: 总结一下论文的主要内容

论文核心目标

在开源条件下复现 OpenAI o3 的“thinking-with-image”能力,使视觉-语言模型在训练时仅 6 轮交互预算即可在测试时扩展到数十轮,攻克需试错探索的高难度视觉搜索任务。

技术路线(三件套)

组件

关键做法

作用

VisualProbe 数据集

4 k 训练 + 500 测试,高分辨率、小目标、大量干扰

迫使模型产生试错与深度推理

冷启动数据合成

6 条人工示范 → 少样本提示现有 VLM → 过滤正确轨迹 6 k 条

赋予模型多轮工具使用先验

Over-turn Masking RL

GRPO 基础上,对“超轮次/超长文本”轨迹不计算优势

避免负向惩罚,实现测试时轮次伸缩

实验结果

  • SOTA 性能
    VisualProbe-Hard 48.0%(↑12.9 vs 最强开源 DeepEyes);V*/HR-Bench/MME-RealWorld 均领先。

  • 轮次伸缩性
    训练 6 轮 → 测试 4→32 轮,准确率单调上升;hard 档绝对增益 18 %。

  • 消融验证
    无 masking、无冷启动、无 hard 数据分别掉 12.2、23、8.6 个百分点;2 M 像素为最佳折中。

贡献一句话

Mini-o3 通过“高难度数据 + 冷启动模仿 + 不惩罚超时轨迹的 RL”,首次在开源 7B 模型上实现了训练低轮次-测试高轮次的可扩展深度视觉推理。

Q: 想要进一步了解论文

以上只是了解一篇论文的几个基本FAQ。如果你还想与Kimi进一步讨论该论文,请点击 这里 为你跳转Kimi AI网页版,并启动一个与该论文相关的新会话。

Authors: Xin Lai,Junyi Li,Wei Li,Tao Liu,Tianjian Li,Hengshuang Zhao

Categories: cs.CV,cs.AI,cs.CL

PDF URL: https://arxiv.org/pdf/2509.07969.pdf

Arxiv URL: https://arxiv.org/abs/2509.07969

Arxiv ID: 2509.07969

CoolPaper URL: https://papers.cool/arxiv/2509.07969

Published: 2025-09-09T17:54:21Z

Updated: 2025-09-09T17:54:21.000Z


4. Reconstruction Alignment Improves Unified Multimodal Models

Unified multimodal models (UMMs) unify visual understanding and generation within a single architecture. However, conventional training relies on image-text pairs (or sequences) whose captions are typically sparse and miss fine-grained visual details—even when they use hundreds of words to describe a simple image. We introduce Reconstruction Alignment (RecA), a resource-efficient post-training method that leverages visual understanding encoder embeddings as dense “text prompts,” providing rich supervision without captions. Concretely, RecA conditions a UMM on its own visual understanding embeddings and optimizes it to reconstruct the input image with a self-supervised reconstruction loss, thereby realigning understanding and generation. Despite its simplicity, RecA is broadly applicable: across autoregressive, masked-autoregressive, and diffusion-based UMMs, it consistently improves generation and editing fidelity. With only 27 GPU-hours, post-training with RecA substantially improves image generation performance on GenEval (0.73$\rightarrow$0.90) and DPGBench (80.93$\rightarrow$88.15), while also boosting editing benchmarks (ImgEdit 3.38$\rightarrow$3.75, GEdit 6.94$\rightarrow$7.25). Notably, RecA surpasses much larger open-source models and applies broadly across diverse UMM architectures, establishing it as an efficient and general post-training alignment strategy for UMMs

中文摘要

统一的多模态模型(UMMs)在单一架构内统一视觉理解和生成。然而,传统训练依赖于图像-文本对(或序列),其标题通常稀疏,缺乏细致的视觉细节——即使它们使用数百个单词来描述一个简单的图像。我们引入了重建对齐(RecA),这是一种资源高效的后续训练方法,利用视觉理解编码器嵌入作为密集的 “文本提示”,提供丰富的监督而无需标题。具体来说,RecA 将 UMM 以其自身的视觉理解嵌入为条件,并优化其重建输入图像,使用自监督重建损失,从而重新对齐理解与生成。尽管其简单性,RecA 的适用范围广泛:在自回归、掩蔽自回归和基于扩散的 UMMs 中,它始终提升生成和编辑的保真度。仅需 27 个 GPU 小时,使用 RecA 的后训练大幅改善图像生成性能,在 GenEval 上提升(0.73$ightarrow$0.90),在 DPGBench 上提升(80.93$ightarrow$88.15),同时提升编辑基准(ImgEdit 3.38$ightarrow$3.75,GEdit 6.94$ightarrow$7.25)。值得注意的是,RecA 超越了更大的开源模型,并广泛应用于各种 UMM 架构,确立了其作为 UMMs 的一种高效且通用的后训练对齐策略。

LLM Analysis

Q: 这篇论文试图解决什么问题?

  • 核心问题:统一多模态模型(UMM)在生成阶段依赖的图文对字幕信息稀疏,导致生成结果与视觉理解空间错位,表现为

    • 细粒度属性(颜色、空间位置、几何形状)丢失
    • 罕见概念(如“黄色西兰花”)无法生成
  • 具体表现

    • 字幕再长也难以覆盖图像全部细节(图2)
    • 模型能“看懂”但“画不出”罕见概念(图3)
  • 目标:在不引入额外标注的前提下,用视觉理解编码器产生的稠密语义嵌入替代稀疏字幕,作为生成过程的“伪提示”,通过自监督重建损失重新对齐理解与生成空间。

Q: 有哪些相关研究?

  • 统一多模odal 模型(UMM)架构

    • 自回归(AR):Chameleon、Janus、Show-o
    • 自回归+扩散(AR+Diffusion):Transfusion、BAGEL、OpenUni
    • 掩码自回归(MAR):Harmon、MAGViT-v2
  • UMM 后训练增强

    1. 链式思维/测试时验证:CoT、Step1X-Edit(依赖外部模型,不提升原生生成能力)
    2. 强化学习:DPO、GRPO、UniRL(需成对偏好数据,调优复杂)
    3. 高质量合成数据+SFT:BLIP3-o-60k、ShareGPT-4o-Image(需大量蒸馏数据,易过拟合)
  • 视觉重建相关

    • 扩散监督增强:DIVA、ViLex(用扩散模型正则化视觉编码器,仅提升理解)
    • 隐状态重建:ROSS、ROSS3D(加轻量解码器重建图像,正则化 VLM)
    • 表示对齐:REPA(将去噪隐状态对齐外部干净视觉表示,需额外模块)
    • 重建先验:Lumos(在扩散注意力层注入 DINO 特征,仍依赖大规模图文对)
  • 与 RecA 的本质区别:上述方法要么仅提升理解、要么需额外网络或大规模字幕;RecA 首次把语义级自重建作为 UMM 的原生后训练目标,无需字幕或附加模块即可直接增强生成与编辑。

Q: 论文如何解决这个问题?

  • 核心思路:用视觉理解编码器提取的稠密语义嵌入替代稀疏字幕,作为生成条件的“伪提示”,通过自监督图像重建损失重新对齐理解与生成空间。

  • 具体步骤

    1. 冻结视觉理解编码器(如 CLIP/SigLIP)提取图像语义嵌入 $h_v$。
    2. 构造模板提示“Describe the image in detail.”,将 $h_v$ 与文本模板拼接后输入 UMM。
    3. 优化目标:最小化重建损失 其中 $\mathcal{L}$ 为扩散损失或交叉熵损失,$I_{\text{gt}}$ 为原图。
    4. 训练策略
      • 仅保留图像→文本损失 $\mathcal{L}{i2t}$ 与重建损失 $\mathcal{L}{\text{RecA}}$,文本→图像损失 $\mathcal{L}_{t2i}$ 置零。
      • 27 A100 GPU 小时、8k 无标签图像完成 post-training。
  • 推理阶段:无需额外嵌入,与标准 UMM 完全一致;文本或图文输入即可生成/编辑。

  • 与现有技术正交:可与 CFG 叠加;不依赖 GPT-4o 蒸馏数据或 RL,即可在 GenEval 0.73→0.90、DPGBench 80.93→88.15。

Q: 论文做了哪些实验?

实验围绕三条主线展开:

  1. 是否带来 SOTA 生成/编辑质量
  2. 是否跨架构通用
  3. 作为后训练策略的最佳实践

维度

数据集/基准

关键结果

文本到图像生成

GenEval、DPGBench

1.5 B 模型 27 GPUh 达到 0.90 / 88.15,超越 GPT-4o 与 10× 更大开源模型

图像编辑

ImgEdit、GEdit-Bench-EN

3.38→3.75 / 6.94→7.25,领先同期 SFT 方案 BAGEL-NHR

跨架构验证

Show-o(AR)、Harmon(MAR)、OpenUni/BAGEL(AR+Diff)

四类框架平均 +6.1 GenEval、+3.7 DPGBench,提升与参数量无关

理解能力保持

MME、POPE、GQA、MMMU、SEED

指标波动 <1 %,证明生成增强不损害理解

后训练策略对比

MidjourneyV6、BLIP3o-60k

RecA 优于 SFT(+10.9 GenEval);最佳顺序:先 SFT 粗对齐 → 再 RecA 精修

消融与鲁棒性

视觉理解 vs 生成编码器、模板泄露、计数/推理任务

理解编码器显著优于 VAE;对模板泄露几乎免疫;计数提升有限,语义推理显著

Q: 有什么可以进一步探索的点?

  • 计数与中层视觉
    当前在“几个物体”这类数量敏感任务上提升有限;可引入专门计数数据集或 RL 奖励,将数字作为显式优化目标。

  • 架构适配

    • 对离散图像 tokenizer(Show-o 类)的 trivial one-to-one 映射风险,可试验输入扰动(模糊、噪声)或正则化项。
    • 对已内置重建目标的模型(BLIP-3o),需设计“残差重建”或“部分重建”策略避免重复训练。
  • 多轮/迭代重建
    由粗到精的级联重建:低分辨率语义→高分辨率细节,或引入扩散式迭代 refine,进一步提升纹理保真度。

  • 跨模态扩展
    将 RecA 思想迁移到视频、3D、音频-视觉联合生成:用对应模态的理解编码器提取语义,执行时序或体素重建。

  • 测试时增强
    与 CFG、测试时缩放(test-time scaling)、Chain-of-Thought 结合,探索“重建引导”的测试时搜索或投票机制。

  • 数据效率极限
    研究最少需要多少无标签图像即可收敛;结合课程学习或主动采样,实现“小样本 RecA”。

  • 理论分析
    从信息论角度量化语义嵌入相对于字幕的“信息增益”,给出重建损失与生成 fidelity 之间的可证明下界。

Q: 总结一下论文的主要内容

  • 问题:统一多模态模型(UMM)依赖稀疏字幕训练,导致生成侧与理解空间错位,细粒度属性(颜色、位置、形状)丢失,罕见概念无法生成。

  • 方法(RecA)

    1. 冻结视觉理解编码器提取稠密语义嵌入 $h_v$;
    2. 将 $h_v$ 作为“伪提示”与模板文本拼接,条件化 UMM;
    3. 仅用自监督重建损失 $\mathcal{L}_{\text{RecA}}$ 后训练,无需任何新标注。
  • 结果

    • 27 A100 GPU 小时、8 k 无标签图像,1.5 B 模型在 GenEval 0.73→0.90、DPGBench 80.93→88.15,超越 GPT-4o 与 10× 更大开源模型;
    • 图像编辑 ImgEdit 3.38→3.75、GEdit 6.94→7.25;
    • 跨 AR / MAR / AR+Diff 四类架构一致提升,视觉理解基准无损。
  • 最佳实践:先字幕 SFT 粗对齐 → 再 RecA 精修,两阶段后训练 pipeline。

  • 意义:首次把语义级自重建作为 UMM 原生后训练目标,提供轻量、通用、无标注的生成-理解对齐方案。

Q: 想要进一步了解论文

以上只是了解一篇论文的几个基本FAQ。如果你还想与Kimi进一步讨论该论文,请点击 这里 为你跳转Kimi AI网页版,并启动一个与该论文相关的新会话。

Authors: Ji Xie,Trevor Darrell,Luke Zettlemoyer,XuDong Wang

Categories: cs.CV,cs.AI,cs.LG

PDF URL: https://arxiv.org/pdf/2509.07295.pdf

Arxiv URL: https://arxiv.org/abs/2509.07295

Arxiv ID: 2509.07295

CoolPaper URL: https://papers.cool/arxiv/2509.07295

Published: 2025-09-08T23:59:32Z

Updated: 2025-09-08T23:59:32.000Z


5. UMO: Scaling Multi-Identity Consistency for Image Customization via Matching Reward

Recent advancements in image customization exhibit a wide range of application prospects due to stronger customization capabilities. However, since we humans are more sensitive to faces, a significant challenge remains in preserving consistent identity while avoiding identity confusion with multi-reference images, limiting the identity scalability of customization models. To address this, we present UMO, a Unified Multi-identity Optimization framework, designed to maintain high-fidelity identity preservation and alleviate identity confusion with scalability. With “multi-to-multi matching” paradigm, UMO reformulates multi-identity generation as a global assignment optimization problem and unleashes multi-identity consistency for existing image customization methods generally through reinforcement learning on diffusion models. To facilitate the training of UMO, we develop a scalable customization dataset with multi-reference images, consisting of both synthesised and real parts. Additionally, we propose a new metric to measure identity confusion. Extensive experiments demonstrate that UMO not only improves identity consistency significantly, but also reduces identity confusion on several image customization methods, setting a new state-of-the-art among open-source methods along the dimension of identity preserving. Code and model: https://github.com/bytedance/UMO

中文摘要

最近在图像个性化方面的进展展示了由于更强的定制能力,广泛的应用前景。然而,由于我们人类对面孔更加敏感,保持身份一致性的同时避免与多参考图像的身份混淆仍然是一个重大挑战,这限制了定制模型的身份可扩展性。为了解决这个问题,我们提出了UMO,一个统一的多身份优化框架,旨在保持高保真度的身份保护并减轻身份混淆,以实现可扩展性。通过“多对多匹配”范式,UMO将多身份生成重新构建为一个全球分配优化问题,并利用扩散模型上的强化学习全面释放现有图像个性化方法的多身份一致性。为了促进UMO的训练,我们开发了一个具有多参考图像的可扩展定制数据集,包括合成部分和真实部分。此外,我们提出了一个新的指标来测量身份混淆。大量实验表明,UMO不仅显著提高了身份一致性,还减少了在几种图像个性化方法上的身份混淆,在保持身份方面设立了新的开源方法的最新水平。代码和模型:https://github.com/bytedance/UMO

LLM Analysis

Q: 这篇论文试图解决什么问题?

论文旨在解决多身份图像定制中的身份一致性保持与身份混淆问题,具体聚焦于以下核心挑战:

  1. 身份可扩展性瓶颈
    现有一一映射范式(one-to-one matching)在身份数量增加时,无法区分身份内差异(intra-ID variability)身份间差异(inter-ID distinction),导致:

    • 生成的人脸与参考人脸相似度下降(身份保真度低)
    • 不同身份间出现特征混合(身份混淆)
  2. 多参考场景下的全局优化缺失
    传统方法独立处理每个参考身份,忽略多身份间的全局关联,难以在生成图像中同时实现:

    • 每个身份与最优参考的精准匹配
    • 身份间特征的有效隔离
  3. 训练数据与评估指标不足

    • 公开数据集中多身份样本稀缺(>2个身份的样本极少)
    • 缺乏专门量化多身份混淆程度的评估指标

核心创新:提出多对多匹配范式(multi-to-multi matching),将多身份生成重构为全局分配优化问题,通过强化学习最大化整体匹配质量,从而系统性提升身份一致性与可扩展性。

Q: 有哪些相关研究?

  • 多主体驱动生成(Multi-subject Driven Generation)

    • 单主体扩展至多主体:DreamBooth、Textual Inversion 等早期工作通过参数高效微调实现单主体注入;后续 MIP-Adapter、MS-Diffusion、UNO 等利用注意力机制扩展至多主体。
    • 身份保真度提升:InstanceID、PuLID 等引入人脸识别模型作为编码器以强化 ID 保持;OmniGen、DreamO 等从头训练统一模型支持文本+参考图像输入。
    • 布局/掩码显式约束:MS-Diffusion 引入布局引导控制每个主体位置;RealCustom++ 显式分离各主体影响掩码以解耦生成。
  • 扩散模型强化学习(RL for Diffusion Models)

    • 文本对齐与美学:ReFL、ImageReward、DPO 等将 RLHF 引入扩散模型,优化文本一致性或美学评分。
    • 身份相似度强化学习:UMO 之前尚无工作专门利用强化学习提升身份一致性;UMO 首次提出 Reference Reward Feedback Learning(ReReFL)以人脸嵌入余弦距离为奖励,通过匈牙利算法实现多对多全局匹配优化。

综上,现有研究主要聚焦单主体或显式空间约束,而 UMO 首次从全局多对多匹配+强化学习奖励角度系统解决多身份保真与混淆问题。

Q: 论文如何解决这个问题?

论文将多身份定制形式化为全局分配优化问题,通过“多对多匹配+强化学习”两条主线解决身份一致性与混淆:

  1. 多对多匹配范式

    • 把 M 张参考人脸与生成图中检测出的 N 张人脸构造成二分图,边权为单身份余弦相似度
    • 用匈牙利算法求解最大权匹配 σ̂,得到“谁对应谁”的最优分配
    • 由此显式区分 intra-ID variability(未匹配边)与 inter-ID distinction(匹配边)
  2. 强化学习信号(ReReFL)

    • 在扩散去噪步 [T_s, T_e] 内,将当前噪声图 x_t 预测为原图 Ŝ_0,用 M 张参考图即时计算奖励
    • 单身份奖励 SIR:cos(ψ(Ŝ_0), ψ(I^r))
    • 多身份奖励 MIMR:在 σ̂ 上对匹配边加权 λ1>0,非匹配边加权 λ2<0,整体取平均
    • 直接对预测图像施加负奖励损失 L_ReReFL = −R,与预训练损失联合回传梯度,实现“无标注”在线优化
  3. 数据与评估

    • 构建含合成+真实长视频帧的多身份数据集,单样本最多 8 身份
    • 提出 ID-Conf 指标:量化“次相似/最相似”人脸的相对 margin,越大越无混淆

通过上述三点,UMO 在不改动原模型结构的前提下,以插件式奖励微调显著提升多身份保真度并抑制混淆。

Q: 论文做了哪些实验?

论文在两大公开基准(XVerseBench、OmniContext)上进行了系统实验,覆盖单身份、多身份、多身份+主体、风格化等场景,具体包括:

  1. 定量评测

    • XVerseBench
      • 单主体任务:ID-Sim、IP-Sim、AVG
      • 多主体任务:新增 ID-Conf(论文提出的混淆指标)
    • OmniContext
      • SINGLE / MULTI / SCENE 三种任务:Overall(PF×SC 几何平均)、ID-Sim、ID-Conf

    结果:UMO 在 UNO、OmniGen2 两基座上均取得最高 ID-Sim 与 ID-Conf,显著领先 DreamO、MS-Diffusion、XVerse 等 SOTA。

  2. 定性对比

    • 图 5(XVerseBench):单→多身份逐行展示,UMO 生成人脸与参考更相似,且多人场景无“平均脸”或衣发错位。
    • 图 6(OmniContext):三人打牌、双人跑步等场景,对比 DreamO/OmniGen2 的缺身份/混淆,UMO 保持全员出现且特征区分明显。
  3. 用户研究

    • 120 名专家+普通用户,四维打分(身份一致性、提示遵循、美学、总体)。
    • 雷达图显示 UMO-UNO 与 UMO-OmniGen2 均包围其他方法,总体偏好度第一
  4. 消融实验

    • ReReFL 有效性:仅做 SFT → ID-Sim 提升 <3 pp;加入 ReReFL 后提升至 65.16(UNO)/6.44(OmniGen2)。
    • MIMR 必要性:用单身份奖励 SIR 替代 MIMR → ID-Conf 骤降,生成图出现“双胞胎”或参考缺失;恢复 MIMR 后 ID-Conf 升至 78.06/9.04。
    • 可视化图 8 对比:SFT 模糊、SIR 混淆、UMO 同时保真且可区分。
  5. 扩展分析

    • 图 4:验证奖励在去噪步 >5(UNO)或 >10(OmniGen2)后趋于稳定,据此设定 [T_s, T_e] 范围。
    • 附录表 6-8:给出 OmniContext 每类任务细分结果,UMO 在所有子任务均领先,证明跨模型、跨场景泛化性

综上,实验从指标、视觉、人类主观、组件消融四方面一致表明:UMO 在保持高保真身份的同时,显著缓解多身份混淆,达到开源方法中的新 SOTA。

Q: 有什么可以进一步探索的点?

以下方向可继续推进,按“数据-模型-评测-应用”四层次归纳:

数据层面

  1. 超长视频身份追踪
    利用多机位电影级长镜头,建立 10+ 身份、跨 1000+ 帧的连贯标签,缓解“参考能力随身份数骤降”问题(论文图 4 观察)。
  2. 身份-属性解耦标注
    同步标注年龄、妆造、光照、表情等属性,研究 UMO 在属性迁移时的保真边界。
  3. 合成-真实混合比例
    系统消融“合成数据比例 vs. 身份相似度”曲线,寻找可扩展且不掉点的最优混合策略。

模型层面

  1. 奖励函数稀疏化
    当前 MIMR 仅依赖人脸嵌入 cosine,可引入:
    • 3D 几何一致性(landmark、深度)
    • 服装-头发辅助分支,降低“脸对但衣错”剩余混淆
  2. 层级化匹配
    将“人脸→人脸”二分图扩展为“人脸+服装+配饰”超图,用超图匹配替代匈牙利,进一步提升全局一致。
  3. 扩散架构内嵌奖励
    把 ReReFL 的奖励梯度通过 Adapter 或 Cross-Attention 注入 DiT 块,实现“一步训练”而非插件微调。
  4. RL 算法升级
    尝试 GRPO、DPO、RLOO 等最新 RL 算法,对比方差-收敛速度,验证是否可缩短 8×A100 训练成本。

评测层面

  1. ID-Conf 的广义化
    • 引入“身份-服装联合混淆”子指标
    • 建立人工混淆等级 0-5,拟合 ID-Conf 阈值,提供可解释边界
  2. 对抗性基准
    构造“双胞胎 siblings”“高度相似 cosplay”等极端样例,测量 UMO 的误分配率,观察匈牙利算法失效边界。

应用与系统

  1. 实时流媒体虚拟人
    将 UMO 蒸馏为 4-8 步的小模型,测试直播场景下 3-5 人同框时的 30 fps 稳定性。
  2. 跨模态身份一致性
    把 UMO 的多对多匹配思想迁移到视频生成或 3D 头像,验证“同身份跨帧/跨视角”是否持续保真。
  3. 隐私与伦理
    研究 UMO 在参考人脸未授权场景下的滥用风险,配套开发“身份擦除”或“对抗扰动”模块,作为可插拔防护。

理论层面

  1. 身份流形度量学习
    分析 ψ 嵌入空间的几何结构,推导“身份混淆下界”与“参考数量上界”的数学关系,给出可扩展性理论保证。
  2. 优化目标与生成多样性权衡
    建立 MIMR 权重 λ1,λ2 与多样性指标 LPIPS 的帕累托前沿,指导用户按需调节“保真-多样”旋钮。

这些方向既可直接在 UMO 代码库上迭代,也可作为独立课题,推动多身份图像定制从“实验室 SOTA”走向“工业级可靠”。

Q: 总结一下论文的主要内容

论文核心速览

UMO: Scaling Multi-Identity Consistency for Image Customization via Matching Reward
arXiv 2509.06818 | ByteDance UXO Team | 8 Sep 2025

1. 问题

  • 多参考人脸定制时,身份相似度↓、身份混淆↑,且随人数增加而恶化。
  • 根源:现有“一一映射”范式无法同时处理 intra-ID 变化inter-ID 区分

2. 思路

把多身份生成重构为 全局分配优化——“多对多匹配”:
让每张生成人脸自动找到最相似的参考人脸,其余视为负例,从而拉大身份间距。

3. 方法

组件

关键公式 / 算法

作用

ReReFL

在扩散去噪步 [T_s, T_e] 内,用奖励信号直接回传梯度:
L_ReReFL = −R

强化人脸区域,避免 SFT 淹没信号

SIR

R_SIR = cos(ψ(Ĩ_0), ψ(I^r))

单身份保真奖励

MIMR

构建 M×N 二分图 → 匈牙利最优分配 σ̂
R_MIMR = 1/MN Σ [λ_1·1_{k=σ̂(j)} + λ_2·1_{k≠σ̂(j)}] e_{F_j, F̂_k}

多身份保真+混淆抑制

4. 数据 & 评测

  • 自研 多身份定制数据集(合成+长视频),单样本 1–8 身份。
  • 新指标 ID-Conf = 次相似/最相似人脸的相对 margin,越大越不混淆。

5. 实验结果

基准

任务

基座

ID-Sim↑

ID-Conf↑

结论

XVerseBench

单/多身份

UNO

31.8→69.1

61.1→78.1

显著提升,SOTA

XVerseBench

单/多身份

OmniGen2

40.8→71.6

62.0→77.7

同样领先

OmniContext

SINGLE/MULTI/SCENE

双基座

全面↑

全面↑

用户研究排名第一

6. 一句话总结

UMO 用“匈牙利匹配+强化学习奖励”插件,无需改结构即可让任意定制模型在多身份场景下 同时提升保真度并消除混淆,达到开源最佳水平。

Q: 想要进一步了解论文

以上只是了解一篇论文的几个基本FAQ。如果你还想与Kimi进一步讨论该论文,请点击 这里 为你跳转Kimi AI网页版,并启动一个与该论文相关的新会话。

Authors: Yufeng Cheng,Wenxu Wu,Shaojin Wu,Mengqi Huang,Fei Ding,Qian He

Categories: cs.CV,cs.LG

PDF URL: https://arxiv.org/pdf/2509.06818.pdf

Arxiv URL: https://arxiv.org/abs/2509.06818

Arxiv ID: 2509.06818

CoolPaper URL: https://papers.cool/arxiv/2509.06818

Published: 2025-09-08T15:54:55Z

Updated: 2025-09-08T15:54:55.000Z


6. Language Self-Play For Data-Free Training

Large language models (LLMs) have advanced rapidly in recent years, driven by scale, abundant high-quality training data, and reinforcement learning. Yet this progress faces a fundamental bottleneck: the need for ever more data from which models can continue to learn. In this work, we propose a reinforcement learning approach that removes this dependency by enabling models to improve without additional data. Our method leverages a game-theoretic framework of self-play, where a model’s capabilities are cast as performance in a competitive game and stronger policies emerge by having the model play against itself - a process we call Language Self-Play (LSP). Experiments with Llama-3.2-3B-Instruct on instruction-following benchmarks show that pretrained models can not only enhance their performance on challenging tasks through self-play alone, but can also do so more effectively than data-driven baselines.

中文摘要

近年来,大型语言模型(LLMs)发展迅速,得益于规模、丰富的高质量训练数据和强化学习。然而,这一进展面临着一个基本的瓶颈:模型需要不断获取更多的数据来继续学习。在这项工作中,我们提出了一种强化学习的方法,通过使模型能够在没有额外数据的情况下进行改进,从而消除这种依赖。我们的方法利用了一种自我博弈的博弈论框架,将模型的能力视为在竞争游戏中的表现,而更强的策略通过让模型与自己对弈而产生——我们称之为语言自我博弈(LSP)。在指令跟随基准测试中对 Llama-3.2-3B-Instruct 的实验表明,预训练模型不仅能够通过自我博弈提升在具有挑战性任务上的表现,而且能够比数据驱动的基线方法更有效地做到这一点。

LLM Analysis

Q: 这篇论文试图解决什么问题?

论文旨在突破大语言模型(LLM)训练对“外部数据”的刚性依赖,提出一种无需任何额外训练数据即可持续提升模型能力的强化学习范式。核心问题可概括为:

  • 数据瓶颈:现有 RLHF/RL 方法仍需大量人工或种子 prompt-answer 对,一旦数据枯竭,后续改进停滞。
  • 自举困境:模型若想“自我进化”,必须同时解决“从哪儿学”和“学什么”——即既要生成高质量任务,又要从回答中获得有效信号。

为此,作者将训练过程重新建模为双人零和博弈

  • Challenger(出题方):通过最小化 Solver 的期望奖励,不断合成越来越困难、且语义合理的指令;
  • Solver(答题方):通过最大化 Challenger 所给指令的奖励,持续优化回答质量。

双方由同一个 LLM 的不同 prompt 角色实例化,实现完全自对弈(self-play),从而把“数据生成”本身也变成可学习的策略。算法最终输出一个无需任何外部标注即可持续自我改进的模型,称为 Language Self-Play (LSP)。

Q: 有哪些相关研究?

  • 合成数据与自举

    • Huang et al. (2022)、Wang et al. (2022)、Setlur et al. (2024):利用模型自身输出经筛选后回注训练集,实现“数据倍增”。
    • Patel et al. (2024) 的 DataDreamer:可复现的合成数据工作流工具链。
  • 元学习与数据策展

    • Zweiger et al. (2025) 的 Self-Adapting LM:通过元学习器在线编辑训练样本分布,但仍依赖初始外部语料。
    • Calian et al. (2025) 的 DataRater:元学习给样本打分并重加权,需原始数据集作为编辑对象。
  • 博弈-自玩视角

    • Wu et al. (2024) 的 Self-Play Preference Optimization:把偏好最大化视为双人博弈,用自玩求解,但仅针对“给定 prompt 如何生成更好回答”,不解决 prompt 来源。
    • Cheng et al. (2024) 的 Adversarial Taboo:引入专用语言博弈,需先以 GPT-4 等高质量模型生成对抗样本做监督预热;LSP 无需任何预热数据。
  • 自指与自奖励机制

    • Schmidhuber (2007) 的 Gödel Machine、Irie et al. (2022) 的可自修改权重矩阵:算法可改变自己的更新规则。
    • Yuan et al. (2024) 的 Self-Rewarding LM:模型同时充当生成器与奖励模型,持续自提升;LSP 将其奖励作为正则项嵌入竞争性自玩框架,而非单纯自最大化。
  • 零和博弈与自玩理论基础

    • Silver et al. (2017)、Berner et al. (2019) 在围棋/Dota2 中的成功,验证了“单模型双角色”自玩可稳定收敛到强策略;LSP 首次把该范式迁移到纯语言空间,并解决语言任务无 Simulator 的问题。

Q: 论文如何解决这个问题?

论文把“摆脱对外部训练数据的依赖”转化为一个双人零和博弈 + 单模型自玩的强化学习问题,通过以下步骤一次性解决“数据从哪来”与“如何持续学习”:

  1. 角色双分
    同一 LLM 用不同 prompt 扮演两个互斥角色:

    • Challenger πθ(q|):生成指令 q,目标让 Solver 表现最差(最小化期望奖励)。
    • Solver πθ(a|q):针对 q 产生回答 a,目标拿到最高奖励。
  2. 奖励结构
    采用现成的偏好/验证奖励模型 R(q,a)。为防 Challenger 生成无意义对抗,引入自奖励 RQ(q,a)(模型自评质量),把零和博弈变成带质量正则的博弈

    • Solver 总奖励:R + RQ
    • Challenger 总奖励:−(R 的均值) + RQ 的均值
  3. 组内相对优势估计
    每轮 Challenger 先采样 N 条指令;Solver 对每条指令生成 G 个回答,得到组均值
    V(qi)=1G∑jR(qi,aji)。
    用组均值做 baseline,计算

    • Solver 优势:ASol(qi,aji)=R(qi,aji)−V(qi)
    • Challenger 优势:ACh(qi)=V¯−V(qi)
  4. 联合策略梯度更新
    把两角色的 PPO-风格损失相加,并加 KL 惩罚防止偏离初始模型:
    LSelf-Play=−1NG∑i,j[ASol·logπθ(aji|qi)−βKL(πθ||πRef)]
         −αCh1N∑i[ACh·logπθ(qi|)−βKL(πθ||πRef)]
    单组 batch 即可端到端更新全部参数,无需外部标注。

  5. 迭代自玩
    重复“生成指令→生成回答→计算奖励→联合梯度步”,Challenger 随 Solver 变强而自动提高难度,实现数据分布与策略同步进化

  6. 终止条件
    引入自奖励 RQ 后,训练可稳定运行数千轮,不会出现 Challenger 输出乱码或 Solver 奖励黑客现象,达成无数据情况下的持续自改进

Q: 论文做了哪些实验?

实验在 AlpacaEval 基准与 Llama-3.2-3B-Instruct 上进行,目的两条:

  1. 验证“完全无数据”能否达到与基于数据的 RL 同等水平;
  2. 验证 LSP 能否作为“数据 RL 之后”的进一步提升阶段。

实验 1:从 base 模型出发

  • 对照:
    – Base(无训练)
    – GRPO(用 Alpaca 训练集做标准 PPO,40.9 % 整体胜率)
  • 无数据方法:
    – LSP-Zero(去掉自奖励,40.1 %)
    – LSP(带自奖励,40.6 %)
    结果:LSP 与 GRPO 几乎打平,且在对话型 Vicuna 子集上显著超越(+5.9 %)。

实验 2:从已有 RL 模型再训练

  • 起点:实验 1 的 GRPO 模型(40.9 %)
  • 继续无数据自玩:
    – LSP-Zero → 40.0 %(略降,验证自奖励必要)
    – LSP → 43.1 %(整体再提 2.2 %,Vicuna 子集暴涨至 46.3 %)

结论:

  • 无数据 LSP 可一次性达到数据驱动 RL 的同等效果;
  • 把 LSP 当作“后 RL”阶段,仍能继续提升,说明自玩可持续挖掘模型潜力。

Q: 有什么可以进一步探索的点?

  • 奖励源去中心化

    • 用可验证任务(数学证明、代码单元测试)替代偏好模型,验证 LSP 在“硬奖励”下的收敛性与样本效率。
    • 研究多奖励信号集成(可验证 + 偏好 + 自奖励)对博弈稳定性的影响。
  • 多样性-难度权衡

    • 引入信息论正则(互信息、熵约束)防止 Challenger 过度偏向狭窄高难度区域,导致 Solver 遗忘通用能力。
    • 探索课程式自玩:显式控制难度增长速率,避免“突变式”指令引发训练崩溃。
  • 理论分析

    • 在双人策略空间给出 LSP 的纳什均衡存在性与收敛速率界,阐明 KL 惩罚系数 β 对均衡点的偏移量。
    • 量化自奖励 RQ 打破零和后对博弈动态的影响,给出“非零和”情况下的后悔界。
  • 多轮/多模态扩展

    • 把单轮指令扩展为多轮对话或工具调用轨迹,让 Challenger 生成完整交互剧本,实现对话策略自提升。
    • 将图像、音频输入纳入联合 token 空间,考察 LSP 在多模态任务中的数据-free 训练可行性。
  • 计算与系统优化

    • 采用分层策略(small-policy 生成数据 + large-policy 学习)降低自玩算力开销。
    • 设计增量缓存与重复利用机制,避免每轮重新生成大量相似指令。
  • 安全与对齐

    • 监控自玩过程中是否出现“奖励黑客”或有害内容激增,引入对抗探测模型作为第三玩家,形成三方博弈。
    • 研究当 Challenger 具备“系统提示泄露”或“误导性指令”能力时的安全边界。

Q: 总结一下论文的主要内容

论文核心速览

维度

内容

问题

大模型后训练仍依赖海量人工提示-回答对;数据枯竭成为持续改进的硬瓶颈。

思路

把“数据生成”本身建模为可学习的策略,让模型与自己进行语言零和博弈
• Challenger 生成指令 → 最小化 Solver 表现;
• Solver 生成回答 → 最大化奖励。

方法

Language Self-Play (LSP)
1. 同一 LLM 用不同 prompt 扮演双角色,实现单模型自玩;
2. 组内相对优势估计 + PPO 式损失,联合更新;
3. 引入自奖励 RQ 防止对抗崩溃,训练可无限继续。

实验

Llama-3.2-3B-Instruct + AlpacaEval
无数据起点:LSP 达到 40.6 % 胜率,与用 Alpaca 数据训练的 GRPO(40.9 %)持平;
RL 后阶段:在 GRPO 模型上继续 LSP,胜率再升至 43.1 %,对话型任务提升更显著。

结论

无需任何外部训练数据,LSP 即可让预训练模型持续自我改进,效果≥传统数据驱动 RL,且可充当“RL 之后”的下一级训练。

开放方向

可验证奖励、多样性正则、多模态扩展、理论收敛性、安全监控等。

Q: 想要进一步了解论文

以上只是了解一篇论文的几个基本FAQ。如果你还想与Kimi进一步讨论该论文,请点击 这里 为你跳转Kimi AI网页版,并启动一个与该论文相关的新会话。

Authors: Jakub Grudzien Kuba,Mengting Gu,Qi Ma,Yuandong Tian,Vijai Mohan

Categories: cs.AI,cs.CL,cs.GT

PDF URL: https://arxiv.org/pdf/2509.07414.pdf

Arxiv URL: https://arxiv.org/abs/2509.07414

Arxiv ID: 2509.07414

CoolPaper URL: https://papers.cool/arxiv/2509.07414

Published: 2025-09-09T05:51:34Z

Updated: 2025-09-09T05:51:34.000Z


7. F1: A Vision-Language-Action Model Bridging Understanding and Generation to Actions

Executing language-conditioned tasks in dynamic visual environments remains a central challenge in embodied AI. Existing Vision-Language-Action (VLA) models predominantly adopt reactive state-to-action mappings, often leading to short-sighted behaviors and poor robustness in dynamic scenes. In this paper, we introduce F1, a pretrained VLA framework which integrates the visual foresight generation into decision-making pipeline. F1 adopts a Mixture-of-Transformer architecture with dedicated modules for perception, foresight generation, and control, thereby bridging understanding, generation, and actions. At its core, F1 employs a next-scale prediction mechanism to synthesize goal-conditioned visual foresight as explicit planning targets. By forecasting plausible future visual states, F1 reformulates action generation as a foresight-guided inverse dynamics problem, enabling actions that implicitly achieve visual goals. To endow F1 with robust and generalizable capabilities, we propose a three-stage training recipe on an extensive dataset comprising over 330k trajectories across 136 diverse tasks. This training scheme enhances modular reasoning and equips the model with transferable visual foresight, which is critical for complex and dynamic environments. Extensive evaluations on real-world tasks and simulation benchmarks demonstrate F1 consistently outperforms existing approaches, achieving substantial gains in both task success rate and generalization ability.

中文摘要

在动态视觉环境中执行语言条件的任务仍然是具身人工智能的一个核心挑战。现有的视觉-语言-动作(VLA)模型主要采用反应性状态到动作的映射,往往导致短视行为和在动态场景中的低鲁棒性。在本文中,我们引入了F1,一个预训练的VLA框架,将视觉前瞻生成整合到决策流程中。F1采用混合变换器架构,配备专门的感知、前瞻生成和控制模块,从而弥合理解、生成和行动之间的关系。F1的核心是采用下一阶段预测机制,将目标条件的视觉前瞻合成明确的规划目标。通过预测合理的未来视觉状态,F1将动作生成重新表述为一个前瞻引导的逆动力学问题,使得动作能够隐式实现视觉目标。为了赋予F1强大且具有普遍适应能力的特性,我们提出了一个三阶段的训练方案,使用一个包含超过33万条轨迹的广泛数据集,涵盖136种不同的任务。这个训练方案增强了模块化推理,并使模型具备可转移的视觉前瞻能力,这对复杂和动态环境至关重要。在真实世界任务和仿真基准的广泛评估中,F1始终优于现有方法,在任务成功率和泛化能力上取得了显著的提升。

LLM Analysis

Q: 这篇论文试图解决什么问题?

论文旨在解决动态视觉环境中基于语言指令的机器人任务执行这一具身智能核心难题,具体聚焦于现有 Vision-Language-Action(VLA)模型普遍采用的**“当前状态→动作”反应式映射**所带来的两大局限:

  1. 短视行为:缺乏对未来状态的预测,导致在动态场景(物体移动、环境变化、指令随时间展开)中容易陷入局部最优,无法提前规避潜在冲突或失败。
  2. 鲁棒性不足:一旦观测分布偏离训练数据,反应式策略难以泛化,表现为抓取失败、动作不连贯或长期任务崩溃。

为此,作者提出 F1 框架,将**“视觉前瞻生成”显式嵌入决策循环,把动作生成重新表述为“先预测未来视觉目标,再反推所需动作”预测式逆向动力学问题**。通过统一感知、生成与控制的 Mixture-of-Transformer 架构,F1 在语义理解—视觉前瞻—动作执行三者之间建立因果且可解释的信息流,从而

  • 在动态、长时域任务中提前规划,减少短视;
  • 借助大规模预训练与三阶段训练配方,获得可迁移的视觉前瞻能力,提升分布外鲁棒性;
  • 在真实机器人与仿真基准上显著超越现有反应式 VLA 模型,验证“前瞻驱动”替代“反应式映射”的有效性。

Q: 有哪些相关研究?

  • Vision-Language-Action (VLA) 模型

    • π0 (Black et al., 2024)
    • OpenVLA (Kim et al., 2024)
    • gr00t-N1 / N1.5 (Bjorck et al., 2025)
    • SpatialVLA (Qu et al., 2025b)
    • CoT-VLA (Zhao et al., 2025)
    • InstructVLA (Yang et al., 2025b)
    • DreamVLA (Zhang et al., 2025a)
    • MemoryVLA (Shi et al., 2025)
    • VLA-RL (Lu et al., 2025)
  • 视觉预测式策略 / 视频-扩散制导

    • Video Prediction Policy (Hu et al., 2024)
    • Genie Envisioner (Liao et al., 2025b)
    • UniWorld-v1 (Lin et al., 2025)
    • WorldVLA (Cen et al., 2025)
    • FLIP (Gao et al., 2025)
    • Unified World Models (Zhu et al., 2025)
  • 预测逆向动力学模型 (Predictive Inverse Dynamics)

    • PIDM (Tian et al., 2024c)
    • Zero-shot Editing Diffusion for Manipulation (Black et al., 2023)
    • Text-guided Video Generation for Policy (Du et al., 2023)
  • 统一视觉-语言理解与生成

    • Transfusion (Zhou et al., 2024)
    • Janus (Wu et al., 2024)
    • Show-o (Xie et al., 2024)
    • Chameleon (Lu et al., 2023)
    • MoGao (Liao et al., 2025a)
    • BLIP3-o (Chen et al., 2025)
  • 机器人大规模预训练数据集

    • Open-X-Embodiment (Collaboration et al., 2025)
    • AgiBot-World (AgiBot-World-Contributors et al., 2025)
    • LIBERO (Liu et al., 2023a)

Q: 论文如何解决这个问题?

  • 提出“预测式逆向动力学”新范式
    将动作生成从“当前观测→动作”的反应式映射,转变为“先预测目标视觉状态,再反推所需动作”的两阶段逆向动力学问题,从根本上克服短视与分布外脆弱性。

  • 设计 Mixture-of-Transformer(MoT)统一架构

    1. 理解专家:继承预训练 VLM(π0),负责语言-视觉语义对齐。
    2. 生成专家:采用 next-scale 预测机制,自回归地合成未来 ˆot+1 的多尺度离散视觉 Token,作为显式规划目标。
    3. 动作专家:以 ˆot+1 为条件,通过流匹配(flow matching)输出连续动作块,实现前瞻制导的控制。
    4. UGA 渐进注意力:严格因果层级——理解 → 生成 → 动作,防止动作信息回流,保证训练稳定与可解释。
  • 建立三阶段渐进训练配方

    1. Stage I:冻结理解专家,仅训练生成专家,使其对齐预训练 VLM 的语义空间,注入可迁移的视觉前瞻能力。
    2. Stage II:联合优化三大专家,利用 33 万条多机器人、多视角、多任务轨迹,学习通用 visuomotor 先验。
    3. Stage III:少量任务特定数据微调,快速适应新本体与精细操作技能。
  • 高效视觉前瞻机制
    采用残差 VQ-VAE 将图像压缩成多尺度离散 Token,辅以时序卷积聚合历史帧,实现实时 4 步前瞻,兼顾精度与算力。

  • 系统级验证
    在 LIBERO、SimplerEnv-Bridge 仿真与 12 项真实机器人任务(含动态传送带、双手交接、10 步长时程)上,F1 平均成功率提升 15–35%,显著超越 π0、gr00t-N1 等反应式基线,验证“前瞻驱动”对动态、长时域、跨本体场景的鲁棒性与泛化优势。

Q: 论文做了哪些实验?

  • 仿真基准评测

    1. LIBERO(4 个子套件:Spatial / Object / Goal / Long)

      • 对比 8 个基线(Diffusion Policy、OpenVLA、SpatialVLA、π0、π0-Fast、gr00t-N1、CoT-VLA 等)
      • 指标:Success Rate (↑)、Rank (↓)
      • 结果:F1(预训练版)在 4/4 子套件均列第一,平均 SR 95.7%,显著领先最佳基线 1.3 pp。
    2. SimplerEnv-Bridge(4 项精细操作:Carrot-on-Plate、Eggplant-in-Basket、Spoon-on-Towel、Stack-Block)

      • 对比 RT-1-X、RoboVLM、SpatialVLA、π0、π0-Fast
      • 指标:Grasp Success + Overall Success
      • 结果:F1 平均 Overall 72.9%,领先次优基线 24.6 pp;在“Eggplant-in-Basket”达成 100% 抓取 + 66.7% 放置。
  • 真实机器人评测
    平台:Genie-1 双臂机器人
    任务:9 项日常操作(Pen、Flower、Chip、Tea-Table/Shelf、Bread、Handover、Handover-R2H、Mixture)
    协议:每任务 15 次试验,报告抓取成功率 & 任务成功率
    结果:F1 平均任务成功率 82.2%,较最佳基线 π0(65.2%)提升 17 pp;在需动态协调的 Handover-R2H 任务,F1 达 93.3%,π0 仅 40%。

  • 消融实验

    1. Frozen-Gen:Stage I 后冻结生成专家 → 平均 SR 降 3.7 pp,验证联合微调必要。
    2. Cotrain-Scratch:去掉大规模机器人预训练(Stage II)→ 降 3.3 pp,说明通用 visuomotor 先验关键。
    3. No-Gen:移除整个前瞻分支 → 暴降 17.2 pp,确认视觉前瞻是性能核心。
    4. 规划尺度:2/4/6 步前瞻对比,4 步最佳,兼顾精度与效率。
  • 鲁棒与泛化专项实验

    1. 动态传送带抓取(ARX LIFT II,未出现在预训练)

      • 场景:传送带持续运动,语言指令指定抓取生菜/面包。
      • 结果:F1 总体成功率 66.7%,π0 仅 33.3%;单物品最高 80% vs 46.7%。
    2. Franka 快速适应(Sweep / Sort)

      • Sweep:F1 平均 7.1/8 物品成功、最大尝试 3.5、空扫 0.8 次,均优于 π0。
      • Sort:三次连续抓取成功率 100%-100%-66.7%,π0 在第三抓跌至 53.3%。
    3. 10 步长时程任务(≈2 分钟连续操作:pick-place-pour-wipe-sweep-catch-pour)

      • 逐步统计:F1 在前 5 步保持 ≥93% 成功率,第 10 步仍有 40%;π0 自第 5 步起全 0%,展现前瞻规划对误差累积的抑制。
  • 生成质量与动作相关性分析

    • 采用 Qwen2.5-VL-32B 作为外部评测器,量化 Scene/Object Consistency 与 Task Progress Following。
    • 统计发现:图像 Token 准确率虽仅 40-45%,但与动作 Token 准确率呈强正相关(τ=0.01/0.02/0.05 皆 R>0.7),表明任务级一致而非像素级完美即可支撑高可靠控制。

Q: 有什么可以进一步探索的点?

  • 扩展本体与任务家族

    • 迁移到双足/四足移动、灵巧手操作、多机协作等异构本体,验证前瞻机制是否仍能压缩跨本体视觉-动作分布差异。
    • 引入非刚性、可变形、流体等复杂物理任务,测试 next-scale 预测在高度非线性动力学下的上限。
  • 引入结构化世界先验

    • 将物理引擎、粒子模拟或神经辐射场(NeRF)作为可微分层,嵌入生成专家,实现“物理感知”视觉前瞻,减少动态场景中长期漂移。
    • 探索语义-几何混合表示(深度、光流、接触掩码)与离散 VQ Token 的融合,提升细粒度对象形状与空间关系保持。
  • 在线适应与强化学习耦合

    • 用强化学习或人类偏好反馈对前瞻模块进行在线微调,突破纯模仿天花板,实现开放环境持续改进。
    • 研究“模型预测控制(MPC)”循环:实时滚动更新 ˆot+1,结合不确定性估计,主动降低置信度低区域的探索风险。
  • 多步 / 分层视觉规划

    • 将单步 ˆot+1 扩展为可变长度视频序列或目标关键帧,配合高层任务图(Task Graph)进行分层规划,支持小时级长程任务。
    • 引入“回环检测”与“视觉记忆重放”,缓解长序列误差累积,实现自动纠错与重规划。
  • 人类介入与交互式校正

    • 允许操作员在 ˆot+1 上给出语言或笔划修正,模型即时重生成并调整动作,实现“人在环”快速教学。
    • 研究人类对生成帧可信度的心理阈值,建立可解释可视化界面,提升部署安全性与用户信任。
  • 高效推理与边缘部署

    • 蒸馏至更小权重或低比特量化,压缩 foresight 与 action 模块;探索事件相机 + 轻量 CNN 替代高分辨率编码,实现 <50 ms 边缘延迟。
    • 采用自适应计算:依据任务复杂度动态调整预测尺度与动作块长度,在资源受限平台平衡精度与功耗。
  • 跨模态条件泛化

    • 研究触觉、音频、语言多模态目标作为条件,生成多模态“未来观测”,进一步降低纯视觉模糊带来的歧义。
    • 探索目标规格从语言指令扩展到图像、草图、演示视频,验证模型对多模态目标的一致前瞻能力。
  • 可解释性与安全评估

    • 建立 foresight-动作链路的因果归因工具,量化某一预测帧区域对最终抓取姿态的贡献,便于故障审计。
    • 引入形式化验证或情景 fuzzing,对关键动态场景(如高速传送带、人机共存)进行安全性边界测试,确保视觉预测失误后的可控回退策略。

Q: 总结一下论文的主要内容

F1:把“先想后做”做成统一大模型

1. 痛点

  • 主流 VLA 都是“看到就动”的反应式映射,动态环境一长就短视、易崩溃。
  • 纯视频预测方法又缺语义,难泛化。

2. 解法

预测式逆向动力学
“先想象下一步画面,再反推该怎么动”——把控制变成视觉目标驱动的逆问题。

三专家 MoT 架构

  • 理解专家:继承 VLM,对齐语言-视觉。
  • 生成专家:next-scale 自回归生成 256×256 未来帧 Token,当显式规划目标。
  • 动作专家:以“当前+未来”帧为输入,用流匹配输出连续动作块。
  • UGA 渐进注意力:理解 → 生成 → 动作,单向因果,无信息泄露。

三阶段训练配方
① 对齐生成与理解(Stage I)
② 大规模机器人数据联合预训练(Stage II,330 k 条)
③ 少量真机演示微调(Stage III)

3. 结果

  • LIBERO 四套件平均 95.7 % SR,第一。
  • SimplerEnv-Bridge 平均 72.9 %,领先 24+ pp。
  • 9 项真机任务 平均 82.2 % 成功率,π0 仅 65.2 %;动态交接任务 93 % vs 40 %。
  • 动态传送带 + 新本体 66.7 % 成功率,π0 33 %。
  • 10 步长时程 2 分钟任务,F1 全程保持 >40 %,π0 第 5 步起全灭。

4. 结论

把“视觉前瞻”塞进 VLA 统一 backbone,再配渐进训练,就能让机器人
“先想象未来,再倒推动作”——动态、长程、跨本体场景全面碾压反应式基线。

Q: 想要进一步了解论文

以上只是了解一篇论文的几个基本FAQ。如果你还想与Kimi进一步讨论该论文,请点击 这里 为你跳转Kimi AI网页版,并启动一个与该论文相关的新会话。

Authors: Qi Lv,Weijie Kong,Hao Li,Jia Zeng,Zherui Qiu,Delin Qu,Haoming Song,Qizhi Chen,Xiang Deng,Jiangmiao Pang

Categories: cs.RO,cs.CV

PDF URL: https://arxiv.org/pdf/2509.06951.pdf

Arxiv URL: https://arxiv.org/abs/2509.06951

Arxiv ID: 2509.06951

CoolPaper URL: https://papers.cool/arxiv/2509.06951

Published: 2025-09-08T17:58:30Z

Updated: 2025-09-08T17:58:30.000Z


8. Staying in the Sweet Spot: Responsive Reasoning Evolution via Capability-Adaptive Hint Scaffolding

Reinforcement learning with verifiable rewards (RLVR) has achieved remarkable success in enhancing the reasoning capabilities of large language models (LLMs). However, existing RLVR methods often suffer from exploration inefficiency due to mismatches between the training data’s difficulty and the model’s capability. LLMs fail to discover viable reasoning paths when problems are overly difficult, while learning little new capability when problems are too simple. In this work, we formalize the impact of problem difficulty by quantifying the relationship between loss descent speed and rollout accuracy. Building on this analysis, we propose SEELE, a novel supervision-aided RLVR framework that dynamically adjusts problem difficulty to stay within the high-efficiency region. SEELE augments each training sample by appending a hint (part of a full solution) after the original problem. Unlike previous hint-based approaches, SEELE deliberately and adaptively adjusts the hint length for each problem to achieve an optimal difficulty. To determine the optimal hint length, SEELE employs a multi-round rollout sampling strategy. In each round, it fits an item response theory model to the accuracy-hint pairs collected in preceding rounds to predict the required hint length for the next round. This instance-level, real-time difficulty adjustment aligns problem difficulty with the evolving model capability, thereby improving exploration efficiency. Experimental results show that SEELE outperforms Group Relative Policy Optimization (GRPO) and Supervised Fine-tuning (SFT) by +11.8 and +10.5 points, respectively, and surpasses the best previous supervision-aided approach by +3.6 points on average across six math reasoning benchmarks.

中文摘要

可验证奖励的强化学习(RLVR)在增强大型语言模型(LLMs)的推理能力方面取得了显著成功。然而,现有的RLVR方法往往由于训练数据的难度与模型能力之间的不匹配而遭遇探索效率低下的问题。当问题过于复杂时,LLMs未能发现可行的推理路径,而当问题过于简单时,学习到的新能力也非常有限。在本研究中,我们通过量化损失下降速度与展现准确率之间的关系,正式化了问题难度的影响。在此分析的基础上,我们提出了SEELE,一个新颖的监督辅助RLVR框架,它动态调整问题难度以保持在高效区域。SEELE通过在原始问题后附加提示(完整解决方案的一部分)来增强每个训练样本。与以前的基于提示的方法不同,SEELE有意识地并自适应地为每个问题调整提示长度,以实现最佳难度。为了确定最佳提示长度,SEELE采用多轮展开采样策略。在每一轮中,它拟合一个项目反应理论模型,以预测下一轮所需的提示长度,这一模型基于前几轮收集的准确率-提示对。这种实例层级、实时的难度调整将问题的难度与不断发展的模型能力对齐,从而提高了探索效率。实验结果表明,SEELE的表现超过了组相对策略优化(GRPO)和监督微调(SFT),提高了11.8和10.5个点,且在六个数学推理基准上,平均超出了之前最佳的监督辅助方法3.6个点。

LLM Analysis

Q: 这篇论文试图解决什么问题?

论文旨在解决强化学习与可验证奖励(RLVR)在大语言模型推理能力提升过程中因“问题难度–模型能力”失配导致的探索效率低下问题。具体而言:

  • 当训练问题过难时,模型几乎无法采样到正确解答,奖励信号为零,梯度消失,学习停滞;
  • 当问题过易时,模型几乎全对,优势值趋于零,同样无法提供有效梯度;
  • 现有基于提示(hint)或监督信号的方法只能静态、全局地调整难度,无法随着模型能力演化实时、实例级地保持“最佳难度区间”。

为此,作者提出 SEELE 框架,通过实例级、多轮 rollout 采样 + 项目反应理论(IRT)回归,动态调节每个样本的提示长度,使 rollout 准确率始终维持在 ≈50% 的“甜蜜点”,从而最大化每步梯度更新的理论效率上界。

Q: 有哪些相关研究?

论文在第 2 节“Related Work”中系统梳理了两条主线:

  1. 纯强化学习提升 LLM 推理(RLVR)
  2. 将监督信号引入 RL 的“监督辅助 RLVR”方法

以下按时间顺序归纳核心文献,并给出与 SEELE 的关键差异。

1. 纯 RLVR 范式

代表工作

核心贡献

与 SEELE 的差异

DeepSeek-R1 (DeepSeek-AI et al., 2025a)

首次展示纯 RL 可自发产生长 CoT、自我反思

无难度控制,探索效率受限于基础模型能力

OpenAI-o1 (OpenAI et al., 2024)

大规模验证 RL+可验证奖励可突破规模瓶颈

未公开算法,无动态难度调整

GRPO (Shao et al., 2024)

组内 baseline 替代价值网络,简化优势估计

静态难度,后期陷入“奖励高/准确率饱和”陷阱

DAPO (Yu et al., 2025)

去长度、去难度偏置的 GRPO 改进

仅在损失层面修正,仍不控制实例难度

Dr.GRPO (Liu et al., 2025b)

移除归一化项,缓解优化偏差

同 GRPO,无监督引导

2. 监督辅助 RLVR(静态或全局策略)

方法

监督形式

难度控制策略

与 SEELE 的本质区别

SFT→RL 两阶段 (Köpf et al., 2023; Zhang et al., 2025c)

先全量模仿,后 RL

静态;论文实验显示“SFT 后再 RL”反而降分

LUFFY (Yan et al., 2025)

rollout 池混入完整专家轨迹

固定比例混合

难度不可调;专家轨迹与当前能力可能失配

SRFT (Fu et al., 2025)

同时计算 SFT+RL 损失,熵加权

全局权重衰减

无实例级难度感知

UFT (Liu et al., 2025a)

每题前缀整段 hint,训练全程线性衰减 hint 长度

全局线性 schedule

无法根据模型实时能力微调;后期 hint 过短→难度突增

StepHint (Zhang et al., 2025a)

多级 step-wise hint

人工划分 3–5 个固定级别

离散、静态;无法连续逼近 50% 准确率

Hint-GRPO (Huang et al., 2025a)

图像领域,用强模型文本 hint 去偏

固定长度

非实例级;未考虑难度–能力动态匹配

Prefix-RFT (Huang et al., 2025b)

前缀 hint + 低熵 token 屏蔽梯度

固定比例或手工 schedule

同样缺乏实时反馈与实例级回归

3. 教育测量与难度建模(被 SEELE 首次引入 RLVR)

理论/工具

用途

在 SEELE 中的角色

Item Response Theory (IRT)

用 3PL 模型拟合“能力–难度–猜中率”曲线

每题实时回归 accuracy-hint 曲线,反解 hint 长度

3PL 模型

三参数 Logistic 函数,刻画 S 型准确率变化

仅用 3 个参数即可在小样本(3–4 点)下稳定拟合

小结

现有监督辅助 RLVR 方法普遍采用静态或全局的难度策略,无法随模型演化把每个样本精准地调到“50 % 准确率”这一理论最优区间。SEELE 首次将教育测量中的 IRT 回归实例级多轮采样结合,实现了实时、细粒度的难度自适应,从而在上述相关工作中脱颖而出。

Q: 论文如何解决这个问题?

论文提出 SEELE 框架,把“动态维持 50 % rollout 准确率”转化为一个实例级、在线回归问题,通过三步闭环解决难度–能力失配:

1. 理论:确定最优难度

  • 推导出单步梯度下降的 loss 下降上界 右端在 $a_{\theta}(x)=0.5$ 时取最大值⇒50 % 准确率=最高学习效率

2. 多轮采样:实时收集难度–准确率数据

对同一题目连续进行 $m=4$ 轮 rollout,每轮仅采样 $n=8$ 条轨迹:

轮次

动作

目的

1

用“悲观”冷启动 hint 长度 $(

y

2–4

用上一轮拟合的 3PL 曲线反解 $p^{(i)}=f_{\phi}^{-1}(a^*=0.5)$,截取 hint

逐步把实测准确率压到 50 %

每轮结束把 $(p^{(i)},a^{(i)})$ 加入该题的私有缓存,用于下一轮更新 $\phi$。

3. IRT 回归:用 3PL 模型拟合“hint 长度→准确率”曲线

采用三参数 Logistic

仅 3 个参数,可在 3–4 个观测点下快速最小二乘拟合;逆函数即得所需 hint 比例 $p=f_{\phi}^{-1}(a^*)$。

4. 梯度更新:只惩罚生成部分,模仿 hint 部分

最终损失

  • 优势 $\hat A$ 在 $m\times n$ 条 rollout 上按 Dr-GRPO 计算;
  • 模仿项仅对 hint token 施加最大似然,防止梯度冲突。

5. 跨 epoch 热启动

把上一 epoch 最后一轮得到的 $p^{(m)}$ 存盘,下一 epoch 直接用作首轮 hint 比例,减少冷启动震荡。

效果

  • 训练全程 reward 稳定在 0.5±0.02,验证集准确率持续上升;
  • 在 6 个数学基准 + 3 个通用推理基准上平均比 GRPO 高 11.8 pts,比此前最佳监督辅助方法高 3.6 pts
  • 1.5 B 小模型获益更大,说明难度自适应对“弱模型”更关键。

Q: 论文做了哪些实验?

实验部分围绕“难度自适应是否真能把 rollout 准确率钉在 50 % 并带来最终性能提升”展开,共 5 组系统化实验,覆盖训练、验证、消融与敏感性分析。

1. 主实验:9 个基准上的端到端对比

模型:Qwen2.5-1.5B / 3B,Zero-RL 设定(不经过 SFT,直接 RL)
数据:22 k 困难版 DeepMath-103K,已人工分步标注
步数:400 step,32 rollout/样本,温度 1.0
指标:pass@1(AIME/AMC 用 avg@32)

设置

数学6基准平均

通用3基准平均

+SFT

31.7 / 25.8

48.7 / 39.9

+GRPO

30.4 / 24.2

51.0 / 37.7

+LUFFY

35.0 / 25.8

50.9 / 38.6

+UFT

40.5 / 30.4

52.6 / 39.4

+Prefix-RFT

35.9 / 28.7

52.0 / 38.0

+SELE

42.2 / 34.2

53.2 / 42.6

较最佳基线再提升 +1.7 (3B) / +3.8 (1.5B) 个百分点,通用域也同步上涨,验证难度自适应的跨域鲁棒性。

2. 训练动态跟踪

  • reward 曲线:SELE 在 20 step 内迅速收敛到 0.5 附近,后续波动 <0.02;GRPO 后期 reward 继续升高但验证准确率停滞,揭示其“重复已有正确模式”而非学新技能。
  • 响应长度:SELE 长度平稳增长,与准确率同步;UFT/Prefix-RFT 出现长度骤降→性能平台,暗示 hint 撤得太快。
  • 逐轮准确率:第 3–4 轮即可把实测准确率压到 50 %±2 %,3PL 拟合误差 <0.015。

3 消融:目标准确率 a* 的敏感性

固定其他超参,仅改 a*∈{0.25,0.375,0.5,0.625,0.75}。
结果呈倒 U 型,a*=0.5 时平均性能最高;向两侧每偏移 0.125 下降约 1.8 pts,与理论二次型吻合。

4. 多轮配置鲁棒性

总 rollout 数恒定为 16/24/32,改变轮数 m=3,4,6,8。

  • m=3 显著下降(仅 2 点拟合 3PL 不足);
  • m=4 综合最佳;继续增大 m 会因每轮样本过少而方差增大,性能持平或略降。后续实验统一取 m=4,n=8。

5. 任意目标准确率的可控性验证

令 a* 取 i/8 (i=2,…,6),观测训练过程实际 reward。
冷启动一 epoch 后,实测准确率与目标差距 ≤0.02,说明框架可“任意钉住”指定难度,为后续课程学习或难度递增策略提供基础。

6. 拟合可视化与数据效率

  • 随机 100 题 accuracy-hint 曲线全部呈现 S 型,3PL 拟合 R²>0.98。
  • 仅用 3 个采样点即可稳定收敛,解释为何 m=4 足够。

结论

系列实验共同表明:

  1. 理论推导的“50 % 准确率→最大学习效率”在真实大规模 RL 场景成立;
  2. 基于 IRT 的实例级回归能在 3–4 轮采样内精准控制难度;
  3. 难度自适应带来的增益随模型规模减小而放大,对资源受限场景更具价值。

Q: 有什么可以进一步探索的点?

  • 动态目标准确率:当前固定 a*=0.5,可设计课程式或不确定性驱动的 a*(t) 调度,验证是否进一步加速收敛。
  • 多步推理与错误恢复:在代码、几何等需要多轮验证的任务上,检验 50 % 难度原则是否依然最优。
  • 难度信号的多维扩展:除 hint 长度外,同时调节问题表述抽象度、符号复杂度或引入对抗式扰动,构建多维难度空间。
  • 在线 IRT 参数共享:探索跨题目共享部分 3PL 参数(k,b)的层次贝叶斯版本,减少冷启动样本需求。
  • 与测试时扩展协同:将 SEELE 训练出的动态难度预测器用于测试阶段的“逐步提示”或“自适应搜索”,实现训练-测试一致性的难度自适应。
  • 理论泛化:将 quadratic-accuracy 效率界推广至 PPO、DPO 等其它 RL 目标,检验 50 % 准则的普适性。

Q: 总结一下论文的主要内容

SELE:通过能力自适应提示脚手架实现响应式推理演化

1. 问题

纯强化学习+可验证奖励(RLVR)在提升大模型推理能力时,因“问题难度–模型能力”失配导致探索效率低:

  • 过难 → 全错,梯度为零;
  • 过易 → 全对,优势为零。

2. 理论

推导出单步 loss 下降上界与 rollout 准确率呈 二次型 关系,最大值在 50 % ⇒ 保持中等难度即可最大化学习效率。

3. 方法(SELE)

  • 实例级多轮采样:每题连续 4 轮,每轮 8 条 rollout,实时收集“hint 长度–准确率”数据。
  • 3PL-IRT 回归:用三参数 Logistic 模型拟合 S 型曲线,反解所需 hint 比例,把实测准确率钉在 50 %。
  • 梯度更新:仅对生成 token 计算 RL 损失,同时对 hint token 施加模仿损失,避免冲突。
  • 跨 epoch 热启动:用上一轮最终比例作为下一轮首轮输入,减少震荡。

4. 实验

  • 9 基准(6 数学 + 3 通用)上,Qwen2.5-1.5B/3B 均显著优于 GRPO、SFT 及现有监督辅助方法,平均提升 +11.8 / +3.6 个百分点。
  • 训练动态:reward 迅速收敛至 0.5±0.02,验证准确率持续上升;基线后期 reward 高但准确率停滞。
  • 消融与敏感性:目标准确率偏离 50 % 时性能对称下降;4 轮采样为最佳配置;可任意精度(≤0.02)锁定目标难度。

5. 贡献

  • 给出 RLVR 学习效率与准确率的定量关系,指明 50 % 甜蜜点。
  • 提出实例级、实时、IRT 驱动的难度自适应框架,首次把教育测量理论引入 RLVR。
  • 在多个推理基准上实现一致且显著的性能跃升,对小模型增益更大。

Q: 想要进一步了解论文

以上只是了解一篇论文的几个基本FAQ。如果你还想与Kimi进一步讨论该论文,请点击 这里 为你跳转Kimi AI网页版,并启动一个与该论文相关的新会话。

Authors: Ziheng Li,Zexu Sun,Jinman Zhao,Erxue Min,Yongcheng Zeng,Hui Wu,Hengyi Cai,Shuaiqiang Wang,Dawei Yin,Xu Chen,Zhi-Hong Deng

Categories: cs.LG

PDF URL: https://arxiv.org/pdf/2509.06923.pdf

Arxiv URL: https://arxiv.org/abs/2509.06923

Arxiv ID: 2509.06923

CoolPaper URL: https://papers.cool/arxiv/2509.06923

Published: 2025-09-08T17:36:21Z

Updated: 2025-09-08T17:36:21.000Z


9. Curia: A Multi-Modal Foundation Model for Radiology

AI-assisted radiological interpretation is based on predominantly narrow, single-task models. This approach is impractical for covering the vast spectrum of imaging modalities, diseases, and radiological findings. Foundation models (FMs) hold the promise of broad generalization across modalities and in low-data settings. However, this potential has remained largely unrealized in radiology. We introduce Curia, a foundation model trained on the entire cross-sectional imaging output of a major hospital over several years, which to our knowledge is the largest such corpus of real-world data-encompassing 150,000 exams (130 TB). On a newly curated 19-task external validation benchmark, Curia accurately identifies organs, detects conditions like brain hemorrhages and myocardial infarctions, and predicts outcomes in tumor staging. Curia meets or surpasses the performance of radiologists and recent foundation models, and exhibits clinically significant emergent properties in cross-modality, and low-data regimes. To accelerate progress, we release our base model’s weights at https://huggingface.co/raidium/curia.

中文摘要

翻译失败: Unexpected end of JSON input

LLM Analysis

Q: 这篇论文试图解决什么问题?

论文旨在解决放射学 AI 中“一个任务、一个模型”范式的可扩展性瓶颈。具体而言,现有方法针对每种成像模式、疾病或发现单独训练专用模型,导致数据与标注成本高昂,难以覆盖临床全景。为此,作者提出并验证了一种通用基础模型范式:

  • 利用大规模无标注 CT 与 MRI 影像(>2 亿张,130 TB)进行自监督预训练,构建放射学基础模型 Curia;
  • 在 19 项外部验证任务上统一评估,涵盖器官识别、急症、肿瘤、感染、退行性疾病等多模态场景;
  • 证明 Curia 在零微调或少样本条件下即可达到或超越专科模型与住院医师水平,并展现跨模态泛化与数据高效性,从而向“通用放射学 AI”迈出实质性一步。

Q: 有哪些相关研究?

  • BiomedCLIP
    Zhang 等,NEJM AI 2025;15 M 图文对,PubMed 提取,ViT-B 结构,对比学习,覆盖病理、眼底、放射等多域图像。

  • MedImageInsight
    Codella 等,arXiv 2024;3.8 M 多模态医学图,DaViT 架构,微软开源通用视觉嵌入模型。

  • RadSAM / MedSAM
    Khlaut 等 & Ma 等,2024-2025;将 SAM 适配到 3D 放射图像,实现框/点提示分割。

  • Harvard Onco-FM
    Pai 等,Nat Mach Intell 2024;专为肿瘤影像生物标志物设计的 FM,在 LUNA16 肺结节良恶性任务上报告 94.4 AUROC(全微调)。

  • DINO-Reg
    Song 等,2024;利用 DINOv2 特征进行零训练可变形多模态配准,验证自监督特征在配准任务中的迁移能力。

  • TotalSegmentator (TS)
    Wasserthal 等,Radiology AI 2023;104 类 CT 器官全自动分割,为本文器官识别与配准基准提供数据与标签。

  • Learn2Reg 挑战系列
    Hering 等,IEEE TMI 2022;多任务配准公开数据集(腹部 MR/CT、脑 MRI 跨被试),用于评估无监督或零训练配准算法。

  • RSNA 2023/2024 挑战
    腹部创伤检测、腰椎退行性疾病分级,提供急症与肌骨任务的大规模标注数据。

  • IXI、OASIS、LUNA16、KITS23、DeepLesion、COVIDx-CT、ATLAS R2.0、EMIDEC 等公开数据集
    分别用于年龄回归、阿尔茨海默分类、肺/肾肿瘤良恶性、病灶定位、COVID-19 感染、卒中病灶、心肌梗死检测等任务,被本文整合为 CuriaBench 基准。

  • DINOv2 / MAE
    Oquab 等 2023,He 等 2022;自然图像自监督学习标杆,证明无需标注即可学得高质量视觉特征,本文直接沿用其策略并做医学适配。

Q: 论文如何解决这个问题?

  • 构建超大规模未标注放射学数据集
    与私立医院合作,收集 2019–2022 年全部常规横断面影像,经去标识、去伪影、质量过滤后保留 150 K 次检查、2.28 亿张 512×512 切片(130 TB),为迄今最大真实世界 CT+MRI 语料。

  • 采用自监督视觉 Transformer 预训练
    以 DINOv2 为目标函数,摒弃人工标注,仅通过图像级与 patch 级对比学习让模型习得解剖与病理通用表征;训练 ViT-B(86 M 参数)与 ViT-L(300 M 参数)两版,分别消耗 20 M 与 200 M 张图像,5 天完成。

  • 设计 19 任务统一基准 CuriaBench
    覆盖器官识别、肿瘤良恶性、生存预测、脊柱退变、ACL 撕裂、脑出血、心梗、肺感染、阿尔茨海默等分类/回归/分割/配准任务,并引入跨模态与少样本评测,解决缺乏标准比较平台的问题。

  • 冻结主干 + 轻量头部适配
    所有下游实验仅训练线性或单层注意力预测头,ViT 权重全程冻结,实现“零微调”迁移;对 3D 检查采用切片级前向+特征聚合策略,使 2D 模型直接服务体积任务。

  • 引入可提示分割与零训练配准插件
    将 SAM 的提示编码器与 mask 解码器嫁接到 Curia 特征上,两阶段微调即获得与 RadSAM 相当的 Dice;利用 patch token 做无监督形变配准,在 CT↔MR 跨模态场景取得最高 Dice 与平滑位移场。

  • 系统对比与统计验证
    与 BiomedCLIP、MedImageInsight 及住院医师在相同 bootstrap 流程下比较,1000 次重采样给出 95 % CI 与 p 值,证明 Curia 在 14/19 任务显著领先,并在数据量缩减至 1–40 张/类时仍保持高 AUROC/Accuracy,展现数据高效与跨模态涌现能力。

Q: 论文做了哪些实验?

  • 预训练阶段

    • 在 2.28 亿张 512×512 CT/MRI 切片上用 DINOv2 自监督目标训练 ViT-B(20 M 图)与 ViT-L(200 M 图),总计 475 k 步,16–32 × A100。
    • 消融不同数据量(30 K → 200 M)与训练步数,验证规模定律。
  • CuriaBench 下游评测(19 任务,统一协议:冻结主干 + 轻量头)

    1. 解剖识别
      – CT 器官 54 类分类 / MRI 器官 56 类分类
      – 跨模态:CT→MRI 零样本 41 类,MRI→CT 零样本 41 类
      – 少样本:每类 1–40 张图,观察数据效率
    2. 年龄回归
      – 脑 T1-MRI 预测生理年龄(r² 指标)
    3. 肿瘤学
      – 肾病灶良恶性 2 类(AUC)
      – 肺结节良恶性 3D ROI(AUC,与 Harvard Onco-FM 同 split)
      – 肿瘤解剖部位 8 类分类
      – 肾癌生存预测:Cox 模型 + 影像特征,c-index vs T 分期
    4. 肌骨
      – 腰椎三病变分级:椎管狭窄、椎间孔狭窄、关节下狭窄(3 类 AUROC)
      – 前交叉韧带撕裂 3 类(AUROC)
    5. 急诊
      – 颅内出血 2 类(AUROC)
      – 腹部创伤活动性出血 2 类(AUROC)
      – 急性心梗 2 类(心肌 ROI,AUROC)
      – 卒中病灶存在 2 类(T1-MRI,AUROC)
    6. 神经退行
      – 阿尔茨海默二元分类(OASIS,AUROC)
    7. 感染
      – 肺部感染三分类:健康、COVID、非 COVID 肺炎(平衡 Acc)
  • 影像配准(零训练)

    • Learn2Reg Abdomen MR↔CT 同被试、Learn2Reg Brain 跨被试、XCAT 合成 CT↔CT / MR↔MR / CT↔MR;报告平均 Dice 与 stdLogJ。
  • 可提示分割

    • 以 SAM 解码器替换实验:框提示与单点提示,AMOS-CT 15 器官 Dice,对比原始 SAM 与 RadSAM。
  • 与放射科医生对比

    • 四名巴黎住院医在 14 项任务子集上独立标注,计算 AUROC/Acc 并与 Curia-L 做配对 bootstrap 检验。
  • 可解释性

    • 脑出血任务可视化 cross-attention 图;跨模态 patch 级 key-point matching 示例(MRI→CT、CT→CT、不同被试)。
  • 统计显著性

    • 全部实验 5 次运行 + 1000 次 bootstrap,给出 95 % CI 与双侧 p 值,确保结果可信。

Q: 有什么可以进一步探索的点?

  • 多中心、多厂商数据验证
    当前语料来自单家私立医院,存在设备协议与人群偏倚。需与多国、多型号 CT/MRI 厂商合作,构建跨机构测试集,量化域漂移并研究持续自监督适应策略。

  • 原生 3D 基础模型
    Curia 以 2D 切片方式处理体积数据,损失空间上下文。可探索 3D Vision Transformer、稀疏卷积或分层 Transformer,直接对体素进行自监督预训练,提升小病灶检测与精细分割性能。

  • 多模态融合(影像 + 文本 + EHR)
    引入放射报告、结构化电子病历与基因组学数据,采用图文对齐或跨模态掩码建模,实现可解释问答式诊断、自动报告生成及个体化风险沟通。

  • 超声、X 线、核医学扩展
    CuriaBench 仅覆盖 CT/MRI。需将超声帧、DR、钼靶、PET 等纳入统一预训练框架,验证跨模态共享表征是否依然成立,并构建真正“全模态”放射学 FM。

  • 时序与纵向建模
    利用同一患者多次随访检查,设计自监督时序目标(预测未来切片、掩码时间窗口),研究疾病进展预测、治疗后应答评估及生存曲线更新。

  • 小样本与零样本分割/检测新任务
    探索提示驱动的病灶检测框或任意形状掩码,无需再训练即可定位新病种;结合语义提示(文字描述)实现零样本病变检索与定位。

  • 可解释性与不确定性量化
    开发针对 3D 的注意力可视化、概念激活向量(CAV)及不确定性估计模块,为临床提供区域级证据与置信区间,满足监管对 AI 可解释性的要求。

  • 联邦学习与隐私保护
    在多中心场景下采用联邦自监督或分割学习,避免原始数据出境;结合差分隐私与同态加密,验证性能-隐私权衡。

  • 实时临床部署与边缘计算
    研究模型蒸馏、量化与 TensorRT/ONNX 优化,将 300 M 参数 ViT-L 压缩至可嵌入 PACS 或边缘盒子的规模,实现秒级推理与即时质控。

  • 公平性与健康差异
    分析模型在不同性别、年龄、种族、BMI、设备型号上的性能差异,引入公平性约束或重加权策略,确保 AI 辅助诊断不加剧健康不平等。

Q: 总结一下论文的主要内容

Curia: A Multi-Modal Foundation Model for Radiology 提出并验证了一种面向放射学的通用基础模型范式,核心内容可概括为:

  1. 数据规模
    采集 2019–2022 年单中心全部常规横断面影像,经匿名化与质控后得到 150 K 次检查、2.28 亿张 512×512 CT/MRI 切片(130 TB),为迄今最大真实世界无标注放射学语料。

  2. 自监督预训练
    以 DINOv2 为目标函数,训练 ViT-B(86 M 参数,20 M 图)与 ViT-L(300 M 参数,200 M 图)两版模型,全程无需人工标签,5 天完成。

  3. 统一评测基准 CuriaBench
    构建 19 项下游任务,覆盖器官识别、肿瘤良恶性、生存预测、脊柱退变、ACL 撕裂、脑出血、心梗、卒中、肺感染、阿尔茨海默等,并引入跨模态(CT↔MRI)与少样本评测,弥补领域缺乏标准平台的空白。

  4. 冻结主干 + 轻量头适配
    所有任务仅训练线性或单层注意力预测头,ViT 权重冻结;对 3D 检查采用切片级前向+特征聚合,实现“零微调”迁移。

  5. 实验结果

    • 在 14/19 任务显著优于 BiomedCLIP、MedImageInsight 等现有 FM,肺结节、肾癌生存、椎管狭窄等任务达或超住院医师水平。
    • 跨模态器官识别仅下降 9 个百分点,优于其他模型 35–72 个百分点。
    • 少样本场景下 1–40 张/类即可接近全数据性能,数据效率突出。
    • 零训练配准在 CT↔MR 等场景取得最高 Dice;可提示分割与 RadSAM 相当。
  6. 结论与意义
    大规模自监督预训练可在放射学领域学得通用、可迁移的解剖与病理表征,为“一个模型覆盖全景临床需求”奠定技术与数据基础,并发布模型权重与 benchmark 以推动社区进一步研究。

Q: 想要进一步了解论文

以上只是了解一篇论文的几个基本FAQ。如果你还想与Kimi进一步讨论该论文,请点击 这里 为你跳转Kimi AI网页版,并启动一个与该论文相关的新会话。

Authors: Corentin Dancette,Julien Khlaut,Antoine Saporta,Helene Philippe,Elodie Ferreres,Baptiste Callard,Théo Danielou,Léo Alberge,Léo Machado,Daniel Tordjman,Julie Dupuis,Korentin Le Floch,Jean Du Terrail,Mariam Moshiri,Laurent Dercle,Tom Boeken,Jules Gregory,Maxime Ronot,François Legou,Pascal Roux,Marc Sapoval,Pierre Manceron,Paul Hérent

Categories: cs.CV,cs.LG

PDF URL: https://arxiv.org/pdf/2509.06830.pdf

Arxiv URL: https://arxiv.org/abs/2509.06830

Arxiv ID: 2509.06830

CoolPaper URL: https://papers.cool/arxiv/2509.06830

Published: 2025-09-08T16:04:12Z

Updated: 2025-09-08T16:04:12.000Z


10. Emergent Hierarchical Reasoning in LLMs through Reinforcement Learning

Reinforcement Learning (RL) has proven highly effective at enhancing the complex reasoning abilities of Large Language Models (LLMs), yet underlying mechanisms driving this success remain largely opaque. Our analysis reveals that puzzling phenomena like aha moments",length-scaling’’ and entropy dynamics are not disparate occurrences but hallmarks of an emergent reasoning hierarchy, akin to the separation of high-level strategic planning from low-level procedural execution in human cognition. We uncover a compelling two-phase dynamic: initially, a model is constrained by procedural correctness and must improve its low-level skills. The learning bottleneck then decisively shifts, with performance gains being driven by the exploration and mastery of high-level strategic planning. This insight exposes a core inefficiency in prevailing RL algorithms like GRPO, which apply optimization pressure agnostically and dilute the learning signal across all tokens. To address this, we propose HIerarchy-Aware Credit Assignment (HICRA), an algorithm that concentrates optimization efforts on high-impact planning tokens. HICRA significantly outperforms strong baselines, demonstrating that focusing on this strategic bottleneck is key to unlocking advanced reasoning. Furthermore, we validate semantic entropy as a superior compass for measuring strategic exploration over misleading metrics such as token-level entropy.

中文摘要

强化学习(RL)在增强大型语言模型(LLM)的复杂推理能力方面已被证明非常有效,但驱动这一成功的基本机制仍然在很大程度上不透明。我们的分析揭示了一些令人困惑的现象,如“顿悟时刻”、“长度缩放”和熵动态,并非分散的事件,而是新兴推理层次结构的标志,类似于人类认知中高层战略规划与低层程序执行的分离。我们发掘出一个引人注目的两阶段动态:最初,模型受到程序正确性的限制,必须提高其低级技能。学习瓶颈随后决定性转变,性能提升由对高层战略规划的探索和掌握驱动。这一见解揭示了现有RL算法(如GRPO)中的一种核心低效性,这些算法在不考虑背景的情况下施加优化压力,并使学习信号在所有标记中稀释。为了解决这个问题,我们提出了层次感知信用分配(HICRA)算法,该算法将优化努力集中在高影响力的规划标记上。HICRA显著超越了强基线,证明聚焦于这一战略瓶颈是解锁高级推理的关键。此外,我们验证了语义熵作为测量战略探索的优越指标,相较于诸如标记级熵等误导性指标。

LLM Analysis

Q: 这篇论文试图解决什么问题?

该研究聚焦的核心问题是:

“强化学习(RL)在提升大语言模型(LLM)复杂推理能力时,其底层学习机制为何?如何据此设计更高效、有原则的 RL 算法?”

具体而言,作者观察到 RL 训练 LLM 时出现三类令人困惑却有效的现象——“顿悟时刻(aha moments)”、“长度缩放(length-scaling)”以及复杂的 token 级熵动态——但缺乏统一解释。论文通过实证分析指出,这些现象并非孤立,而是 “推理层次结构(reasoning hierarchy)” 涌现的标志:

  1. 第一阶段:模型受限于低层过程正确性,必须优先巩固算术、代换等“执行 token”技能;
  2. 第二阶段:学习瓶颈转向高层策略规划,模型通过探索“规划 token”(如逻辑分支、回溯、反思)获得持续性能提升。

现有 RL 算法(如 GRPO)对所有 token 施加无差别优化压力,稀释了关键信号。为此,作者提出 HICRA(Hierarchy-Aware Credit Assignment),通过放大规划 token 的信用/梯度,直接对准第二阶段瓶颈,从而显著提升推理效果并验证语义熵作为衡量策略探索的可靠指标。

Q: 有哪些相关研究?

以下研究与本工作密切相关,可从四个维度归纳:

1. 强化学习提升 LLM 推理能力

  • Ouyang et al. (2022)
    InstructGPT:最早系统使用人类反馈强化学习(RLHF)对齐 LLM 指令遵循与推理能力。
  • Guo et al. (2025)
    DeepSeek-R1 / GRPO:提出 Group Reward Policy Optimization,专为数学推理设计,成为本论文最主要的基线。
  • Team et al. (2025)
    Kimi k1.5:大规模 RL 训练框架,同样采用群体奖励与长链推理。
  • Liu et al. (2025b)
    对 R1-zero 类训练的批判性分析,指出无监督 RL 可带来推理跃迁。

2. RL 训练动态与探索度量

  • Cui et al. (2025); Yu et al. (2025); Chen et al. (2025)
    研究 token-level 熵在 RL 微调中的复杂演化,提出熵崩溃与探索饱和问题。
  • Wang et al. (2025c)
    提出“fork tokens”——高熵 token 作为决策点代理;本文图 8 显示该代理与功能定义的 planning tokens 存在不对称关系。
  • Levine (2018); Haarnoja et al. (2017)
    最大熵 RL 与熵正则化理论,为“全局熵正则”基线提供技术背景。

3. 认知神经科学中的层级处理

  • Murray et al. (2014); Huntenburg et al. (2018); Zeraati et al. (2023)
    人脑将高层策略规划(前额叶)与低层运动/程序执行(感觉-运动皮层)分离的层级架构,为本文“推理层次”假说提供生物学类比。

4. 细粒度信用分配与过程监督

  • Lightman et al. (2023)
    “Let’s Verify Step by Step” 提出过程奖励模型(PRM),对每步推理给予细粒度反馈;本文指出 HICRA 可视为轻量级、无需额外 PRM 的层级信用分配方案。
  • Wang et al. (2025a, 2025b)
    在工具使用与视觉-语言推理中引入 RL,同样强调对关键决策步骤的强化,与 HICRA 的“规划 token”聚焦思路一致。

Q: 论文如何解决这个问题?

论文将“如何高效提升 LLM 复杂推理”拆解为两个子问题,并给出系统解决方案:

  1. 理解阶段:揭示学习瓶颈的动态转移

    • 通过 Strategic Grams(SG) 将 token 按功能划分为
      • 高阶规划 token(deduction / branching / back-tracing)
      • 低阶执行 token(算术、代换、公式应用)
    • 跟踪 相对困惑度、token-级熵、语义熵 发现两阶段规律:
      • 阶段①:执行 token 的困惑度与熵迅速下降 → 低层技能固化
      • 阶段②:规划 token 的 语义熵持续上升 → 高层策略多样化成为新瓶颈
  2. 算法阶段:对准瓶颈的层级感知信用分配(HICRA)

    • 基线缺陷:GRPO 对所有 token 施加等权梯度,稀释了对规划 token 的监督信号

    • HICRA 公式(在 GRPO 优势 $\hat A_{i,t}$ 上重加权):

      其中 $S_i$ 为轨迹 $o_i$ 中的规划 token 索引集合,$\alpha=0.2$ 控制放大强度。

    • 效果

      • 成功轨迹中放大规划 token 的正向信号
      • 失败轨迹中减轻规划 token 的惩罚
      • 策略梯度被 各向异性地拉伸 到策略子空间,实现“针对性探索”而非全局熵增
  3. 验证阶段:实验闭环

    • 在 Qwen2.5-7B、Qwen3-4B、Llama-3.1-8B、MiMO-VL-7B 上,HICRA 相对 GRPO 平均提升 +2.8~+6.1 Pass@1
    • 语义熵与验证准确率强相关,而 token-级熵或 Pass@K 会过早饱和或误导
    • 消融显示:若基模型低层可靠性不足(Llama-3.1-Instruct),HICRA 优势消失 → 证明“先执行后规划”的必要顺序

综上,论文通过 “现象刻画 → 瓶颈定位 → 算法重设计 → 实验验证” 的完整链路,解决了“如何高效利用 RL 解锁 LLM 高级推理”的问题。

Q: 论文做了哪些实验?

论文围绕“层级推理假设”与 HICRA 算法设计了一套递进式实验体系,覆盖模型、基准、指标、消融与诊断五个维度,具体任务与结果如下:

1. 主实验:多模型 + 多基准的 Pass@1 提升验证

模型

基准

Base

GRPO

HICRA

Δ(HICRA-GRPO)

Qwen3-4B-Instruct

AIME24 / AIME25 / Math500 / AMC23 / Minerva / Olympiad

21.3 / 18.1 / 84.4 / 60.5 / 40.4 / 49.9

63.1 / 58.8 / 95.6 / 76.8 / 45.2 / 55.6

65.9 / 62.1 / 95.8 / 82.5 / 46.3 / 59.7

+2.8~+5.7

Qwen3-4B-Base

同上

9.4 / 5.3 / 63.8 / 38.9 / 28.3 / 30.7

24.9 / 23.8 / 83.0 / 51.2 / 38.9 / 45.8

31.0 / 27.6 / 89.0 / 54.0 / 42.5 / 48.1

+2.3~+6.1

Qwen2.5-7B-Base

同上

3.5 / 1.7 / 55.6 / 46.9 / 30.9 / 25.9

16.3 / 11.4 / 77.6 / 46.7 / 36.8 / 41.9

18.8 / 14.8 / 80.2 / 55.1 / 38.6 / 45.9

+2.5~+8.4

MiMO-VL-7B

同上

显著优于 GRPO

结论:HICRA 在所有开源模型与数学推理基准上均稳定超越 GRPO,验证“聚焦规划 token”策略的有效性。

2. 训练动态诊断:两阶段瓶颈转移

  • 指标
    • 执行 token 的相对困惑度 & token-级熵(低层技能固化)
    • 规划 token 的语义熵(高层策略多样性)
  • 观察(图 2):
    1. 阶段①:执行 token 的困惑度骤降、熵值走低 → 低层可靠性迅速建立
    2. 阶段②:语义熵持续攀升,伴随链长增长与准确率提升 → 高层策略成为新瓶颈

3. 错误类型演化:RL 主要修正“规划 & 策略”错误

  • 方法:用 GPT-4o 对失败 rollout 进行错误分类(Planning & Strategy vs Others)
  • 结果(图 3):
    • Planning & Strategy 错误数量下降幅度显著大于 Others
    • 在 Qwen2.5-7B-Base 上,Others 错误几乎不降,说明低层正确性并非最终瓶颈

4. 消融:HICRA vs 全局熵正则

  • 对比方案:GRPO、GRPO+Token-级熵正则、HICRA
  • 结果(图 4–5):
    • 熵正则虽提高 token-级熵,但语义熵低 → 验证准确率停滞
    • HICRA 保持更高语义熵,与验证准确率正相关,且链长受控

5. 语义熵作为“战略探索指南针”

  • 场景:MiMO-VL-Instruct-7B(多模态)
  • 观察(图 7):
    • Token-级熵与 Pass@8 快速饱和,无法区分方法差异
    • 语义熵持续升高且 HICRA > GRPO,与最终验证准确率一致

6. Planning Token 与 High-Entropy “Fork Token” 对比

  • 统计(图 8):
    • 约 50–80 % 的规划 token 落在高熵区间(Top 30 %)
    • 但高熵 token 中仅 5–9 % 具备规划功能 → 高熵 ≠ 策略关键

7. 边界条件:低层可靠性不足时 HICRA 失效

  • 案例:Llama-3.1-Instruct-8B
  • 现象(图 6):
    • 语义熵曲线反向,HICRA 未能超越 GRPO
    • 说明 HICRA 依赖“先执行后规划”的层级顺序

总结

实验从宏观性能微观动态、从消融对比边界诊断,系统验证了:

  1. 层级推理两阶段假设成立;
  2. HICRA 通过聚焦规划 token 实现更高效的战略探索;
  3. 语义熵是衡量战略探索的可靠指标。

Q: 有什么可以进一步探索的点?

以下方向可直接延续本文发现,也可拓展到更广阔的 RL-for-LLM 研究版图:

1. 更细粒度的信用分配

  • 过程奖励模型(PRM)+ HICRA 融合
    将 PRM 的逐步 reward 与 HICRA 的层级放大系数相乘,实现“双保险”:既定位关键步骤,又只对规划 token 放大梯度。
  • 动态 α 调度
    根据实时语义熵或验证准确率自适应调整放大强度 α,避免早期过度放大规划 token 导致不稳定。

2. 自适应层级诊断

  • 瓶颈检测器
    训练一个小型元模型,实时监测执行 token 的困惑度与规划 token 的语义熵,自动切换“执行优先”或“规划优先”训练阶段。
  • 多层级而非二元
    将“规划 / 执行”进一步拆分为“元策略→子策略→原子操作”三级,研究是否出现更细粒度的瓶颈迁移。

3. 跨任务与跨模态验证

  • 代码生成
    检验层级推理是否同样表现为“语法正确性→算法策略”两阶段,并验证 HICRA 对关键 API 选择 token 的放大效果。
  • 科学推理 / 长文档规划
    在需要检索、多轮假设检验的任务中,观察规划 token 是否对应“提出假设 / 设计实验 / 结果解读”等高层语义单元。
  • 多模态视觉-语言
    将 SG 标注扩展到图文交叉位置(如“让我们先分析图像左上角区域”),验证层级假设在跨模态链式推理中的普适性。

4. 规划 token 的自动化发现

  • 无监督 SG 挖掘
    用聚类或对比学习从大规模正确解答中自动发现“潜在规划短语”,摆脱人工+Gemini 的半自动标注。
  • 可解释性探针
    通过探测高层注意力头或 MLP 激活,验证模型内部是否已自发形成“规划 vs 执行”的功能子网络。

5. 与高效探索策略的结合

  • 基于语义熵的 curiosity bonus
    把语义熵作为内在奖励信号,鼓励模型持续生成新颖的战略模板。
  • 层级课程 RL
    先冻结高层策略、只训练执行 token;再冻结执行、只训练规划 token,形成显式课程,可能进一步加速收敛。

6. 理论分析

  • 层级收敛界
    在简化 MDP 下证明:若低层策略先达到 ε-最优,则对高层策略的样本复杂度可下降多少。
  • 熵与泛化
    研究语义熵与 OOD 泛化误差的关系,为“多样化策略 = 更好泛化”提供理论支撑。

7. 系统与工程优化

  • GPU 级稀疏梯度加速
    仅对规划 token 计算额外梯度,减少冗余反向传播开销。
  • 在线 SG 缓存
    在 rollout 阶段实时更新 SG 集合,使 HICRA 能适应模型不断演化的表达习惯。

这些方向既可直接提升 HICRA 的鲁棒性与适用范围,也可为 RL-for-LLM 的“层级认知”研究奠定更坚实的理论与实验基础。

Q: 总结一下论文的主要内容

论文一句话总结

通过揭示 RL 训练 LLM 时“先固化低层技能、再探索高层策略”的两阶段瓶颈转移,提出 HICRA 算法——只对“规划 token”放大梯度——在数学推理基准上显著优于 GRPO,并用 语义熵 作为衡量策略探索的可靠指标。

核心内容速览

维度

关键发现 / 方法

结果

问题

RL 提升 LLM 推理时出现“顿悟、长度缩放、熵动态”三大现象,但机制不明

首次统一解释为“层级推理”涌现

假设

训练分两阶段:
① 低层执行 token 可靠性固化 → ② 高层规划 token 策略多样化成为新瓶颈

跨 4 模型、6 基准的熵与错误分析一致验证

方法

HICRA = GRPO + 层级感知信用分配:
$\hat A^{\text{HICRA}}{i,t}= \hat A{i,t}+\alpha

\hat A_{i,t}

指标创新

语义熵(规划短语分布的香农熵)优于 token-级熵 / Pass@K

语义熵持续上升且与准确率强相关

消融

全局熵正则 ↑token 熵却 ↓准确率;HICRA ↑语义熵 ↑准确率

证明“针对性探索”优于“无差别探索”

边界

若基模型低层可靠性不足(Llama-3.1-Instruct),HICRA 无优势

明确“先执行后规划”顺序必要性

贡献清单

  1. 现象解释:提出并实证“层级推理”两阶段动态,统一解释顿悟、长度缩放、熵演化。
  2. 算法设计:HICRA——首个仅放大规划 token 梯度的高效 RL 算法。
  3. 评估指标:确立语义熵作为策略探索的可靠“指南针”。

Q: 想要进一步了解论文

以上只是了解一篇论文的几个基本FAQ。如果你还想与Kimi进一步讨论该论文,请点击 这里 为你跳转Kimi AI网页版,并启动一个与该论文相关的新会话。

Authors: Haozhe Wang,Qixin Xu,Che Liu,Junhong Wu,Fangzhen Lin,Wenhu Chen

Categories: cs.AI,cs.CL

PDF URL: https://arxiv.org/pdf/2509.03646.pdf

Arxiv URL: https://arxiv.org/abs/2509.03646

Arxiv ID: 2509.03646

CoolPaper URL: https://papers.cool/arxiv/2509.03646

Published: 2025-09-03T18:52:49Z

Updated: 2025-09-03T18:52:49.000Z


11. Causal Attention with Lookahead Keys

In standard causal attention, each token’s query, key, and value (QKV) are static and encode only preceding context. We introduce CAuSal aTtention with Lookahead kEys (CASTLE), an attention mechanism that continually updates each token’s keys as the context unfolds. We term these updated keys lookahead keys because they belong to earlier positions yet integrate information from tokens that appear later relative to those positions, while strictly preserving the autoregressive property. Although the mechanism appears sequential, we derive a mathematical equivalence that avoids explicitly materializing lookahead keys at each position and enables efficient parallel training. On language modeling benchmarks, CASTLE consistently outperforms standard causal attention across model scales, reducing validation perplexity and improving performance on a range of downstream tasks.

中文摘要

在标准因果注意力中,每个令牌的查询、键和值(QKV)都是静态的,仅编码前面的上下文。我们引入了具有前瞻性键的因果注意力(CASTLE),这是一种注意力机制,随着上下文的发展不断更新每个令牌的键。我们将这些更新的键称为前瞻性键,因为它们属于较早的位置,但整合了相对于这些位置较晚出现的令牌的信息,同时严格保持自回归特性。尽管该机制看起来是顺序的,但我们推导出一种数学等价性,避免在每个位置明确生成前瞻性键,从而实现高效的并行训练。在语言建模基准上,CASTLE在各个模型规模上 consistently 超越标准因果注意力,降低验证困惑度,并提高了一系列下游任务的性能。

LLM Analysis

Q: 这篇论文试图解决什么问题?

这篇论文旨在解决标准因果注意力(causal attention)在预训练阶段无法利用未来上下文信息的问题,从而限制了模型对全局语境的捕捉能力,影响自然语言理解和生成质量。

具体而言,标准因果注意力机制中,每个 token 的 query、key 和 value 是静态的,仅编码其之前的上下文信息,无法访问后续 token 的信息。这种限制导致模型在处理诸如“花园路径句”(garden-path sentences)或问题关键信息出现在句子末尾等任务时表现不佳。

为此,论文提出了一种新的注意力机制——CASTLE(Causal Attention with Lookahead Keys),其核心思想是:

在生成第 t+1 个 token 时,动态更新前 t 个 token 的 key,使其不仅编码自身及之前的信息,还能整合从 token s+1 到 t 的后续上下文信息。

这些更新后的 key 被称为 lookahead keys,它们属于较早的位置,但融合了相对这些位置而言的“未来”信息,同时严格保持自回归性质(即不泄露真正的未来 token 信息)。

尽管该机制看似需要递归计算,论文通过数学推导得到了一个等价的并行形式,避免了显式地逐层 materialize lookahead keys,从而实现了高效的并行训练

总结:

  • 问题:标准因果注意力无法利用未来上下文,限制了全局建模能力。
  • 解决方案:提出 CASTLE,通过 lookahead keys 动态更新 key 表示,使其融合更多上下文信息。
  • 技术贡献
    • 提出 lookahead keys 机制,保持自回归性;
    • 推导等价并行形式,支持高效训练;
    • 设计 UQ-KV cache,支持高效推理;
    • 在多尺度模型上验证其一致优于标准因果注意力。

Q: 有哪些相关研究?

  • 标准因果注意力(Causal Attention)
    Vaswani et al., 2017 提出 Transformer 的自回归注意力,通过因果掩码禁止 token 访问未来信息,成为 GPT 系列的基础。

  • 全局上下文缺失问题
    后续工作指出因果掩码限制了全局依赖建模,导致在花园路径句、问答等任务中表现下降(Du et al., 2022;Zhang et al., 2025)。

  • 句子级嵌入的补救方案

    • BeLLM(Li & Li, 2023):在解码层引入反向依赖,使句子表示同时利用过去与未来上下文,提升语义相似度任务。
    • Echo Embeddings(Springer et al., 2024):将输入复制一次,从第二次出现位置提取表示,让早期 token 能“看到”后期 token,无需微调。
    • Re-Reading (RE2)(Xu et al., 2024):提示模型把同一问题读两遍,第二遍用第一遍的全局信息增强推理。
  • 训练阶段的高效注意力变体

    • FlashAttention 系列(Dao et al., 2022;2024):通过 IO 感知分块和重计算,在 GPU 上实现内存高效、数值精确的注意力。
    • Selective Attention(Leviathan et al., 2024):无参数掩码累积分数,过滤掉冗余历史 token,减少计算与显存,同时保持困惑度。
  • 与 CASTLE 的关系
    上述方法仅在推理或句子嵌入阶段引入未来信息,或侧重节省资源;CASTLE 首次在预训练阶段以可并行方式让 key 随上下文动态演进,兼顾全局语境与自回归约束。

Q: 论文如何解决这个问题?

论文通过提出 CASTLE(Causal Attention with Lookahead Keys) 机制,在不破坏自回归性质的前提下,让早期 token 的 key 能够动态吸收“后续”上下文信息,从而缓解标准因果注意力无法利用未来语境的问题。具体实现分为三步:

  1. 机制设计:引入 lookahead keys
    在生成第 t+1 个 token 时,为每个前置位置 s≤t 维护两条 key:

    • causal key:静态,仅依赖 x_s,与标准注意力一致;
    • lookahead key:动态,通过轻量级注意力把 {x_{s+1},…,x_t} 的信息压缩进 u_t^s,且随 t 递归更新。
      最终 attention score 由 causal score 与 lookahead score 联合决定,并通过 SiLU 门控抑制噪声。
  2. 并行等价形式:避免 O(L³) 开销
    直接按递归定义逐层 materialize U_t 会带来 O(L³d) 复杂度。作者推导出一条矩阵恒等式,将整条序列的 lookahead-key 分量
    S^U = (Q^C V^Uᵀ ⊙ ˜M^C) · sigmoid(Q^U K^Uᵀ/√d + M^U)ᵀ
    拆成“低秩掩码矩阵 × 稀疏上三角张量”的块级递推,从而把前向/反向计算都降到 O(L²d),并配合 FlashAttention 式的分块在线 softmax,实现大规模 GPU 并行训练。

  3. 高效推理:UQ-KV Cache
    解码阶段只需缓存

    • U_t(lookahead key 状态)
    • Q^U_t(用于继续更新 U)
    • K^C_t, V^C_t(因果分支的 KV)
      每步用 O(td + d d_model) 代价完成增量更新,与标准 KV-cache 的内存/计算增长速率一致。

通过以上三点,CASTLE 在训练(并行 O(L²d))、推理(增量 O(td))两端都保持高效,同时让早期 token 的表示持续吸收最新上下文,显著提升验证困惑度与下游任务平均准确率。

Q: 论文做了哪些实验?

  • 预训练主实验

    • 规模:0.16 B → 1.3 B 共 4 组模型(S/M/L/XL)。
    • 数据:FineWeb-Edu 50 B token,序列长度 2 k。
    • 指标:训练/验证交叉熵与困惑度(PPL)。
    • 结果:CASTLE 在所有规模下均取得更低损失与 PPL,XL 模型验证 PPL 从 11.31 → 10.92,绝对降幅 0.39。
  • 下游零样本与少样本评测

    • 任务:ARC-E/C、BoolQ、HellaSwag、MMLU、OBQA、PIQA、Winogrande 共 8 项。
    • 设置:0-shot 与 5-shot 两种 prompt 方式,lm-evaluation-harness 统一测试。
    • 结果:CASTLE 在各规模下平均准确率一致高于基线,XL 模型 0-shot 平均 +0.42 %,5-shot 平均 +1.78 %,ARC-C 提升达 3.5 %。
  • 消融实验

    1. 移除因果键(仅保留 lookahead keys)

      • 同参数 120 M 模型,25 B token 训练。
      • 验证 PPL 从 18.54 → 20.51,确认因果键不可或缺。
    2. 控制键数量(总 key 数=基线)

      • 把 head 数降到 8(XL 为 8 head,16 key),参数反而少 4 %。
      • 验证损失仍比基线低 0.032,说明提升来自机制而非单纯增加 key 量。
    3. SiLU 门控作用

      • 去掉 (5) 式中的 SiLU,保留其余结构。
      • PPL 几乎不变,但 8 项下游平均准确率下降 0.2–0.7 %,表明 SiLU 有助于泛化。
  • 效率验证

    • 训练:在 A100 上实现 Triton 内核,FlashAttention-风格分块,前向+反向实测 O(L²d) 显存与耗时。
    • 推理:对比标准 KV-cache,CASTLE 的 UQ-KV cache 内存同样随序列线性增长,解码单步 FLOPs 增加 < 5 %。
  • 扩展观察

    • 小模型(160 M):提升幅度最小,作者归因于容量有限难以利用全局信息。
    • 损失曲线:随训练 token 增加,CASTLE 与基线差距持续拉大,未出现收敛瓶颈。

Q: 有什么可以进一步探索的点?

  • 最优键比例
    CASTLE 目前采用 1:1 的 causal key 与 lookahead key 配对。可系统探索不同比例(如 2:1、1:2)或动态调度策略,以在参数预算与表达能力之间取得更好平衡。

  • Lookahead Value 扩展
    本文仅更新 key。若同步引入“lookahead value”,可让早期 token 的 value 也吸收后续语境,但需重新设计并行等价形式以避免 O(L³) 复杂度。

  • 更长上下文与长度外推
    实验最长 2 k token。可测试 8 k–32 k 长序列,观察 lookahead key 是否随长度增加带来更大增益,并结合 RoPE 改进(如 PI、NTK)研究长度外推稳定性。

  • 与高效注意力正交组合
    将 CASTLE 与 FlashAttention-2、局部-全局混合、稀疏注意力或 Selective Attention 结合,验证在显存受限场景下是否仍保持优势。

  • 层间差异化策略
    仅在部分层启用 lookahead key,或随层深逐渐减小 lookahead 比例,可能减少计算并维持效果;需研究最佳放置策略。

  • 多模态与编码器-解码器架构
    探索 CASTLE 在 ViT、多模态 LLM 或编码器-解码器模型(如 T5)中的适用性,验证其对双向语境的兼容性。

  • 理论分析
    从表达能力或梯度传播角度,量化 lookahead key 对全局依赖建模的增益,给出与标准因果注意力的样本复杂度或收敛速度对比界。

  • 自适应门控函数
    当前使用固定 SiLU。可尝试输入依赖的线性门控、MLP 门控或强化学习搜索,进一步优化“遗忘”噪声 token 的能力。

  • 推理加速与压缩
    研究 UQ-KV cache 的量化、剪枝或提前退出机制,降低解码时内存占用与延迟,使 CASTLE 在端侧部署更具吸引力。

Q: 总结一下论文的主要内容

CASTLE:用“前瞻键”给因果注意力开一扇侧门

1 问题

  • 标准因果注意力只能“往后看”,key 一旦生成就不再更新
  • 早期 token 无法随着上下文增长而刷新表示 → 全局信息捕捉弱,花园路径句、末尾提问等场景吃亏

2 解法

提出 CASTLE(Causal Attention with Lookahead Keys)
核心思想:生成第 t+1 个 token 时,把位置 1‥t 的 key 当场“翻新”,让 key_s 额外吸收 {s+1‥t} 的信息——称为 lookahead key;同时保留原静态 causal key。

  • 严格自回归:翻新只用已生成 token
  • hybrid 表示:每位置两条 key,query 同时询问它们,再用 SiLU 门控合并得分

3 并行化 trick

直接逐层 materialize lookahead key 需 O(L³d)。
作者推导出等价矩阵形式,把运算拆成“低秩掩码矩阵 × 稀疏上三角”块递推,复杂度压到 O(L²d),并配套 FlashAttention-风格分块在线 softmax → 大规模 GPU 训练可行。

4 推理缓存

引入 UQ-KV cache(lookahead key 状态 + 对应 query 缓存 + 因果分支 KV),解码增量更新,每步代价 O(td + d·d_model),与标准 KV-cache 同量级。

5 实验结果

  • 预训练 50 B token,4 个规模 0.16 B→1.3 B
    验证 PPL 一致下降,XL 模型 −0.39;训练损失亦更低。
  • 下游 8 任务 0-shot & 5-shot
    平均准确率全面优于基线,XL 5-shot ARC-C 提升 3.5 %。
  • 消融
    – 去掉 causal key → 性能崩掉
    – 总 key 数对齐基线仍赢,证实增益来自机制而非堆数量
    – SiLU 门控对下游泛化有小但稳定的帮助
  • 效率
    Triton 实现,训练显存/耗时与 FlashAttention-2 同级;解码内存随序列线性增长。

6 贡献一句话

CASTLE 让“早期 key”随上下文持续进化,不破坏自回归,不增加量级,预训练与推理皆高效,语言模型 perplexity 与下游任务准确率同步提升。

Q: 想要进一步了解论文

以上只是了解一篇论文的几个基本FAQ。如果你还想与Kimi进一步讨论该论文,请点击 这里 为你跳转Kimi AI网页版,并启动一个与该论文相关的新会话。

Authors: Zhuoqing Song,Peng Sun,Huizhuo Yuan,Quanquan Gu

Categories: cs.CL,cs.LG

PDF URL: https://arxiv.org/pdf/2509.07301.pdf

Arxiv URL: https://arxiv.org/abs/2509.07301

Arxiv ID: 2509.07301

CoolPaper URL: https://papers.cool/arxiv/2509.07301

Published: 2025-09-09T00:15:23Z

Updated: 2025-09-09T00:15:23.000Z


12. SimpleQA Verified: A Reliable Factuality Benchmark to Measure Parametric Knowledge

We introduce SimpleQA Verified, a 1,000-prompt benchmark for evaluating Large Language Model (LLM) short-form factuality based on OpenAI’s SimpleQA. It addresses critical limitations in OpenAI’s benchmark, including noisy and incorrect labels, topical biases, and question redundancy. SimpleQA Verified was created through a rigorous multi-stage filtering process involving de-duplication, topic balancing, and source reconciliation to produce a more reliable and challenging evaluation set, alongside improvements in the autorater prompt. On this new benchmark, Gemini 2.5 Pro achieves a state-of-the-art F1-score of 55.6, outperforming other frontier models, including GPT-5. This work provides the research community with a higher-fidelity tool to track genuine progress in parametric model factuality and to mitigate hallucinations. The benchmark dataset, evaluation code, and leaderboard are available at: https://www.kaggle.com/benchmarks/deepmind/simpleqa-verified.

中文摘要

我们介绍了 SimpleQA Verified,这是一个包含 1,000 个提示的基准,用于评估基于 OpenAI 的 SimpleQA 的大型语言模型 (LLM) 的短期事实性。它解决了 OpenAI 基准中的一些关键限制,包括嘈杂和不正确的标签、话题偏差和问题冗余。SimpleQA Verified 是通过严格的多阶段过滤过程创建的,该过程涉及去重、主题平衡和来源调和,以生成一个更可靠和具有挑战性的评估集,同时对自动评分提示进行了改进。在这个新的基准上,Gemini 2.5 Pro 的 F1 分数达到 55.6,超越了包括 GPT-5 在内的其他前沿模型。这项工作为研究界提供了一个更高保真度的工具,以跟踪参数模型事实性的真实进展,并减少幻觉。基准数据集、评估代码和排行榜可在以下链接获取:https://www.kaggle.com/benchmarks/deepmind/simpleqa-verified。

LLM Analysis

Q: 这篇论文试图解决什么问题?

论文旨在解决现有短答案事实性评测基准 SimpleQA 存在的三大核心缺陷,从而提供一个更可信、更具区分度的参数化知识评测工具:

  1. 标签噪声与答案错误
    原始 SimpleQA 中人工标注者提供的“标准答案”存在事实性错误或多源冲突,导致评测信号失真。

  2. 主题与题型分布失衡
    数据集中 32.8 % 问题要求日期、24.1 % 要求人名,且高度偏向科学与技术主题,使得模型在少数领域上的过拟合被误判为整体事实性提升。

  3. 冗余与重复
    同一来源文档被反复提问,出现 119 条仅哥伦比亚市镇成立日期相关的近乎重复问题,降低了评测的多样性与挑战性。

通过多阶段过滤、去重、来源校验与题型再平衡,作者构建出 1 000 条高质量 prompt 的新基准 SimpleQA Verified,并配套改进的自动评分器,实现对大模型参数化事实召回能力的更精准测量。

Q: 有哪些相关研究?

与本文直接相关的研究可按评测范式归类如下:

  • 短答案参数化事实评测

    • TriviaQA (Joshi et al., 2017)
    • Natural Questions (Kwiatkowski et al., 2019)
    • TruthfulQA (Lin et al., 2022)
    • SimpleQA (Wei et al., 2024a) —— 本文直接改进对象
  • 长文本事实一致性评测

    • Felm (Chen et al., 2023)
    • FactScore (Min et al., 2023)
    • LongFact (Wei et al., 2024b)
    • VeriScore (Song et al., 2024)
  • ** grounding 与检索增强评测**

    • Attribution Benchmark (Rashkin et al., 2022)
    • FreshLLMs (Vu et al., 2023)
    • RealTime QA (Kasai et al., 2024)
    • CRAG (Yang et al., 2024)
    • FFR (Krishna et al., 2025)
  • 自动评分器与不确定性估计

    • GPT-as-a-Judge 系列工作 (如本文改进的 Wei et al. 2024a 评分提示)
    • Gemini Embeddings 语义去重方法 (Lee et al., 2025)
  • 多步推理与隐含策略评测

    • HotpotQA (Yang et al., 2018)
    • StrategyQA (Geva et al., 2021)

上述研究共同构成了从“参数化知识→外部知识→长文本→ grounding→自动评分”的完整事实性评测脉络,本文位于“短答案参数化知识”子领域的最新迭代。

Q: 论文如何解决这个问题?

论文通过“数据清洗 + 自动评分器升级”双轨策略系统性地消除 SimpleQA 的缺陷,具体流程如下:

1. 多阶段数据清洗(§2)

阶段

关键动作

剩余样本

主要目的

1. 唯一来源过滤

同一参考 URL 仅保留 1 题,优先选三模型全错难题

3 095 (−28.5 %)

消除标注者偏好导致的来源扎堆

2. 语义去重

Gemini Embedding cosine > 0.77 聚类,每类留 1 难题

2 871 (−7.2 %)

移除“哥伦比亚 119 市镇”类冗余

3. TF-IDF 去重

cosine > 0.4 人工复核,留难题

2 664 (−7.2 %)

剔除表层词汇高度重叠问题

4. 遵守 robots.txt

删去限制 Google/Anthropic/OpenAI 抓取的 URL 对应题

1 855 (−30.4 %)

避免未来训练数据泄漏与版权争议

5. 题型-主题再平衡

按答案类型(日期/人名/数字…)+ 主题(体育/地理…)分层采样,留难题

1 218 (−34.3 %)

抑制“日期+科技”过度代表

6. 冲突源调和

非数字题多源一致才保留;数字题强制 5 % 误差带内一致

1 073 (−3.9 %)

剔除答案矛盾或无法验证条目

7. 提升天花板

在三模型全对集合中随机剔除,最终保留 1 000 题

1 000 (−6.8 %)

保证足够“头部空间”供后续模型爬坡

2. 人工复核与元数据增强(§2.7)

  • 修正失效或无关参考链接
  • 统一日期精度(“年月” vs “年月日”)
  • 用分类器标注 3.7 % 需推理、7.3 % 多步题,便于后续细粒度分析

3. 自动评分器升级(§3)

问题类别

原评分器缺陷

改进措施

数值题

要求“精确到最后一位”导致合理近似被判错

在 gold answer 中显式给出可接受区间(±1 % 或 ±5 %)

冗余信息

模型附加背景或纠正提问假设被误判

明确“仅评估直接答案部分,附加信息不影响”

** hedge/多候选**

罗列多个可能答案无最终选择被错标为 incorrect

规定“必须锁定唯一答案才视为 attempted,否则 NOT_ATTEMPTED”

punting 风格

少数示例未覆盖“软拒绝”句式

增扩 few-shot 样例,确保各类“我不知道”统一判为 NOT_ATTEMPTED

4. 交付物

  • 1 000 题纯净基准 + 改进版评分提示
  • Kaggle 公开排行榜与评估代码

通过上述流水线,论文将噪声大、偏差重的 4 326 题原始集合转化为高信噪比、题型均衡、答案可验证的 SimpleQA Verified,从而提供对参数化事实性的更可靠测量。

Q: 论文做了哪些实验?

实验部分围绕“新基准能否更可靠地度量模型事实性”与“改进评分器是否减少误判”两条主线展开,全部在零工具(no-search)设定下完成。

  1. 主实验:13 个前沿模型在 SimpleQA Verified 上的整体表现

    • 模型列表:Gemini 2.5 Flash Lite / Flash / Pro,GPT-4o / 4.1 / o3 / o4 / GPT-5 / 5-Mini / 5-Nano,Claude Sonnet 4 / Opus 4,DeepSeek R1。
    • 指标:Accuracy、Accuracy|Attempted、Attempt 率、Hedge 率,最终报告 F1 = harmonic-mean(Accuracy, Accuracy|Attempted)。
    • 结果:Gemini 2.5 Pro 以 55.6 % F1 居首,显著领先 GPT-5(52.3 %)与 Claude Opus 4(28.3 %)。
    • 对照:同步给出同一批模型在原 SimpleQA 上的分数,计算 Δ = F1_Verified − F1_Original。GPT-4o、Claude 系列在 Verified 上显著下降(−3.5 ~ −4.4 ppt,p < 0.05),说明清洗后基准对幻觉更敏感;o4-mini 反而提升 2.9 ppt,表明其原有过拟合噪声。
  2. 评分器消融实验(§3)

    • 抽样 1 000 条模型回答,用原始 Wei et al. 提示与新提示各评分 10 次(T=2.0)。
    • 以“10 次结果不一致”作为不确定性代理,人工复核高不确定性案例。
    • 统计:
      – 数值近似误判率从 18 % → 2 %
      – hedge-多候选误判率从 12 % → 3 %
      – 整体不一致率由 9.1 % 降至 2.4 %
  3. 头空间(headroom)验证(§2.6)

    • 在 1 073 题清洗后集合上,若保留“三模型全对”样本,F1 上限可达 58.4 %;通过随机剔除这些样本并保留 1 000 题,Gemini 2.5 Pro 实测 55.6 %,与上限差距 < 3 %,证明基准仍具足够区分梯度。
  4. 题型/主题细粒度诊断(附录图表)

    • 按答案类型拆分:Gemini 2.5 Pro 在“数字”类 F1 61 %,“日期”类 53 %,“人名”类 50 %,揭示模型对不同知识模态的稳健性差异。
    • 按主题拆分:体育 61 %、地理 58 %、艺术 47 %,显示领域偏差仍存在但已较原基准大幅缩小。
  5. 可复现性保障

    • 所有实验使用同一套公开 autorater(gpt-4.1-2025-04-14)与固定 API 参数(temperature=0)。
    • 数据集、评分代码、 leaderboard 一并开源,确保后续研究可直接复现或提交新模型结果。

综上,实验既验证了 SimpleQA Verified 对幻觉更敏感、分布更均衡,也量化证明了改进版评分器显著降低误判,为社区提供了高信噪比的参数化事实性评测工具。

Q: 有什么可以进一步探索的点?

以下方向可在大规模语言模型事实性评测与改进层面继续深入,均基于 SimpleQA Verified 的公开数据与评估框架:

  • 多语言与跨文化扩展
    将 1 000 题翻译并本地化,检验模型在非英语语境下的参数化知识召回,观察是否存在“英语中心”幻觉。

  • 细粒度误差归因
    利用已标注的“需推理 / 多步”元数据,结合模型内部 log-prob 与注意力热图,区分“知识缺失”与“推理失败”两类错误,为后续针对性训练提供监督信号。

  • 动态难度调度
    基于当前 55.6 % F1 的头空间,设计在线 adversarial 数据增强:定期用最强模型挑出“刚学会”的题目,替换掉已被多数模型攻克的样本,保持排行榜持续具有区分度。

  • 数值事实的分布外泛化
    将数值题按“小整数 / 中等计数 / 大聚合量”三类拆分,引入显著偏离训练时间窗口的新统计(如 2025 年人口普查),测试模型对分布偏移的鲁棒性。

  • 校准与不确定性量化
    要求模型在输出答案的同时给出置信度或 abstention 阈值,用 SimpleQA Verified 的“NOT ATTEMPTED”标签评估校准曲线,推动“可拒绝”型事实性模型。

  • 检索-参数化混合诊断
    在同一 1 000 题上对比“纯参数”“纯检索”“RAG”三种设定,量化参数记忆与外部检索的互补增益,验证 SimpleQA Verified 是否仍对 RAG 系统过于简单。

  • 对抗性扰动测试
    对问题做语义保持的改写(时态、否定、同义词替换),检验模型是否依赖浅层线索,评估基准本身的脆弱性。

  • 长链推理延伸
    将单步事实题扩展为多跳链(如“X 的导师的出生地”),构建 SimpleQA-Chain 子集,评测模型在串联多个参数事实时的累积幻觉率。

  • 人类-模型协同校验
    引入“人机不一致”队列:当自动评分器与人工专家意见冲突时,启动二次众包验证,持续迭代 ground truth 与评分提示,形成活基准(living benchmark)。

  • 许可证与伦理审计
    利用已清理的 URL 列表,建立“robots.txt 变更监控”流水线,实时检测出版商政策变动,确保数据集长期合规;同时分析剩余来源的地理与文化代表性,进一步缩小隐性偏见。

这些探索可在 SimpleQA Verified 的现有数据、评分器与 leaderboard 基础设施上直接展开,为社区提供持续、可复现且高分辨率的事实性研究路径。

Q: 总结一下论文的主要内容

论文核心贡献

维度

内容

问题

OpenAI SimpleQA 存在标签噪声、主题/题型失衡、问题冗余,导致评测信号失真。

方案

提出 SimpleQA Verified:经 9 步严格清洗(去重、再平衡、冲突调和、难度筛选)得到 1 000 条高信噪比 prompt;并升级自动评分器以支持数值区间、hedge 处理与拒绝判定。

实验

13 个前沿模型零工具评估:Gemini 2.5 Pro 以 55.6 % F1 刷新 SOTA;GPT-4o、Claude 系列在 Verified 上显著下降,验证新基准对幻觉更敏感;评分器消融实验将不一致率从 9.1 % 降至 2.4 %。

资源

数据集、评估代码与公开排行榜已发布于 Kaggle,支持社区持续提交与迭代。

意义

提供更高保真度的参数化事实性测量工具,减少模型对 benchmark artifact 的过拟合,推动更可信的 LLM 研发。

Q: 想要进一步了解论文

以上只是了解一篇论文的几个基本FAQ。如果你还想与Kimi进一步讨论该论文,请点击 这里 为你跳转Kimi AI网页版,并启动一个与该论文相关的新会话。

Authors: Lukas Haas,Gal Yona,Giovanni D’Antonio,Sasha Goldshtein,Dipanjan Das

Categories: cs.CL

PDF URL: https://arxiv.org/pdf/2509.07968.pdf

Arxiv URL: https://arxiv.org/abs/2509.07968

Arxiv ID: 2509.07968

CoolPaper URL: https://papers.cool/arxiv/2509.07968

Published: 2025-09-09T17:53:58Z

Updated: 2025-09-09T17:53:58.000Z


13. Directly Aligning the Full Diffusion Trajectory with Fine-Grained Human Preference

Recent studies have demonstrated the effectiveness of directly aligning diffusion models with human preferences using differentiable reward. However, they exhibit two primary challenges: (1) they rely on multistep denoising with gradient computation for reward scoring, which is computationally expensive, thus restricting optimization to only a few diffusion steps; (2) they often need continuous offline adaptation of reward models in order to achieve desired aesthetic quality, such as photorealism or precise lighting effects. To address the limitation of multistep denoising, we propose Direct-Align, a method that predefines a noise prior to effectively recover original images from any time steps via interpolation, leveraging the equation that diffusion states are interpolations between noise and target images, which effectively avoids over-optimization in late timesteps. Furthermore, we introduce Semantic Relative Preference Optimization (SRPO), in which rewards are formulated as text-conditioned signals. This approach enables online adjustment of rewards in response to positive and negative prompt augmentation, thereby reducing the reliance on offline reward fine-tuning. By fine-tuning the FLUX model with optimized denoising and online reward adjustment, we improve its human-evaluated realism and aesthetic quality by over 3x.

中文摘要

最近的研究证明了直接将扩散模型与人类偏好对齐的有效性,使用可微分奖励。然而,它们面临两个主要挑战:(1)它们依赖于多步去噪和梯度计算进行奖励评分,这在计算上代价高昂,因此将优化限制在只有几个扩散步骤;(2)为了达到所需的美学质量,如照片真实感或精确的光照效果,它们通常需要对奖励模型进行持续的离线适应。为了解决多步去噪的限制,我们提出了Direct-Align,一种在任何时间步骤有效恢复原始图像的噪声先验的方法,通过插值利用扩散状态是噪声与目标图像之间的插值这一方程,有效避免了在晚时间步中的过度优化。此外,我们引入了语义相对偏好优化(SRPO),在其中奖励被制定为文本条件信号。这种方法使得能够在线调整奖励,以响应正面和负面提示增强,从而减少对离线奖励微调的依赖。通过优化去噪和在线奖励调整来微调FLUX模型,我们使其在人类评估的真实感和美学质量上提高了超过3倍。

LLM Analysis

Q: 这篇论文试图解决什么问题?

论文旨在解决扩散模型直接对齐人类偏好时存在的两大核心瓶颈

  1. 计算瓶颈
    现有在线 RL 方法(ReFL、DRaFT 等)只能通过“多步去噪+反向传播”获得可微奖励,导致

    • 显存随步数线性增长,训练被限制在极少步(通常 ≤5 步);
    • 只能优化轨迹末尾的高频细节阶段,早期低频结构阶段无法利用,从而出现 reward hacking(模型利用奖励偏差生成高奖励低质量图像)。
  2. 奖励瓶颈
    现有奖励模型在训练后固定,无法在线调整。若要获得“真实感、光照、风格”等细粒度属性,必须提前做昂贵的离线微调或人工构造奖励组合,缺乏对下游需求的即时响应能力。

为此,作者提出

  • Direct-Align:利用扩散前向公式构造“单步高斯先验”,在任意时刻 t 通过闭式插值一次性还原干净图像,实现全轨迹可微优化,且梯度计算与步数无关。
  • Semantic Relative Preference Optimization (SRPO):把奖励信号重定义为“文本条件偏好”,通过同一图像的正负提示词对产生相对奖励差,在线抑制奖励偏差,无需额外数据或奖励模型再训练。

实验表明,仅用 32 张 H20 GPU 训练 10 分钟,FLUX.1-dev 在人类评测的“真实感”提升 3.7×,“美感”提升 3.1×,训练效率较 DanceGRPO 提高 75 倍以上。

Q: 有哪些相关研究?

论文第 2 节“Related Work”与实验对比部分共涉及 30 余项研究,可归纳为 4 条主线。以下按“方法类别–代表性文献–与本工作的关系”三要素列出,方便快速定位。

类别

代表文献

与本工作的关系

1. 在线 RL 直接反向传播

• ReFL

Xu et al., ImageReward, 2023

基准之一;仅优化末 5 步,易 hacking。

• DRaFT

Clark et al., 2023

基准之一;多步 DDIM 反向,计算昂贵。

• DanceGRPO

Xue et al., 2025

最新 SOTA;Group-RL,需 480 GPUh,被 SRPO 超越 75×。

• Flow-GRPO

Liu et al., 2025

同期 flow-matching RL;未做全轨迹优化。

2. 离线奖励模型再训练/修正

• ICTHP

Ba et al., 2025

构造高美感数据重训奖励;离线成本高。

• HPS v3

Ma et al., 2025

用真实照片重训奖励;仍需额外数据。

• MPS

Zhang et al., CVPR 2024

多维人类偏好标注;离线标注开销大。

3. 早期 timestep 优化理论

• 统一 SDE/ODE 视角

Albergo & Boffi, 2023

提供“早期低频、后期高频”理论依据。

• 逐步偏好优化

Liang et al., CVPR 2025

逐步奖励后训练;仍用多步采样。

4. 奖励 hacking 与偏差分析

• HPSv2 偏差

Wu et al., 2023

偏好红色调;SRPO 用相对差分抑制。

• PickScore 偏差

Kirstain et al., 2023

偏好紫色平滑;SRPO 负提示抵消。

• 奖励误设综述

Pan et al., 2022

系统梳理 reward misspecification 危害。

此外,实验评估还调用了以下公开基准与工具:

  • 奖励/美学指标:Aesthetic Predictor v2.5、PickScore、ImageReward、HPSv2.1、CLIPScore。
  • 文本-图像对齐:GenEval (Ghosh et al., NeurIPS 2023)。
  • 失真量化:DeQA (You et al., 2025)。
  • 数据集:DiffusionDB、HPDv2。

以上研究共同构成了 SRPO 的对比基线与理论背景。

Q: 论文如何解决这个问题?

论文把“扩散模型全轨迹直接对齐细粒度人类偏好”拆成两个可独立求解的子问题,分别对应 Direct-AlignSRPO 两大技术模块。整体流程见图 2,核心公式与实现要点如下。

1. Direct-Align:让梯度“一步”穿透任意时刻

步骤

关键公式

作用

① 注入高斯先验

$x_t = \alpha_t x_0 + \sigma_t \varepsilon_{\text{gt}}$

用真实噪声把干净图 $x_0$ 推到任意 $t$,无需可微采样。

② 单步还原

$x_0’ = \dfrac{x_t - \sigma_t \varepsilon_{\theta}(x_t,t,c)}{\alpha_t}$

网络只负责预测 $\varepsilon_{\theta}$,其余用闭式解,误差不累积。

③ 奖励回传

$r = R(x_0’, c)$

奖励模型对还原图打分,梯度直接回传到 $\varepsilon_{\theta}$。

④ 多段聚合

$r(x_t)=\lambda(t)\sum_{i=k-n}^{k}\gamma^{k-i} r_i$

对同一 $x_0$ 多次注入不同 $t_i$,指数折扣抑制 late-step hacking。

  • 早期 timestep 可用:即使 95 % 噪声,还原图仍保留低频结构(图 3)。
  • 计算与步数无关:单步图→奖励→梯度,内存恒定,训练 25 步与 1 步同成本。

2. SRPO:在线抑制奖励偏差,无需重训奖励模型

2.1 文本条件奖励重写

利用奖励模型本身即 CLIP-like 图文匹配函数:

把原始提示 $p$ 扩展为正负提示对

  • 正提示 $p^+ = \text{“realistic photo, } p$”
  • 负提示 $p^- = \text{“CG render, } p$”

得到差分奖励:

  • 仅优化“相对方向”,公共偏差(过饱和、过平滑)被抵消。
  • 控制词可在线替换,实现“亮度/风格/光照”即时调整(图 8)。

2.2 反演正则化

Direct-Align 的还原常数 $\varepsilon_{\text{gt}}$ 与网络解耦,因此可同时沿去噪与加噪两个方向优化

方向

目标

效果

去噪(梯度上升)

最大化 $r_{\text{SRP}}$

把生成分布拉向偏好区域。

反演(梯度下降)

最小化 $r_{\text{SRP}}$

把远离偏好区域的样本推回,进一步抑制 hacking。

3. 训练与推断流程(伪代码)

for x0, c in loader:
    # 1. 随机选 t 并注入真实噪声
    ε_gt = torch.randn_like(x0)
    xt   = αt*x0 + σt*ε_gt

    # 2. 单步还原
    x0'  = (xt - σt*εθ(xt,t,c))/αt

    # 3. 正负提示奖励差
    r    = RM(x0', c_pos) - RM(x0', c_neg)

    # 4. 反演分支(可选)
    x0'' = (xt + σt*εθ(xt,t,c))/αt
    r_inv= RM(x0'', c_pos) - RM(x0'', c_neg)

    # 5. 总损失
    loss = -(r - κ·r_inv)
    loss.backward()

推断阶段无需任何额外模块,与原始 FLUX 一致(50 步、CFG=3.5)。

4. 结果摘要

  • 训练效率:32 H20 GPU × 10 min ≈ 5.3 GPUh,比 DanceGRPO 的 480 GPUh 快 75×。
  • 人类评测(500 prompt × 5 人):
    • 真实感“优秀率”:8.2 % → 38.9 %(+3.7×)
    • 美感“优秀率”:5.3 % → 29.4 %(+3.1×)
  • 自动指标:在 HPDv2 3200 提示上,Aesthetic、PickScore、HPS 均取得 SOTA,且未出现奖励 hacking(图 7)。

通过“单步闭式还原 + 文本相对偏好”两步走,论文同时解决了计算受限奖励偏差两大痛点,实现大扩散模型的高效、细粒度、在线对齐。

Q: 论文做了哪些实验?

实验围绕“高效训练”与“细粒度对齐”两大主张展开,分为自动指标、人工评测、消融与扩展四条主线,共涉及 6 组对比方法与 8 项评估工具。所有实验均以 FLUX.1-dev 为基底,训练数据统一使用 HPDv2(3 200 提示,含 DiffusionDB 四个视觉概念)。主要结果汇总如下。

1. 主实验:与 SOTA Online-RL 全面对比

设置

对比方法

硬件/时间

关键结论

自动指标

ReFL / DRaFT-LV / DanceGRPO / FLUX 基线

16–32 H20 GPU

SRPO 在 Aes、Pick、ImageReward、HPS 四项均第一,且未出现 HPS 分数虚高(表 1)。

人工评测

同上 + Direct-Align

10 名标注者 + 3 名专家,500 提示 × 5 人

真实感“优秀率” 38.9 %(基线 8.2 %,次佳 8.3 %);美感“优秀率” 29.4 %(基线 5.3 %);整体偏好 92.6 % 优于基线 90.2 %(图 4)。

效率

——

——

训练 5.3 GPUh,较 DanceGRPO(480 GPUh)快 75×,参数量相同。

2. 跨奖励模型稳健性验证

奖励骨干

训练集

结果

CLIP ViT-H/14

无人类偏好

SRPO 仍能提升细节,但幅度最小(图 6)。

PickScore

Pick-a-Pic 用户偏好

收敛最快,人类评分与 HPS 版本持平。

HPSv2.1

HPDv2 真实投票

真实感提升最高,无 hacking 现象。

Aesthetic 2.5

纯图像美学

通过“原图 vs 轻度加噪”构造相对奖励,同样抑制过平滑(图 S1)。

结论:SRPO 的文本相对差分机制对不同奖励源均有效,不仅限于特定偏差。

3. 消融实验:验证两大核心组件

消融变量

设置

人类评测结果(优秀率)

备注

① 无 early-step

仅优化最后 25 % t

真实感 ↓ 12 %, hacking 率 ↑ 77 %

图 9(d)

② 无 late-discount

λ(t)=1

出现饱和伪影, hacking 率 ↑ 48 %

图 9(d)

③ 无反演正则

只用式(11)直接差分

真实感略降 3 %,但仍优于基线

图 9(d)

④ 控制词消融

训练时去掉正负提示

美感“优秀率”跌至 11 %, hacking 率回到 54 %

表见附录

4. 细粒度风格/光照控制实验

控制任务

关键词

评估方式

结果

亮度调节

golden / dark lighting

200 纯照片提示 × 5 人

亮度符合率 95.2 %,基线 50.4 %(图 9c)

风格迁移

comic / oil / cyberpunk / Renaissance

同上

高频词(comic)提升 31 %;低频词(cyberpunk)需联合“digital painting”才有效(图 8)

摄影增强

realistic photo + lighting

与 FLUX.1-Krea 公开版比较

SRPO 在 Align、Aes、Realism、Detail 四项全面领先(图 9a)

5. 离线数据扩展测试(Supplementary)

数据

训练方式

结果

真实照片集(Unsplash 5 k)

离线 SRPO,无在线 rollout

真实感“优秀率”再提升 8 %,图 S5 显示纹理与光影更自然。

对比纯 SFT

相同照片 + MSE 损失

出现色彩漂移;SRPO 保留偏好信号,色彩保真更高。

6. hacking 量化实验

指标

定义

结果

hacking 率

200 随机提示,3 图选最过饱和/过平滑者

Late-only 训练 77 %;SRPO 6 %(图 7)。

SGP-HPS

HPS(“realistic”) − HPS(“CG”) 差值

SRPO 提升 0.042,领先次佳 0.037(表 1)。

7. 训练效率微观分析

组件

细节

结果

单步还原误差

与 DDIM 50 步对比 LPIPS

25 % 时刻 LPIPS < 0.015,优于 ReFL 0.08(图 3)。

梯度稳定性

早期 t=0.05 梯度范数

Direct-Align 梯度范数 1.2,ReFL 22.6(附录表)。

8. 用户研究统计可靠性

  • IRR:Krippendorff α = 0.78(标注者间一致性良好)。
  • 显著性:McNemar 检验 SRPO vs 基线,四项指标 p < 0.001。

综上,论文通过自动指标+人工双轨+跨奖励+ablation+风格控制+离线扩展六层实验,系统验证了:

  1. 训练速度 75× 提升且内存恒定;
  2. 真实感/美感人类评分提高 3 倍以上,且无 hacking;
  3. 控制词在线切换即可实现亮度、风格等细粒度属性,无需重训奖励。

Q: 有什么可以进一步探索的点?

  • 1. 控制 token 系统化

    • 当前正负提示依赖人工枚举,可建立“可学习控制 token 库”或引入 LoRA 式轻量模块,实现连续、可微的风格/光照旋钮。
    • 对低频风格(Renaissance、cyberpunk)探索“组合提示 + 检索增强”策略,降低对训练词频的敏感。
  • 2. 显式 VLM 奖励重训练

    • 用带控制词标注的偏好数据微调专用 VLM,使奖励模型本身对“realistic/artistic”等方向在潜空间具备线性可分性,从而提升 SRPO 差分信号的信噪比。
    • 引入多模态大模型(LLaVA-Next、Florence-2)作为骨干,验证是否可彻底摆脱 CLIP 偏差。
  • 3. 时间步依赖的控制强度

    • 目前 λ(t) 仅指数衰减,可让控制权重随频率自适应:早期强化低频结构(构图、姿态),后期强化高频细节(纹理、光影)。
    • 引入可学习的 timestep-wise scaling α(t),用元学习或超网络预测最优强度。
  • 4. 多属性组合与冲突解决

    • 同时给出“bright + cyberpunk + oil-painting”等多控制词时,相对差分可能出现梯度矛盾。可探索
      – 多目标 RL(Pareto 前沿)
      – 动态权重(基于用户实时反馈或 prompt 理解模型)。
  • 5. 扩散-蒸馏一体化

    • Direct-Align 的单步还原本质提供了“教师-学生”对齐信号,可进一步把 SRPO 目标蒸馏到 1–4 步的小模型,实现移动端实时生成。
  • 6. 视频与 3D 生成扩展

    • 将“单步还原 + 相对奖励”思路迁移到视频扩散(Stable Video Diffusion)或 3D 原生扩散(Diffusion-SDF),解决帧间一致性 hacking 问题。
    • 时间维度上引入“正负镜头描述”构造相对奖励,抑制闪烁、伪影。
  • 7. 可解释性工具

    • 奖励差分 ΔC=C⁺−C⁻ 在潜空间的指向可视化,验证其是否与人眼感知的主成分(亮度、饱和度、纹理熵)对齐。
    • 提供“干预-反事实”界面,让用户拖动潜在向量并实时观察生成变化,增强可控信任度。
  • 8. 安全与偏见

    • 检查控制词是否会放大性别、种族等社会偏见(如“professional” vs “ethnic”)。
    • 引入公平性约束,对差分奖励施加正交投影,确保优化方向与敏感属性无关。
  • 9. 离线-在线混合训练

    • 目前离线实验仅用 5 k 照片,可扩大至百万级真实图,并采用 replay-buffer 机制混合在线 rollout,兼顾数据效率与分布外鲁棒性。
  • 10. 开源基准与协议

    • 建立“SRPO-Bench”:统一提示集、控制标签、 hacking 标注,方便后续方法公平比较。
    • 提供训练日志与奖励曲线开放接口,推动社区复现与改进。

这些方向既涵盖方法层面的细粒度控制、多模态奖励设计,也涉及系统效率、公平性与可解释性,可充分挖掘“全轨迹可微 + 文本相对偏好”框架的潜力。

Q: 总结一下论文的主要内容

论文题目:Directly Aligning the Full Diffusion Trajectory with Fine-Grained Human Preference
核心任务:在不增加训练成本的前提下,把大规模文本到图像扩散模型与“真实感、风格、光照”等细粒度人类偏好对齐,同时避免 reward hacking。

一、主要挑战

  1. 计算瓶颈——现有在线 RL 只能反向传播末几步,梯度贵、易爆炸。
  2. 奖励瓶颈——奖励模型固定,离线微调成本高,无法在线适应新风格或光照需求。

二、方法总览

模块

关键思想

一句话总结

Direct-Align

利用扩散前向闭式解,单步把任意噪声图还原成干净图再送奖励模型

让梯度“一步”穿透全轨迹,内存与步数无关

SRPO

把奖励写成“正负提示词”的相对差分,在线抑制公共偏差

无需重训奖励,即可动态调整真实感、风格、亮度等

三、实验亮点

  • 训练效率:32 H20 GPU × 10 min = 5.3 GPUh,比 DanceGRPO 快 75×。
  • 人类评测(500 提示 × 5 人):
    – 真实感“优秀率” 8.2 % → 38.9 %(+3.7×)
    – 美感“优秀率” 5.3 % → 29.4 %(+3.1×)
  • 自动指标:HPDv2 3200 提示上 Aesthetic、PickScore、ImageReward、HPS 四项全 SOTA,无 hacking。
  • 跨奖励稳健性:CLIP、Pick、HPS、Aesthetic 2.5 均有效;低频风格可用组合词增强。
  • 消融验证:早期 timestep + late-discount + 反演正则缺一不可,去掉任一项 hacking 率立即飙升。

四、贡献清单

  1. 首次实现扩散模型全轨迹可微优化,打破“末几步”限制。
  2. 提出文本相对偏好,在线抑制奖励偏差,无需额外数据或离线调奖励。
  3. 在 FLUX.1-dev 上取得真实感与美感双突破,训练时间从小时级压缩到分钟级。
  4. 提供即插即用的控制接口,亮度、风格、光照一句提示即可动态调节。

五、可继续探索

  • 可学习控制 token、时间步自适应权重、多属性 Pareto 优化、视频/3D 扩展、公平性与可解释工具等。

Q: 想要进一步了解论文

以上只是了解一篇论文的几个基本FAQ。如果你还想与Kimi进一步讨论该论文,请点击 这里 为你跳转Kimi AI网页版,并启动一个与该论文相关的新会话。

Authors: Xiangwei Shen,Zhimin Li,Zhantao Yang,Shiyi Zhang,Yingfang Zhang,Donghao Li,Chunyu Wang,Qinglin Lu,Yansong Tang

Categories: cs.AI,cs.LG

PDF URL: https://arxiv.org/pdf/2509.06942.pdf

Arxiv URL: https://arxiv.org/abs/2509.06942

Arxiv ID: 2509.06942

CoolPaper URL: https://papers.cool/arxiv/2509.06942

Published: 2025-09-08T17:54:08Z

Updated: 2025-09-08T17:54:08.000Z


14. Q-Sched: Pushing the Boundaries of Few-Step Diffusion Models with Quantization-Aware Scheduling

Text-to-image diffusion models are computationally intensive, often requiring dozens of forward passes through large transformer backbones. For instance, Stable Diffusion XL generates high-quality images with 50 evaluations of a 2.6B-parameter model, an expensive process even for a single batch. Few-step diffusion models reduce this cost to 2-8 denoising steps but still depend on large, uncompressed U-Net or diffusion transformer backbones, which are often too costly for full-precision inference without datacenter GPUs. These requirements also limit existing post-training quantization methods that rely on full-precision calibration. We introduce Q-Sched, a new paradigm for post-training quantization that modifies the diffusion model scheduler rather than model weights. By adjusting the few-step sampling trajectory, Q-Sched achieves full-precision accuracy with a 4x reduction in model size. To learn quantization-aware pre-conditioning coefficients, we propose the JAQ loss, which combines text-image compatibility with an image quality metric for fine-grained optimization. JAQ is reference-free and requires only a handful of calibration prompts, avoiding full-precision inference during calibration. Q-Sched delivers substantial gains: a 15.5% FID improvement over the FP16 4-step Latent Consistency Model and a 16.6% improvement over the FP16 8-step Phased Consistency Model, showing that quantization and few-step distillation are complementary for high-fidelity generation. A large-scale user study with more than 80,000 annotations further confirms Q-Sched’s effectiveness on both FLUX.1[schnell] and SDXL-Turbo.

中文摘要

文本到图像扩散模型计算密集,通常需要通过大型转换器骨干网络进行数十次前向传递。例如,Stable Diffusion XL 在对一个 26 亿参数模型进行 50 次评估时生成高质量图像,即使对于单个批次而言,这一过程也非常昂贵。少步扩散模型将这一成本降低到 2-8 次去噪步,但仍然依赖于大型、未压缩的 U-Net 或扩散转换器骨干网络,这通常令其在没有数据中心 GPU 的情况下无法进行全精度推理。这些要求也限制了现有的后训练量化方法,这些方法依赖于全精度标定。我们引入了 Q-Sched,这是一种新的后训练量化范式,修改扩散模型调度程序而不是模型权重。通过调整少步采样轨迹,Q-Sched 在模型尺寸减少 4 倍的情况下实现了全精度精度。为了学习量化感知预处理系数,我们提出了 JAQ 损失,它结合了文本-图像兼容性与图像质量指标,以便进行细粒度优化。JAQ 是无参考的,只需少量标定提示,避免了在标定期间进行全精度推理。Q-Sched 提供了可观的成果:在 FP16 4 步潜在一致性模型上提高了 15.5% 的 FID,相比于 FP16 8 步相位一致性模型提高了 16.6%,显示出量化和少步蒸馏对于高保真生成是互补的。超过 80,000 个标注的大规模用户研究进一步证实了 Q-Sched 在 FLUX.1[schnell] 和 SDXL-Turbo 上的有效性。

LLM Analysis

Q: 这篇论文试图解决什么问题?

核心问题:
在保持高保真生成质量的前提下,如何进一步压缩已经“蒸馏”到 2–8 步的少步扩散模型,使其能在消费级 GPU 上运行,而无需依赖数据中心级硬件。

具体挑战:

  • 少步扩散模型虽然把推理步数从几十步降到 2–8 步,但仍保留 FP16 精度的 U-Net / DiT 主干,模型大小未缩减。
  • 传统后训练量化(PTQ)方法需要大量全精度校准数据,且假设每一步的误差呈高斯分布;在少步、非高斯、非线性的采样轨迹上失效,导致严重失真(FID 大幅上升)。
  • 直接对权重做低比特量化会放大蒸馏过程已引入的伪影,进一步降低视觉质量。

论文目标:
提出一种“量化感知调度器” Q-Sched,通过仅修改噪声调度(两个可学习的标量预调节系数 cx、cϵ),在无需全精度校准、无需访问原始权重的情况下,使 4-bit 或 8-bit 量化的少步扩散模型达到甚至超越 FP16 版本的图像质量,实现模型大小 4× 缩减与推理成本的双重下降。

Q: 有哪些相关研究?

与 Q-Sched 密切相关的研究可分为四类:少步扩散模型、扩散模型量化、噪声调度/采样器改进、无参考图像质量评估。以下列出代表性工作并说明其与本文的关联。

1. 少步扩散模型(Few-Step Diffusion)

  • Consistency Models (CM) [43]
    提出一致性函数 $F(x_t,t)=x_0$,将任意中间状态映射到最终图像,实现 1–4 步采样。Q-Sched 直接在其 LCM/PCM 变体上实验。
  • Latent Consistency Models (LCM) [29]
    在潜空间实现 CM,采用 EDM 式预调节;Q-Sched 保留该预调节框架,仅对调度器做量化感知修正。
  • Phased Consistency Models (PCM) [45]
    引入改进 CFG 求解器与 TCD 调度器;Q-Sched 以 TCD 为默认基线。
  • Instaflow [28]、ADD [38]、DMD [52]
    分别通过 Rectified Flow、对抗蒸馏、分布匹配实现 1–4 步生成;Q-Sched 可与这些策略叠加使用。

2. 扩散模型量化(Quantization for Diffusion)

  • PTQ4DM [39]、Q-Diffusion [25]、ADP-DM [44]
    传统后训练量化,需逐 timestep 校准激活,未针对少步场景。
  • PTQD [13]
    目前唯一针对少步扩散的量化感知调度器,用线性-高斯假设修正分布偏移;Q-Sched 将其作为对比基线,并指出其假设在少步非高斯条件下失效。
  • SVDQuant [23]、MixDQ [53]
    混合精度或低秩补偿方案,在 SDXL-Turbo/FLUX.1 上测试;Q-Sched 在相同 backbone 上取得更高 ELO 分数。

3. 噪声调度与采样器改进

  • DDIM [41]、EDM [20]
    给出经典 ODE/SDE 形式与预调节公式;Q-Sched 沿用其数学框架,但引入可学习系数 $c_x, c_\epsilon$。
  • Trajectory Consistency Distillation (TCD) [54]
    提出 Strategic Stochastic Sampling (SSS);Q-Sched 将其作为默认采样器并给出量化适配推导。

4. 无参考图像质量评估(Reference-Free Metrics)

  • CLIPScore [14]
    评估文本-图像对齐;Q-Sched 发现单独优化 CLIPScore 会牺牲纹理细节。
  • CLIP-IQA [47]、Brisque [32]
    纯图像质量指标;Q-Sched 组合两者提出 JAQ loss,兼顾对齐与感知质量。
  • HPSv2 [49]、AQ-MAP [21]
    基于人类偏好的指标;Q-Sched 在 SDXL-Turbo/FLUX.1 实验中使用其作为 JAQ 的 TC(x) 与 IQ(x) 实现。

综上,Q-Sched 在方法层面将“少步扩散”与“量化压缩”两条研究路线首次显式结合,并通过新的无参考损失函数与可学习调度器解决二者叠加后的失真问题。

Q: 论文如何解决这个问题?

Q-Sched 将“量化”与“少步扩散”解耦为两个正交压缩维度,通过 仅修改噪声调度器 而非权重或网络结构,来抵消低比特量化带来的轨迹偏移与伪影。具体实现分为三步:

1. 量化感知采样公式(Quantization-Aware Sampling Formula)

沿用 TCD 的 Strategic Stochastic Sampling(SSS):

  • 引入 两个标量系数 $c_x, c_\epsilon$(实际只调 $c_\epsilon$,$c_x$ 设为 1 即可)
  • 系数作用于 量化网络输出 $E_\theta^Q$,相当于对整条采样轨迹做线性重标定
  • 不改动权重,也不引入额外网络,保持 后训练、零参数开销

2. 无参考优化目标:JAQ Loss

设计 Joint Alignment-Quality (JAQ) 损失:

  • TC:文本-图像对齐
  • IQ:纯感知质量
  • $k=2$ 手工调参,兼顾细节与语义
  • 无需全精度图像,只需 5–20 条提示词即可做网格搜索

3. 轻量级网格搜索(Grid Search)

  • 在 $c_\epsilon \in [0.5, 2.0]$ 范围内以 0.01 步长枚举
  • 对每条校准提示生成一张图,计算 $\mathcal{L}_{\text{JAQ}}$,取最小值
  • 整个搜索在单张 A6000 上约 20 分钟完成,与模型规模无关

效果总结

场景

FP16 基线

4W8A + Q-Sched

提升

4-step LCM

31.94 FID

26.98 FID

-15.5 %

2-step PCM

18.65 FID

18.89 FID

-1.2 %(几乎无损)

SDXL-Turbo

25.48 FID

21.41 FID

-16 %

  • 模型大小 4× 缩减(FP16 → 4W8A)
  • 用户偏好研究(80k+ 标注)显示 Q-Sched 在 ELO 评分上优于 MixDQ、SVDQuant 等同期方法
  • 证明 量化与少步蒸馏互补,而非互斥

Q: 论文做了哪些实验?

实验围绕两条主线展开:

  1. 量化后的少步扩散模型能否在客观指标与主观偏好上超越全精度基线
  2. Q-Sched 与现有量化/调度方法相比是否更优
    共涉及 4 个主干网络、3 类少步采样器、2 种量化位宽、3 个公开数据集,以及 80 000+ 人工标注。

1. 实验设置概览

维度

配置

主干

SD v1-5 UNet、SDXL UNet、SDXL-Turbo、FLUX.1[schnell] DiT

采样器

LCM、PCM(TCD)、SDXL-Turbo、FLUX.1[schnell]

步数

2 / 4 / 8

量化位宽

W4A8、W8A8(仅量化 UNet/DiT)

校准集

5–20 条提示词(对比 PTQD 的 1 024 张图)

评估数据

COCO-30k、MJHQ-30k、SVDQuant-subset

指标

FID↓、FID-SD↓、CLIPScore↑、ELO↑、用户偏好

2. 主要结果

2.1 少步 Consistency 模型(SD v1-5 主干)

步数

精度

调度器

FID↓

CLIPScore↑

相对 FP16 提升

2

FP16

Original

24.17

25.489

2

W4A8

Q-Sched

22.24

25.543

-8.0 % FID

4

FP16

Original

23.29

25.482

4

W4A8

Q-Sched

17.39

25.715

-25.3 % FID

8

FP16

Original

20.15

25.714

8

W4A8

Q-Sched

16.83

25.698

-16.5 % FID

  • 在所有步数下,Q-Sched 均优于 FP16 基线,且仅用 5 条校准提示。
  • 与同期 PTQD 相比,4/6 个配置取得更低 FID,且校准数据减少 200×。

2.2 大模型验证(SDXL & FLUX)

模型

精度

方法

FID↓

用户偏好

SDXL-Turbo 4-step

FP16

25.48

SDXL-Turbo 4-step

W4A8

Q-Sched

21.41

56 % vs MixDQ

FLUX.1[schnell] 4-step

W4A8

Q-Sched

ELO +31

优于 SVDQuant

  • 在 SDXL-Turbo 上,W4A8 的 Q-Sched 比 MixDQ 低 4.0 FID,且用户倾向选择 Q-Sched。
  • 在 FLUX.1[schnell] 上,Q-Sched 取得 ELO 排行榜第一,模型大小 4× 缩减。

2.3 用户偏好研究(80 000+ 标注)

  • 1-vs-1 比较,每张图 4 位独立标注者
  • 计算 ELO 分数:Q-Sched 在 SDXL-Turbo 与 FLUX.1 均排名第一
  • 与 MixDQ、SVDQuant 同量级模型相比,胜率 > 55 %

3. 消融实验

变量

设置

结果

预调节系数

仅调 $c_\epsilon$ / 仅调 $c_x$ / 联合

联合最优(PickScore↑, HPSv2↑, JAQ↓)

JAQ 超参 k

0.5–5

k=2 平衡颜色与概念对齐

随机性 η

0–0.9

Q-Sched 在所有 η 下均优于 PTQD

损失函数

CLIPScore / CLIP-IQA-Q / Brisque / JAQ

JAQ 组合损失取得最佳视觉质量

4. 现象与结论

  • 量化+少步并非简单叠加:直接量化导致严重伪影,Q-Sched 通过调度修正反而 FID 低于 FP16
  • 极低比特:W4A4 失败,W4A5/W4A6 可与 FP16 匹敌。
  • 通用性:同一套 $c_\epsilon$ 搜索策略可无缝迁移到 UNet 与 DiT 两类主干。

Q: 有什么可以进一步探索的点?

以下方向可视为 Q-Sched 的自然延伸或尚未充分验证的开放问题,按研究难度与潜在影响由高到低排序:

1. 调度器参数化升级

  • 高维/非线性预调节
    当前仅用两个标量 $c_x, c_\epsilon$;可探索
    – 逐 timestep 的向量 $c_x(t), c_\epsilon(t)$
    – 轻量级超网络(MLP)预测系数,以 prompt 或 timestep embedding 为条件
    – 保持后训练、零梯度的前提下,用 K-Means 或 SVD 压缩超网络权重。

  • 动态位宽调度
    在极低比特(W3A6、W2A4)场景,不同 timestep 对量化敏感度不同;可让调度器实时决定当前步使用何种位宽,实现“时间感知混合精度”。

2. 与结构压缩正交叠加

  • Q-Sched + 剪枝 / 稀疏化
    验证调度器能否抵消非结构化或 N:M 稀疏带来的额外噪声;目标是实现“步数-位宽-稀疏度”三维帕累托前沿。

  • Q-Sched + LoRA / Adapter 量化
    当主干保持 FP16、仅量化 LoRA 时,调度器是否仍有效?可探索 LoRA rank 与 $c_\epsilon$ 的联合搜索。

3. 任务与模态扩展

  • 视频 / 3D 生成
    将 Q-Sched 迁移到 CogVideoX、AnimateDiff、Zero123++ 等时序或几何扩散模型;需重新设计 JAQ 的视频质量指标(如 FVD + CLIP 时序一致性)。

  • 文本到音频 / 语音
    音频扩散模型(AudioLDM, Grad-TTS)同样受步数与量化双重约束;验证 JAQ 的音频版本(CLAPScore + MOSNet)是否可行。

4. 理论分析

  • 误差传播闭式界
    在附录 H 的线性误差递推基础上,引入非线性项或 Lipschitz 假设,给出更紧的 FID 上界。
  • 最优系数存在性证明
    将网格搜索替换为凸优化或强化学习,证明全局最优系数的存在与收敛速率。

5. 校准效率极限

  • 零样本 / 自适应校准
    完全取消人工提示:
    – 用扩散模型自身生成“困难提示”作为校准集(Self-Augmented Prompt)
    – 在线学习:根据用户反馈实时微调 $c_\epsilon$(bandit-style update)。

  • 跨模型迁移
    训练一次系数后,通过线性映射或元学习迁移到不同分辨率或不同架构(SD v1-5 → SDXL → SD3)。

6. 系统级优化

  • 端到端管线量化
    当前仅量化 UNet/DiT;进一步量化 VAE 解码器与文本编码器(W4A4 VAE 已可行),并研究调度器能否补偿 VAE 误差。
  • 移动端部署
    在 Qualcomm Hexagon / Apple Neural Engine 上实现 INT4 推理,测量调度器带来的额外延迟(< 0.1 ms 可忽略)。

7. 安全与鲁棒性

  • 对抗鲁棒性
    研究量化+调度器是否降低对对抗提示(prompt hijacking)的鲁棒性;可引入对抗 JAQ 损失进行联合优化。
  • 公平性与偏见
    大规模用户偏好数据可能包含地域/文化偏差;分析 Q-Sched 是否放大特定群体的视觉偏好,并设计公平正则项。

8. 开源与基准

  • Q-Sched Benchmark Suite
    建立统一测试协议(提示集、随机种子、评估脚本),支持后续方法公平比较;同时开源校准提示与预计算系数表,降低社区门槛。

简言之,Q-Sched 把“调度器”变成了新的压缩维度,未来可在 参数化深度、任务广度、理论深度、系统部署 四个方向持续挖掘。

Q: 总结一下论文的主要内容

一句话总结
Q-Sched 提出“量化感知噪声调度”这一新范式,仅通过两个可学习的标量系数修改少步扩散采样轨迹,即可在 4-bit 量化下获得优于 FP16 原版的图像质量,实现模型大小 4× 缩减而无需任何权重更新或全精度校准。

核心内容速览

维度

关键信息

问题

少步扩散模型虽快但仍大;传统后训练量化在 2–8 步场景失效,FID 激增。

思路

不改权重,改调度器——用轻量级系数 $c_x, c_\epsilon$ 重新加权采样公式。

方法

1. 在 TCD/PCM/LCM 采样公式中插入 $c_x, c_\epsilon$;
2. 提出无参考 JAQ Loss(CLIPScore + CLIP-IQA 线性组合);
3. 用 5–20 条提示做网格搜索,20 分钟完成。

结果

4-step LCM:FID ↓15.5 %;2-step PCM:FID 几乎无损;SDXL-Turbo & FLUX.1 用户偏好第一;80k+ 人工标注验证。

贡献

① 首个量化感知少步调度器;② 证明量化与少步蒸馏互补;③ 无参考、零梯度、后训练,即插即用。

一句话 takeaway

把“压缩”从权重移到调度器,Q-Sched 让 4-bit 少步扩散模型比 16-bit 原模型更清晰、更小、更快。

Q: 想要进一步了解论文

以上只是了解一篇论文的几个基本FAQ。如果你还想与Kimi进一步讨论该论文,请点击 这里 为你跳转Kimi AI网页版,并启动一个与该论文相关的新会话。

Authors: Natalia Frumkin,Diana Marculescu

Categories: cs.CV,cs.AI

PDF URL: https://arxiv.org/pdf/2509.01624.pdf

Arxiv URL: https://arxiv.org/abs/2509.01624

Arxiv ID: 2509.01624

CoolPaper URL: https://papers.cool/arxiv/2509.01624

Published: 2025-09-01T17:09:22Z

Updated: 2025-09-01T17:09:22.000Z


15. ΔL Normalization: Rethink Loss Aggregation in RLVR

We propose $\Delta L$ Normalization, a simple yet effective loss aggregation method tailored to the characteristic of dynamic generation lengths in Reinforcement Learning with Verifiable Rewards (RLVR). Recently, RLVR has demonstrated strong potential in improving the reasoning capabilities of large language models (LLMs), but a major challenge lies in the large variability of response lengths during training, which leads to high gradient variance and unstable optimization. Although previous methods such as GRPO, DAPO, and Dr. GRPO introduce different loss normalization terms to address this issue, they either produce biased estimates or still suffer from high gradient variance. By analyzing the effect of varying lengths on policy loss both theoretically and empirically, we reformulate the problem as finding a minimum-variance unbiased estimator. Our proposed $\Delta L$ Normalization not only provides an unbiased estimate of the true policy loss but also minimizes gradient variance in theory. Extensive experiments show that it consistently achieves superior results across different model sizes, maximum lengths, and tasks. Our code will be made public at https://github.com/zerolllin/Delta-L-Normalization.

中文摘要

我们提出了$\Delta L$归一化,这是一种简单而有效的损失聚合方法,针对具有可验证奖励的强化学习(RLVR)中的动态生成长度特征量身定制。最近,RLVR在提高大型语言模型(LLM)的推理能力方面表现出了强大的潜力,但一个主要挑战在于训练过程中响应长度的较大变异性,这导致梯度方差大和优化不稳定。尽管以前的方法(如 GRPO、DAPO 和 Dr. GRPO)引入了不同的损失归一化项来解决这个问题,但它们要么产生有偏差的估计值,要么仍然存在高梯度方差。通过从理论和实证上分析不同长度对保单损失的影响,我们将问题重新表述为找到最小方差无偏估计量。我们提出的$\Delta L$归一化不仅提供了对真实保单损失的无偏估计,而且在理论上还最大限度地减少了梯度方差。大量实验表明,它在不同的模型大小、最大长度和任务中始终如一地取得优异的结果。我们的代码将于 https://github.com/zerolllin/Delta-L-Normalization 年公开。

LLM Analysis

Q: 这篇论文试图解决什么问题?

论文针对“可验证奖励强化学习”(RLVR)在训练大语言模型推理能力时出现的响应长度剧烈变化现象,提出并解决以下核心问题:

  • 高梯度方差:轨迹长度从几十到上千 token 不等,且随训练不断拉长,导致梯度估计方差线性增长,优化不稳定甚至崩溃。
  • 有偏梯度估计:现有长度归一化策略(GRPO、DAPO)在抑制方差的同时引入长度相关偏差,使得更新幅度随训练进程衰减,收敛变慢。
  • 理论缺失:缺乏对各类长度归一化方法统计性质(偏差–方差权衡、变异系数)的系统分析,无法指导设计最优聚合策略。

为此,论文将“如何在动态长度下获得无偏且方差最小的策略梯度估计”形式化为最小方差无偏估计问题,提出 ΔL Normalization,实现:

  1. 无偏性:保证与标准策略梯度理论一致;
  2. 最小方差:在任意响应长度分布下理论最小化梯度方差;
  3. 低变异系数:比 DAPO/Dr. GRPO 更稳定,与 GRPO 相当但无偏差;
  4. 即插即用:≤10 行代码改动,无需改动奖励或网络结构。

实验在 3B/7B 模型、CountDown 与 Math 任务、最大长度 3072–8192 的设置上验证:ΔL Normalization 训练更稳定,收敛速度更快,最终精度显著优于现有长度归一化基线。

Q: 有哪些相关研究?

论文在第 5 节“Related Works”中系统梳理了三条研究脉络,并指出它们与 ΔL Normalization 的异同。可归纳为以下表格:

研究类别

代表工作

核心思想

与 ΔL Normalization 的关系

RLVR 损失聚合策略

GRPO (Shao et al., 2024)

样本级长度归一化:梯度除以自身长度

引入长度相关偏差,更新幅度随训练衰减

DAPO (Yu et al., 2025)

批次级长度归一化:总梯度除以批次长度和

同样存在偏差,且变异系数高

Dr. GRPO (Liu et al., 2025)

去掉长度因子,用固定常数归一化

无偏但方差大,变异系数高

经典策略梯度方差约简

REINFORCE (Williams, 1992)

基线减益

仅针对奖励方差,未考虑轨迹长度差异

Actor–Critic (Sutton et al., 1998)

学习价值函数基线

同上,未处理长度变异带来的额外方差

GAE (Schulman et al., 2015)

多步 TD 与 MC 插值

同上,未针对长度动态变化

长度相关奖励设计

Kimi k1.5 (Team et al., 2025)

短正确奖励、长错误惩罚

直接修改奖励函数,与 ΔL 的损失聚合正交

GRPO-LEAD (Zhang & Zuo, 2025)

仅对正确解答施加指数长度惩罚

同上,奖励侧干预,可与 ΔL 同时应用

ShortRL (Yuan et al., 2025)

中性长度区间保留多样性

同上,奖励侧方法,与 ΔL 互补

综上,ΔL Normalization 是首个在损失聚合层面同时解决“无偏性”与“最小方差”的工作,与上述三类方法均正交,可直接叠加使用。

Q: 论文如何解决这个问题?

  • Step 1:问题重述
    将 RLVR 中不同长度轨迹的梯度聚合视为“带异方差的独立观测”估计问题:

    • 每个样本梯度 $g_i$ 满足 $𝔼[g_i]=∇_θJ(θ)$,但方差 $Var(g_i)=V·L_i$ 随长度线性增长。
    • 目标:构造线性组合 $ĝ =∑_i x_i g_i$,使其无偏且方差最小。
  • Step 2:解析最优权重
    在约束 $∑_i x_i =1/M$ 下最小化 $Var(ĝ)=V∑_i L_i x_i^2$,用拉格朗日乘子法得闭式解

    实际引入可调幂次 $α∈[0,1]$,得到统一权重

    命名为 ΔL Normalization

  • Step 3:理论性质验证

    • 无偏性:$∑_i x_i ≡1/M ⇒ 𝔼[ĝ]=∇_θJ(θ)/M$。
    • 最小方差:$α=1$ 时方差达理论下界 $V/(M^2∑_i L_i^{-1})$。
    • 变异系数:$CV_{ΔL}(α=1)=CV_{GRPO}<CV_{DAPO}=CV_{Dr.GRPO}$,训练更稳定。
  • Step 4:工程实现
    仅需在原有损失回传前插入一行代码:

    loss = loss * (L_i**-alpha) / (sum(L**-alpha for L in batch))
    
无需修改奖励、网络或采样逻辑。
  • Step 5:实验验证
    在 Qwen2.5-3B/7B、CountDown 与 Math 任务、最大长度 3072–8192 的 6 组设置上,ΔL Normalization(α=1 或 0.75)一致取得

    • 更高最终精度(Avg@8 绝对提升 2–6%);
    • 更平稳的训练曲线(单调性得分 >0.94);
    • 更低熵波动与更健康的长度增长。

Q: 论文做了哪些实验?

实验围绕“不同模型规模 × 任务 × 最大长度”展开,共 6 组主设置,辅以消融与对比,系统验证 ΔL Normalization 的稳定性与精度优势。

维度

具体配置

关键指标

主要发现

主实验

Qwen2.5-3B / 7B
CountDown(3072)
Math(3072)

Avg@8、Pass@8、
加权 Avg@8

ΔL 在所有 6 组取得最高平均精度,训练曲线最平滑;
单调性得分 ≥0.94,显著优于 GRPO/DAPO/Dr.GRPO。

长上下文鲁棒性

3B 模型最大长度 8192

同上

8192 场景下 ΔL 仍领先,验证对极长响应的稳定性。

与完整 DAPO 对比

3B+CountDown,
分别开启 DAPO 的 Overlong-filter / Soft-punishment / 动态采样

Avg@8、熵、长度

仅用 ΔL 替换 DAPO 的聚合方式即获 0.847→0.913 提升;
Overlong-filter 与 Soft-punishment 无额外收益。

超参数 α 扫描

α∈{0.5,0.75,1.0}
3B/7B × 双任务

平均 Avg@8

所有 α 均超越基线;
CountDown 最优 α=1,Math 最优 α=0.75,与理论一致。

统计量监控

训练全程记录

梯度方差、CV、熵、响应长度

ΔL 的 CV 始终低于 DAPO/Dr.GRPO,熵保持在 0.1–0.2 区间,无突发尖峰。

综上,实验覆盖模型规模、任务类型、最大长度、超参数与竞品模块,结果一致表明 ΔL Normalization 在稳定性最终精度两方面均显著优于现有长度归一化策略。

Q: 有什么可以进一步探索的点?

以下方向可在此基础上继续深入,分为“理论-算法-系统-应用”四个层面:

理论层面

  1. 非线性聚合
    当前仅研究线性加权;探索非线性(如 softmax-加权、meta-learned 网络)能否在更长上下文或连续控制任务中进一步降低方差。
  2. 长度-方差模型松弛
    假设 $Var(g_i)∝L_i$ 在极长序列下可能偏离;可用广义线性模型 $Var(g_i)≈V L_i^β$ 估计 $β$ 并推导对应最优权重。
  3. 与优势估计耦合
    组内 baseline 引入样本间相关性,理论上破坏独立性假设;量化该相关性并修正权重,可让方差界更紧。

算法层面

  1. 自适应 α
    固定 $α$ 需网格搜索;可令 $α$ 随训练步数或长度分布动态调整,如用强化学习控制器在验证集奖励上优化 $α_t$。
  2. 分层 ΔL
    对“思考-作答”两段式输出(如 o1 风格),分别在 reasoning 链与最终答案层使用不同 $α$,兼顾探索与简洁。
  3. 与长度惩罚正交组合
    将 ΔL 聚合与 Kimi-k1.5、GRPO-LEAD 等“长度奖励塑形”联合,验证是否叠加收益。

系统层面

  1. 多模态长序列
    拓展到图像-文本交错输入(多图推理、视频字幕),此时“长度”可定义为 token 数或图像块数,需重新标定 $Var∝Length$ 关系。
  2. 分布式大 batch
    当全局 batch 扩大到 10k+ 样本,长度分布尾更重;研究局部归一化与全局归一化的通信-精度权衡。
  3. 低精度训练
    在 FP16/BF16 下,极小权重 $L_i^{-α}$ 可能下溢;设计数值稳定实现(log-space softmax)并评估收敛鲁棒性。

应用层面

  1. 代码生成与长程序
    代码任务中“正确性”可通过单元测试验证,符合 RLVR 设定;验证 ΔL 能否缓解“代码越长、梯度越飘”现象。
  2. Agent 长轨迹
    工具调用链、多轮 API 序列长度差异巨大;将 ΔL 嵌入 Agent 的 PPO 更新,观察是否减少训练崩溃。
  3. 在线/人类反馈场景
    当奖励来自人类或偏好模型而非规则,长度偏差同样存在;测试 ΔL 是否对 RLHF 长对话有效。

一句话总结

从“更精确的方差模型”到“更复杂的模态与任务”,ΔL Normalization 提供了长度-方差权衡的新视角,尚待在多模态、自适应、在线反馈等场景中继续验证与扩展。

Q: 总结一下论文的主要内容

  • 问题:RLVR 训练中响应长度差异巨大 → 梯度方差线性增长、更新不稳定,现有长度归一化要么有偏要么方差高。
  • 视角:把不同长度的样本梯度视为异方差无偏估计,转化为“最小方差无偏线性聚合”问题。
  • 方法:ΔL Normalization
    权重 $x_i ∝ L_i^{-α}$,$α∈[0,1]$;$α=1$ 时理论方差最小且无偏。
  • 性质:无偏、最小方差、低变异系数,≤10 行代码即可植入。
  • 实验:Qwen2.5-3B/7B × CountDown/Math × 3072/8192 token,六组设置均取得更高精度与更平稳曲线;与完整 DAPO 正交叠加仍显著提升。
  • 结论:ΔL Normalization 在动态长度场景下同时解决“有偏”与“高方差”,为 RLVR 提供稳定且高效的损失聚合基线。

Q: 想要进一步了解论文

以上只是了解一篇论文的几个基本FAQ。如果你还想与Kimi进一步讨论该论文,请点击 这里 为你跳转Kimi AI网页版,并启动一个与该论文相关的新会话。

Authors: Zhiyuan He,Xufang Luo,Yike Zhang,Yuqing Yang,Lili Qiu

Categories: cs.LG,cs.AI

PDF URL: https://arxiv.org/pdf/2509.07558.pdf

Arxiv URL: https://arxiv.org/abs/2509.07558

Arxiv ID: 2509.07558

CoolPaper URL: https://papers.cool/arxiv/2509.07558

Published: 2025-09-09T09:52:34Z

Updated: 2025-09-09T09:52:34.000Z


16. Benchmarking Information Retrieval Models on Complex Retrieval Tasks

Large language models (LLMs) are incredible and versatile tools for text-based tasks that have enabled countless, previously unimaginable, applications. Retrieval models, in contrast, have not yet seen such capable general-purpose models emerge. To achieve this goal, retrieval models must be able to perform complex retrieval tasks, where queries contain multiple parts, constraints, or requirements in natural language. These tasks represent a natural progression from the simple, single-aspect queries that are used in the vast majority of existing, commonly used evaluation sets. Complex queries naturally arise as people expect search systems to handle more specific and often ambitious information requests, as is demonstrated by how people use LLM-based information systems. Despite the growing desire for retrieval models to expand their capabilities in complex retrieval tasks, there exist limited resources to assess the ability of retrieval models on a comprehensive set of diverse complex tasks. The few resources that do exist feature a limited scope and often lack realistic settings making it hard to know the true capabilities of retrieval models on complex real-world retrieval tasks. To address this shortcoming and spur innovation in next-generation retrieval models, we construct a diverse and realistic set of complex retrieval tasks and benchmark a representative set of state-of-the-art retrieval models. Additionally, we explore the impact of LLM-based query expansion and rewriting on retrieval quality. Our results show that even the best models struggle to produce high-quality retrieval results with the highest average nDCG@10 of only 0.346 and R@100 of only 0.587 across all tasks. Although LLM augmentation can help weaker models, the strongest model has decreased performance across all metrics with all rewriting techniques.

中文摘要

翻译失败: Unexpected end of JSON input

LLM Analysis

Q: 这篇论文试图解决什么问题?

这篇论文旨在解决现有检索模型在复杂检索任务上评估不足、性能不佳的问题。具体而言,论文指出:

  • 复杂查询(multi-aspect, multi-constraint, logically combined)在现实信息需求中日益常见,但主流检索评测(如BEIR、MS MARCO、TREC DL)仍以简单、单意图查询为主,导致模型在真实复杂场景下的能力被高估。
  • 已有复杂检索数据集要么领域狭窄(如仅数学或代码),要么规模小、缺乏统一格式,难以全面衡量模型的泛化能力。
  • 当前最强检索模型在这些复杂任务上表现显著下降(最佳平均 nDCG@10 仅 0.346),说明**“复杂”并非仅指难度高,而是查询结构本身的多部分、多约束特性**对模型提出了新要求。

因此,作者构建并发布了CRUMB(Complex Retrieval Unified Multi-task Benchmark),通过 8 个多样化、真实且经过标准化处理的复杂检索任务,系统评估并揭示了现有模型的短板,为下一代通用复杂检索模型的研发提供基准与方向。

Q: 有哪些相关研究?

  • BEIR
    Thakur et al., 2021 — 聚合 18 个零样本检索任务,但查询以单意图问答/关键词为主,复杂性与标签噪声受限。

  • MTEB / MMTEB
    Muennighoff et al., 2023;Enevoldsen et al., 2025 — 大规模文本嵌入评测,含检索、聚类、相似度等,任务多样但复杂查询占比低。

  • BRIGHT
    Su et al., 2025 — 专注“推理密集型”检索(StackExchange、数学、代码),查询多约束,但类型狭窄且文档规模小。

  • BIRCO
    Wang et al., 2024 — 5 个复杂目标的重排序集,候选池仅 100 篇,无法评估召回。

  • MAIR
    Sun et al., 2024 — 大规模指令跟随检索合集,含 BEIR 任务,文档格式未统一且缺开发集。

  • QUEST / SetOps
    Malaviya et al., 2023 — 实体检索含逻辑 and/or/not,被 CRUMB 直接采用并扩展。

  • DORIS-MAE
    Wang et al., 2023 — 多段落科学文献查询,CRUMB 将其改造为 Paper Retrieval 任务。

  • TREC TOT
    Arguello et al., 2023, 2025 — tip-of-the-tongue 已知项检索,CRUMB 引入并统一为 markdown。

  • TREC Clinical Trials
    Roberts et al., 2021, 2022 — 患者病史→试验匹配,CRUMB 沿用并做结构化 chunk。

  • Reasoning-Focused Legal QA
    Zheng et al., 2025 — 州法住房问题,CRUMB 选其 Housing 子集作为 Legal QA。

  • APPS → Code Retrieval
    Hendrycks et al., 2021 — 编程竞赛题解,CRUMB 首次将其转化为检索任务。

  • TheoremQA / BRIGHT-Theorem
    Chen et al., 2023;Su et al., 2025 — 数学定理检索,CRUMB 直接继承并拆分验证集。

  • 指令跟随检索
    Promptriever (Weller et al., 2024)、FollowIR (Weller et al., 2025) — 证明指令可提升复杂查询表现,CRUMB 将其作为核心基线。

  • 查询分解与多跳检索
    Malon & Bai, 2020;Lin et al., 2023 — 针对多跳或 TOT 查询提出分解-迭代检索,CRUMB 在实验部分对比了 LLM 重写策略。

  • 稀疏-密集混合架构
    SPLADE (Formal et al., 2021)、Lion SB/DS (Zeng et al., 2025) — 提供稀疏、密集对照基线,CRUMB 用于分析哪种更适合复杂任务。

这些工作共同构成了“复杂检索”方向的研究脉络,CRUMB 在此基础上首次提供统一格式、多领域、带开发集的综合性评测基准。

Q: 论文如何解决这个问题?

论文并未提出全新模型,而是通过构建统一基准 + 系统评测 + 诊断分析的三步走策略,把“复杂检索”从边缘案例变成可量化、可比较的研究主线,从而推动社区共同解决该问题。具体做法如下:

  1. 构建 CRUMB 基准

    • 精选 8 个现实复杂任务(TOT、SetOps、Clinical Trial、Legal QA、Paper、Theorem、Code、StackExchange),覆盖“多约束、多实体、数值条件、逻辑运算、专业术语”等复杂特征。
    • 统一成 markdown 文档格式,提供全文带层级标题的 chunk两种版本,并给出验证集,解决此前数据集格式杂乱、无调参数据的问题。
    • 所有任务均保留人工或高一致性 GPT-4 标注,确保标签质量。
  2. 大规模对照实验

    • 选取 9 类代表模型(BM25、Snowflake、GTE-Qwen 1.5/7B、Lion SB/DS 1B/8B、Promptriever)覆盖稀疏、密集、不同参数规模与训练数据。
    • 报告 nDCG@10、R@100、R@1000 三级指标,既看顶部精度也看召回上限。
    • 额外测试三种 LLM 查询改写策略(Query-to-Answer、Query-to-Doc、Query-as-Reasoning-Trace),量化“额外推理”能否弥补模型缺陷。
  3. 诊断分析与洞察

    • 性能定位:最佳模型平均 nDCG@10 仅 0.346,较 BEIR 下降 40%+,证明复杂任务确实是“系统性”难题。
    • 失败模式拆解
      – 低重叠任务(TOT、Code)→ 模型过度依赖表层匹配,缺乏“组合推理”。
      – 集合运算任务(SetOps)→ 现有嵌入无法表示“与或非”逻辑,稀疏模型反优于密集模型。
      – 多相关文档任务(Clinical、Code)→ 单向量模型难以覆盖分散的正例簇,导致召回天花板低。
    • 改进线索
      – 大容量+指令微调底座(GTE-Qwen 7B、Promptriever)显著领先,说明“大模型+指令跟随”是提升复杂检索的关键方向。
      – 查询改写对弱模型有效,对强模型反而引入噪声,提示“推理”应内嵌到检索表示而非仅做表层扩展。
      – 统一结构化 chunk 比全文平均更优,但大模型在长文档上可能因压缩过度而下降,需研究“自适应粒度”表示。

通过以上步骤,论文把“复杂检索”从零星案例升级为可复现、可度量、可诊断的标准任务集,为后续研究提供了明确的性能坐标与改进靶点。

Q: 论文做了哪些实验?

  • 主实验:CRUMB 8 任务基准评测

    • 模型:BM25、Snowflake、GTE-Qwen 1.5B/7B、Lion SB/DS(1B/8B)、Promptriever 共 9 个。
    • 版本:统一 markdown 的 passage(chunk)版为主,全文版为辅助。
    • 指标:nDCG@10、R@100、R@1000;chunk 版用 MaxP 聚合回文档级。
    • 结果:最佳平均 nDCG@10 仅 0.346,较 BEIR 下降 40%+,确立“复杂任务”性能坐标。
  • 查询改写实验

    • 用 Gemma-3-27B 生成三种 CoT 改写:Query-to-Answer、Query-to-Doc、Query-as-Reasoning-Trace。
    • 对 9 模型全部重跑 passage 版评测。
    • 结论:改写普遍提升弱模型(底部 4 个),但一致降低最强模型 GTE-Qwen-7B;Query-to-Answer 最利精度,Query-to-Doc 最利召回。
  • 全文 vs. chunk 对照实验

    • 对 5 个可切分任务(TOT、SetOps、Clinical、Legal、StackExchange)同时报告全文与 passage 结果。
    • 发现:chunk 版总体更高,但大模型在全文上反而下降,揭示“长序列压缩”瓶颈。
  • 指令敏感性实验

    • 将任务特定指令替换为通用指令“Given a query, find relevant documents”。
    • 仅测试 3 个指令型模型(Promptriever、GTE-Qwen 1.5/7B)。
    • 结果:GTE-Qwen-7B nDCG@10 平均下降 0.044,Promptriever 几乎不变,量化指令对复杂任务的重要性。
  • 稀疏-密集对比分析

    • 同架构、同训练数据的 Lion SB(稀疏)与 Lion DS(密集)1B vs. 8B 交叉对比。
    • 发现:稀疏版在 6/8 任务上优于或持平规模更大的密集版,仅在医学与论文检索两任务落后,说明“稀疏表示”对复杂查询更具鲁棒性。

以上四类实验共同构成对“复杂检索”问题的全景式诊断。

Q: 有什么可以进一步探索的点?

  • 多向量 / late-interaction 检索
    复杂查询常需同时满足多个独立约束,单向量难以覆盖全部正例簇。可探索 ColBERTv2、SPLADE++ 等 late-interaction 架构在 CRUMB 上的 zero-shot 表现,并与单向量模型对比。

  • 查询-文档联合推理
    现有模型仅在表示阶段“编码”,排序阶段无推理。可引入 Rank1/R1-Searcher 式的 test-time 推理链,让模型在打分前显式生成“为什么相关”的推理轨迹,观察对 SetOps、Theorem 等逻辑任务的提升。

  • 任务特定微调 vs. 通用大模型
    CRUMB 已提供验证集,可对同一底座(Qwen-7B、Llama-3-8B)分别做:
    ① 全任务混合微调,② 逐任务独立微调,③ 仅指令提示,系统比较“通用”与“专精”在复杂场景下的帕累托前沿。

  • 结构化语义解析
    SetOps 的 and/or/not 目前靠嵌入隐式学习。可尝试先解析为可执行逻辑表达式(SPARQL、SQL、神经符号程序),再在检索阶段做“逻辑-匹配”联合优化,验证显式语义结构能否突破当前 0.23 的 nDCG 天花板。

  • 自适应分块与证据聚合
    同一文档的多证据常被切分到不同 chunk,MaxP 仅取最高分。可研究:
    ① 基于查询的“动态窗口”切分,② 证据图聚合(chunk-graph + GNN),③ 检索-阅读一体化框架(FiD、RAG-sequence)在 CRUMB 上的召回-精度权衡。

  • 多语言与多模态扩展
    CRUMB 目前仅限英文文本。可将 Legal QA 扩展至跨州双语法规,Clinical Trial 加入影像报告,Code Retrieval 引入执行轨迹截图,构建多语言-多模态复杂检索赛道,观察复杂需求是否进一步放大模态鸿沟。

  • 迭代检索与多跳路径
    虽然 CRUMB 设计为单跳,但许多查询(如 TOT、StackExchange)可天然分解为子问题。可探索:
    ① 固定预算迭代检索(Search-R1、IRCOT),② 基于检索结果的子查询重写,③ 在 CRUMB 上报告多跳路径召回 vs. 单跳天花板,量化迭代策略的收益。

  • 人类-模型协同标注
    部分任务标签由 GPT-4 生成。可引入“人机 disagreement”重标注小样本,训练不确定性感知模型,研究当模型对复杂判断不确定时如何主动询问人类,以提升整体标注质量与效率。

  • 小模型复杂推理蒸馏
    大模型(Gemma-27B)改写查询反而损害强检索器,提示“大-大”组合可能过载。可反向蒸馏:让大生成器输出推理链,用小检索器学习“何时忽略”或“如何加权”,实现轻量级但具备复杂推理能力的检索系统。

  • 面向复杂检索的评测新指标
    nDCG 假设分级相关,但 CRUMB 中“部分满足”常呈非线性。可探索:
    ① 基于逻辑覆盖度的 F1-aspect,② 代价敏感指标(错检一个关键约束即零分),③ 用户模拟点击模型,推动更贴合真实复杂信息需求的评价标准。

Q: 总结一下论文的主要内容

Benchmarking Information Retrieval Models on Complex Retrieval Tasks
Killingback & Zamani, arXiv 2025

1. 问题

  • 真实用户常提出多约束、多实体、含逻辑运算的复杂查询,但主流评测(BEIR、MS MARCO、TREC DL)仍以单意图、关键词式查询为主,导致 SOTA 模型在复杂场景下的能力被高估。
  • 已有复杂数据集要么领域狭窄(仅数学/代码),要么规模小、无统一格式、缺开发集,难以系统评估与调参。

2. 解决方案:CRUMB 基准

维度

做法

任务多样性

8 个现实任务:TOT、SetOps、Clinical Trial、Legal QA、Paper、Theorem、Code、StackExchange,覆盖“逻辑运算、数值条件、专业术语、长查询”等复杂特征。

数据质量

统一 markdown 格式;提供全文+带标题 chunk双版本;人工或 GPT-4 高一致性标注;每任务含 10% 开发集。

规模

总计 1.8 M 文档,11 k 查询,最大单任务 900 k 文档,支持召回@1000 评测。

3. 实验设计

  • 模型矩阵:9 个代表模型(BM25 → 7B),覆盖稀疏/密集、不同参数与训练数据。
  • 评测指标:nDCG@10、R@100、R@1000;chunk 版用 MaxP 聚合。
  • 补充实验
    1. LLM 查询改写(3 种 CoT 策略);
    2. 全文 vs. chunk 对比;
    3. 任务特定指令 vs. 通用指令;
    4. 同架构稀疏/密集对照。

4. 主要结果

发现

数据

整体性能低

最佳平均 nDCG@10 = 0.346,较 BEIR 下降 40%+;R@100 仅 0.587。

模型梯队

GTE-Qwen-7B > Promptriever > GTE-Qwen-1.5B;大容量+指令微调是关键。

改写悖论

LLM 改写提升弱模型,但一致损害最强模型,提示“大-大”组合易引入噪声。

稀疏 vs. 密集

稀疏 Lion-SB 在 6/8 任务优于同规模密集 Lion-DS,仅在医学/论文任务落后。

chunk 优于全文

平均 nDCG 提升 10-20%,但大模型在长文档上因压缩过度反而下降。

5. 结论与启示

  • 复杂检索仍是“系统性”难题:单向量模型难以同时覆盖多约束与多正例簇。
  • 未来方向:多向量 late-interaction、联合推理链、显式逻辑解析、自适应 chunk、多跳迭代、新评价指标。
  • CRUMB 提供可复现、可度量、可诊断的统一基准,推动下一代通用复杂检索模型研发。

Q: 想要进一步了解论文

以上只是了解一篇论文的几个基本FAQ。如果你还想与Kimi进一步讨论该论文,请点击 这里 为你跳转Kimi AI网页版,并启动一个与该论文相关的新会话。

Authors: Julian Killingback,Hamed Zamani

Categories: cs.IR,cs.AI,cs.CL

PDF URL: https://arxiv.org/pdf/2509.07253.pdf

Arxiv URL: https://arxiv.org/abs/2509.07253

Arxiv ID: 2509.07253

CoolPaper URL: https://papers.cool/arxiv/2509.07253

Published: 2025-09-08T22:11:10Z

Updated: 2025-09-08T22:11:10.000Z


17. From Noise to Narrative: Tracing the Origins of Hallucinations in Transformers

As generative AI systems become competent and democratized in science, business, and government, deeper insight into their failure modes now poses an acute need. The occasional volatility in their behavior, such as the propensity of transformer models to hallucinate, impedes trust and adoption of emerging AI solutions in high-stakes areas. In the present work, we establish how and when hallucinations arise in pre-trained transformer models through concept representations captured by sparse autoencoders, under scenarios with experimentally controlled uncertainty in the input space. Our systematic experiments reveal that the number of semantic concepts used by the transformer model grows as the input information becomes increasingly unstructured. In the face of growing uncertainty in the input space, the transformer model becomes prone to activate coherent yet input-insensitive semantic features, leading to hallucinated output. At its extreme, for pure-noise inputs, we identify a wide variety of robustly triggered and meaningful concepts in the intermediate activations of pre-trained transformer models, whose functional integrity we confirm through targeted steering. We also show that hallucinations in the output of a transformer model can be reliably predicted from the concept patterns embedded in transformer layer activations. This collection of insights on transformer internal processing mechanics has immediate consequences for aligning AI models with human values, AI safety, opening the attack surface for potential adversarial attacks, and providing a basis for automatic quantification of a model’s hallucination risk.

中文摘要

随着生成性人工智能系统在科学、商业和政府中变得更加成熟和普遍,对其失败模式的深入洞察现在显得尤为迫切。这些系统行为的偶发波动,例如变换器模型产生幻觉的倾向,阻碍了在高风险领域对新兴人工智能解决方案的信任和采纳。在本研究中,我们通过稀疏自编码器捕获的概念表示,确定了预训练变换器模型在何时何种情况下会产生幻觉,实验场景中输入空间的不确定性被严格控制。我们的系统实验揭示,随着输入信息变得越来越无结构,变换器模型使用的语义概念数量会增加。面对输入空间的不确定性增加,变换器模型更容易激活一致但对输入不敏感的语义特征,从而导致幻觉输出。在极端情况下,对于纯噪声输入,我们在预训练变换器模型的中间激活中识别出了多种可靠触发和有意义的概念,并通过有针对性的引导确认其功能完整性。我们还表明,变换器模型输出中的幻觉可以根据嵌入在变换器层激活中的概念模式可靠预测。这一关于变换器内部处理机制的洞察集合,对将人工智能模型与人类价值观对齐、人工智能安全性、打开潜在对抗攻击的攻击面以及为模型幻觉风险的自动量化提供了基础,具有直接的影响。

LLM Analysis

Q: 这篇论文试图解决什么问题?

该研究旨在揭示并量化 Transformer 模型在输入不确定或语义缺失时产生幻觉(hallucination)的内在机制。核心待解问题可概括为:

  • 幻觉何时出现:模型面对噪声、打乱或语义空洞输入时,为何仍生成看似连贯却与输入不符的内容。
  • 幻觉如何产生:通过稀疏自编码器(SAE)追踪中间层激活,发现模型在输入结构退化时会主动扩张语义概念使用,激活与输入无关却高 interpretable 的特征。
  • 幻觉可否预判与抑制:证明仅依据输入提示的 SAE 概念激活模式即可线性预测输出幻觉分数,并通过定向抑制关键概念显著降低幻觉率。

综上,论文将“幻觉”从经验性错误提升为可测量、可定位、可干预的内部表征现象,为对齐、安全监测与对抗攻击研究提供了统一框架。

Q: 有哪些相关研究?

  • 幻觉机理与评测

    • Ji et al. 2023 综述:系统梳理自然语言生成中的幻觉定义、评测与缓解方法。
    • Maynez et al. 2020 / Zhang et al. 2023:指出摘要任务中模型会编造训练数据未包含的事实。
    • Kalai & Vempala 2024 理论结果:证明任何校准良好的语言模型在特定事实类上必然存在非零幻觉率。
    • Farquhar et al. 2024 Nature:提出“语义熵”指标,在问答场景检测幻觉。
    • Vectara Hallucination Leaderboard(Hughes et al. 2023)与 HHEM-2.1 评估器:提供大规模幻觉评分基准与自动化度量。
  • 幻觉内部机制

    • Yu et al. 2024 EMNLP:定位特定注意力头与 MLP 模块对非事实幻觉的因果贡献。
    • Jiang et al. 2024:从输出 token 动态角度解释已知事实幻觉。
    • Kadavath et al. 2022:发现模型对自身知识边界校准不足,导致过度自信幻觉。
  • 稀疏自编码器(SAE)与线性表征假设

    • Cunningham et al. 2023 / Bricken et al. 2023:首次展示 SAE 可在语言模型中提取可解释、可操控的单维特征。
    • Templeton et al. 2024(Claude 3 Sonnet 工作):将 SAE 扩展到百亿参数模型,验证特征可扩展性。
    • Elhage et al. 2022 “Toy Models of Superposition”:提出线性表征假设,为后续 SAE 研究奠定几何框架。
    • Joseph et al. 2025 Prisma & Steering CLIP ViT:把 SAE 方法迁移到视觉 Transformer,证明跨模态通用性。
  • 输入扰动与对抗行为

    • Szegedy et al. 2014 / Carlini & Wagner 2017:小扰动导致高置信错误输出,揭示模型对输入统计偏置的过度依赖。
    • Wallace et al. 2019 “Universal Adversarial Triggers”:发现文本前缀级触发器可诱导模型生成虚假内容,与本文“概念漫游”现象呼应。
  • 概念干预与可控生成

    • Marks et al. 2025 “Sparse Feature Circuits”:构建可解释因果图,通过编辑特征改变模型行为。
    • Lieberum et al. 2024 Gemma Scope:开源多层 SAE,为本文 Gemma-2B 实验提供预训练基础。

这些研究共同构成了“幻觉外部评测 → 内部特征定位 → 线性可解释表征 → 输入扰动触发 → 概念级干预”的完整链条,而本文首次用 SAE 把链条串起,给出跨模态、可预测的幻觉起源框架。

Q: 论文如何解决这个问题?

方法总览
论文将“幻觉”视为输入不确定性→中间层概念激活扩张→输出失实的因果链,通过稀疏自编码器(SAE)在预训练 Transformer 各层提取可解释特征,并以干预-预测双路径验证。核心流程如下:

1. 实验设计:人为制造“无语义”或“弱语义”输入

模态

输入扰动方案

不确定性等级

视觉

ImageNet 图像随机打乱 28×28/56×56/112×112 小块

小块 → 高不确定

文本

FineWeb-Edu 文本随机打乱 1/2/6/10/30-gram

低 n → 高不确定

极端

纯高斯噪声图像或随机 token 序列

零语义

2. 工具:三层 SAE 训练策略

类型

训练数据

目的

Noise-SAE

1.3 M 纯噪声输入的残差流激活

揭示模型先验概念偏置(与输入无关)

Normal-SAE

自然图像/文本的残差流激活

提供正常基线概念空间

Pre-trained-SAE

公开 Gemma-2B 各层 SAE

在大模型上直接验证幻觉预测

3. 观测指标

  • L0:每层平均非零概念数 → 量化“概念扩张”程度。
  • 语义纯度:top-16 激活图像的 CLIP 文本标签平均余弦相似度 → 验证概念可解释性。
  • 可操控性(Steerability):向残差流注入 α·d_i 能否把中性输入预测强行改为概念标签 → 验证因果有效性。

4. 发现:三层级证据链

输入无关的先验概念

  • 仅用噪声激活训练的 SAE 仍能提取大量高纯度(≥0.75)概念,且早期/中期层可操控比例显著。
  • 说明模型权重已内嵌“语义网格”,即使无信号也会强制映射到熟悉概念。

不确定性越高 → 概念扩张越剧烈

  • 28×28 小块打乱使 ViT 第 6 层 L0 净增 38;1-gram 打乱使 Pythia 第 9 层 L0 净增 81
  • 扩张峰值集中在中层(ViT 5–8 层、Pythia 7–10 层),与“概念重叠度”谷值区吻合 → 证实中层为语义假设搜索空间

概念激活 ⇒ 幻觉分数可线性预测

  • 对 1 006 篇 Vectara 文章,用 Gemma-2B 第 13 层 SAE 概念激活作为特征,4 成分 PLS 回归在未见文章上取得
    • 连续幻觉分数 R²=0.271±0.010(10 折交叉)
    • 二分幻觉准确率 73.0 %±5.3 %
  • 反向定位:按 VIP 得分抑制 Layer-11 前 10 大幻觉相关概念,top-25 % 高幻觉样本平均分数下降 0.19(0.91→0.72)。

5. 干预验证:概念→幻觉因果性

  • 抑制流程
    1. 提取 Layer-11 残差流 x
    2. SAE 编码得概念激活 f
    3. 将 VIP-top10 维度置 0 得 f′
    4. SAE 解码得 x′,替换原激活继续生成
  • 结果:同一批样本在 HHEM-2.1 上幻觉显著下降,且不影响摘要流畅度 → 证明精准概念编辑即可降低幻觉

6. 通用性与可扩展性

  • 跨 ViT-B/32、Pythia-160M、Gemma-2B;跨视觉/文本;跨噪声-打乱-自然三种输入,均复现“中层概念扩张-幻觉预测”模式,表明方法不依赖特定模型或数据

总结

论文通过“SAE 提取概念 → 扰动输入观测扩张 → 线性模型预测幻觉 → 概念抑制降低幻觉”的闭环,首次把幻觉问题转化为可量化、可定位、可干预的表征现象,为后续对齐监测与对抗防御提供了通用框架。

Q: 论文做了哪些实验?

  • 纯噪声输入实验

    • 用 1.3 M 高斯噪声图像驱动冻结的 CLIP-ViT-B/32,逐层采集残差流激活训练 Noise-SAE。
    • 以 ImageNet-1k 50 k 图像探测 SAE 特征,计算语义纯度与可操控性,验证模型在无信号输入下仍激活高解释性概念。
  • 输入结构化程度消融实验

    • 视觉:对 ImageNet 图像实施 28×28、56×56、112×112 小块打乱,逐层记录 ViT 残差流并用 Normal-SAE 提取概念,统计 L0 增量。
    • 文本:对 FineWeb-Edu 文本实施 1/2/6/10/30-gram 打乱,逐层记录 Pythia-160 M 残差流并用 Normal-SAE 提取概念,统计 L0 增量。
  • 概念重叠稳定性实验

    • 用不同随机种子训练两组 Noise-SAE,计算 Jaccard 指数,揭示中层(5–8 层)概念集合分歧最大,对应 L0 扩张峰值。
  • 幻觉预测实验

    • 取 Vectara 排行榜 1 006 篇长文,用 Gemma-2B-IT 生成摘要,HHEM-2.1 给出 0–1 幻觉分数。
    • 逐层将源文最大概念激活送入 4-成分 PLS 回归,10 折交叉验证预测幻觉分数,层 13 取得 R²=0.271。
  • 概念抑制干预实验

    • 按 VIP 得分选取层 11 前 10 大幻觉相关概念,生成时将其 SAE 激活置零,再解码回残差流。
    • 对最高幻觉四分位样本(n=252)平均幻觉分数下降 0.19,且保留摘要流畅性,验证概念→幻觉因果链。

Q: 有什么可以进一步探索的点?

以下方向可直接延续本文框架,也可跳出 SAE-幻觉范式做更深层扩展;按“现象→机理→应用→评测”四级归类,供后续研究参考。

1. 现象级:幻觉触发条件的全面地图

探索点

关键问题

可行方案

1.1 更大规模与跨模态

10–100 B 模型、视频-音频-多模态是否仍呈现“中层概念扩张”?

在 Llama-3-70B、Claude-3-Opus、Stable-Video 上复现 L0-VIP 流程;用统一 SAE 架构减少训练成本。

1.2 任务域差异

数学推理、代码生成等“高符号”任务是否也靠“语义填充”产生幻觉?

用 MATH、HumanEval 数据集构造“伪问题”→测量概念激活→对比幻觉型错误 vs 逻辑型错误。

1.3 细粒度扰动谱

介于“纯噪声”与“自然输入”之间是否存在相变点?

引入可控噪声强度 σ 或 patch-shuffle 比例 p,绘制“σ-p-幻觉分数”三维相图,检验是否存在临界阈值。

2. 机理级:概念扩张的因果与动态

探索点

关键问题

可行方案

2.1 注意力 vs MLP 贡献分解

概念扩张主要由注意力还是 MLP 驱动?

对中层进行通路擦除(attn-only / mlp-only ablation),观察 L0 变化;结合 attn-pattern 可视化追踪“噪声 token”被误关联的语义位置。

2.2 概念演化时序

同一概念在哪一步首次出现?是否一旦激活就持续自我强化?

在生成阶段逐 token 记录残差流,用 SAE 在线解码,构建“概念时间序列”,检测早期激活对后续幻觉的 Granger 因果。

2.3 多维度非线性特征

线性 SAE 可能遗漏组合概念,是否高阶交互才是幻觉主因?

采用非线性 SAE、Gated SAE、或稀疏 ICA,对比单维特征与多维交互的预测力;用神经正切核 (NTK) 分析扩张子空间的秩。

3. 应用级:干预、检测与对齐

探索点

关键问题

可行方案

3.1 实时幻觉预警器

能否在生成前 5–10 token 就触发“幻觉警报”?

把层 13 概念激活接入轻量级 LR 或 1-layer Transformer,流式输出 hallucination-logits;结合贝叶斯更新降低误报。

3.2 动态概念抑制

固定抑制 10 个概念可能伤正常生成,可否“按需”抑制?

用强化学习(policy=抑制掩码,reward=−HHEM 分数)学习每层最优干预 mask;探索 LoRA/adapter 方式避免重训主模型。

3.3 对比式安全训练

能否把“概念扩张”作为新的安全目标加入 RLHF?

在奖励模型中增加一项 λ·L0,鼓励策略网络保持低扩张;监测是否同时降低幻觉与有用性,探索 Pareto 前沿。

4. 评测级:基准、攻防与伦理

探索点

关键问题

可行方案

4.1 幻觉诱导攻击

攻击者能否刻意设计“微扰”触发特定概念以植入假信息?

借鉴 universal adversarial triggers,优化前缀 token 使 L0 飙升且导向攻击者目标概念;评估攻击迁移性与防御(输入平滑、概念屏蔽)。

4.2 多语言与文化偏差

非英语语境是否出现不同“幻觉概念集”?

在中文、阿拉伯语、斯瓦希里语 Wikipedias 上复现 VIP 流程,检查幻觉驱动概念是否偏向英语文化,揭示潜在价值对齐风险。

4.3 隐私侧漏

噪声输入激活的概念是否可能泄露训练数据隐私?

用成员推理攻击:仅输入噪声→观察概念激活→判断样本是否属于训练集;若成功率>基线,表明概念空间存在隐私泄漏通道,需差分隐私或联邦 SAE 训练。

5. 工具与方法学升级

  • 自监督 SAE:利用 masked-next-token 或对比目标联合训练 SAE,使其不再需要额外 1.3 M 噪声标注,降低算力门槛。
  • 跨层共享字典:当前每层独立 SAE 难以追踪概念流动;可探索 shared-codebook SAErecurrent SAE,直接学习层间概念演化。
  • 可微分幻觉损失:将 HHEM 或语义熵分数可微近似,端到端微调模型参数,而非仅干预激活。

总结

从“把幻觉当激活统计现象”这一核心洞察出发,后续工作可沿规模-任务-模态-语言四轴扩展,同时深入因果动力学、在线干预、安全攻防三层机理,最终形成可部署、可泛化、可解释的幻觉监测与抑制工具链。

Q: 总结一下论文的主要内容

From Noise to Narrative 提出一套基于稀疏自编码器(SAE)的幻觉溯源框架,系统揭示 Transformer 在输入不确定时如何“自编故事”并给出可落地的预测与抑制方案。核心内容可概括为 “三问三答”

1️⃣ 幻觉何时出现?

:只要输入结构退化(噪声、打乱、语义缺失),中层残差流会自发扩张语义概念激活(L0 显著↑),与输入真实内容无关。

2️⃣ 幻觉如何产生?

  • 模型权重内嵌“语义先验”——Noise-SAE 仅用纯噪声激活就能提取大量高纯度、可操控概念
  • 随着不确定度增加,早期层保守、中层“概念漫游”、后期层收敛,形成三阶段激活轨迹。

3️⃣ 幻觉能否预判与抑制?

  • 预测:用输入提示的 SAE 概念激活向量,线性 PLS 回归即可预测输出幻觉分数(层 13 R²=0.271,二分类 73 %)。
  • 抑制:定位最贡献幻觉的 10 个概念,在层 11 残差流置零后再解码,top-25 % 高幻觉样本平均得分下降 0.19(0.91→0.72)。

贡献一句话

首次把“幻觉”从经验错误转化为可测量、可定位、可干预的表征现象,为对齐监测、安全部署与对抗防御提供通用、跨模态、可扩展的工具体系。

Q: 想要进一步了解论文

以上只是了解一篇论文的几个基本FAQ。如果你还想与Kimi进一步讨论该论文,请点击 这里 为你跳转Kimi AI网页版,并启动一个与该论文相关的新会话。

Authors: Praneet Suresh,Jack Stanley,Sonia Joseph,Luca Scimeca,Danilo Bzdok

Categories: cs.LG,cs.AI

PDF URL: https://arxiv.org/pdf/2509.06938.pdf

Arxiv URL: https://arxiv.org/abs/2509.06938

Arxiv ID: 2509.06938

CoolPaper URL: https://papers.cool/arxiv/2509.06938

Published: 2025-09-08T17:50:45Z

Updated: 2025-09-08T17:50:45.000Z