渐进式上下文扩展技术
训练长上下文推理大模型存在不稳定的优化动态特性。为解决这些问题,我们提出了一种渐进式上下文扩展框架,该框架包含:课程引导的分阶段强化学习策略以稳定从短到长上下文的优化过程;难度感知的回顾采样机制,优先探索复杂实例;以及稳定的监督微调预热阶段,在强化学习训练前提供稳健的初始化基础。 稳健的监督微调预热:使用蒸馏的长上下文推理数据在强化学习前监督微调模型,获取稳定的初始策略,降低训练过程中的不稳定。 课程引导的分阶段强化学习:将强化学习训练分为两阶段,阶段 I 输入长度 20K,阶段 II 扩展至 60K,逐步适应长上下文。每阶段仅训练当前长度区间的样本,避免混合长度导致的优化冲突。
难度感知的回顾采样:根据样本平均奖励动态计算难度,低奖励样本(高难度)被优先保留至后续阶段。阶段 II 训练时,包含阶段 I 的高难度样本,强制模型持续探索复杂案例。