論文の概要: AceReason-Nemotron: Advancing Math and Code Reasoning through Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2505.16400v2
- Date: Thu, 29 May 2025 20:52:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-02 15:03:35.142842
- Title: AceReason-Nemotron: Advancing Math and Code Reasoning through Reinforcement Learning
- Title(参考訳): AceReason-Nemotron:強化学習による数学とコード推論の促進
- Authors: Yang Chen, Zhuolin Yang, Zihan Liu, Chankyu Lee, Peng Xu, Mohammad Shoeybi, Bryan Catanzaro, Wei Ping,
- Abstract要約: 大規模強化学習は, 強大・中小モデルの推論能力を大幅に向上させることができることを示す。
まずは算数のみのプロンプト、次にコードのみのプロンプトのトレーニングを行う。
- 参考スコア(独自算出の注目度): 50.02117478165099
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Despite recent progress in large-scale reinforcement learning (RL) for reasoning, the training recipe for building high-performing reasoning models remains elusive. Key implementation details of frontier models, such as DeepSeek-R1, including data curation strategies and RL training recipe, are often omitted. Moreover, recent research indicates distillation remains more effective than RL for smaller models. In this work, we demonstrate that large-scale RL can significantly enhance the reasoning capabilities of strong, small- and mid-sized models, achieving results that surpass those of state-of-the-art distillation-based models. We systematically study the RL training process through extensive ablations and propose a simple yet effective approach: first training on math-only prompts, then on code-only prompts. Notably, we find that math-only RL not only significantly enhances the performance of strong distilled models on math benchmarks (e.g., +14.6% / +17.2% on AIME 2025 for the 7B / 14B models), but also code reasoning tasks (e.g., +6.8% / +5.8% on LiveCodeBench for the 7B / 14B models). In addition, extended code-only RL iterations further improve performance on code benchmarks with minimal or no degradation in math results. We develop a robust data curation pipeline to collect challenging prompts with high-quality, verifiable answers and test cases to enable verification-based RL across both domains. Finally, we identify key experimental insights, including curriculum learning with progressively increasing response lengths and the stabilizing effect of on-policy parameter updates. We find that RL not only elicits the foundational reasoning capabilities acquired during pretraining and supervised fine-tuning (e.g., distillation), but also pushes the limits of the model's reasoning ability, enabling it to solve problems that were previously unsolvable.
- Abstract(参考訳): 推論のための大規模強化学習(RL)が近年進歩しているにもかかわらず、高性能推論モデルを構築するためのトレーニングレシピはいまだ解明されていない。
データキュレーション戦略やRLトレーニングレシピなど、DeepSeek-R1のようなフロンティアモデルの重要な実装詳細は省略されることが多い。
さらに、最近の研究では、より小さなモデルではRLよりも蒸留の方が有効であることが示されている。
本研究では, 大規模RLが高強度・小型・中規模モデルの推理能力を大幅に向上させ, 最先端蒸留モデルを上回る結果が得られることを示す。
本稿では,RLの学習過程を広範囲にわたる改善を通じて体系的に研究し,まずは算数のみのプロンプト,次にコードのみのプロンプトのトレーニングという,シンプルで効果的なアプローチを提案する。
数学のみのRLは、数学ベンチマーク(例: +14.6% / +17.2%、例: 7B / 14B モデルでは AIME 2025、例: +6.8% / +5.8%、例: 7B / 14B モデルでは LiveCodeBench、例: +6.8% / +5.8%)における強い蒸留モデルの性能を大幅に向上させる。
さらに、拡張されたコードのみのRLイテレーションは、数学結果の劣化を最小限に抑えて、コードベンチマークのパフォーマンスをさらに向上させる。
我々は、高品質で検証可能な回答とテストケースを持つ挑戦的なプロンプトを収集し、両方のドメインにまたがって検証ベースのRLを可能にする、堅牢なデータキュレーションパイプラインを開発した。
最後に、段階的に応答長が増加するカリキュラム学習や、オンラインパラメータ更新による安定化効果など、重要な実験的な知見を同定する。
RLは,事前学習と微調整(蒸留など)で得られた基礎的推論能力を付与するだけでなく,モデルの推論能力の限界を押し上げ,これまで解決できなかった問題を解くことができる。
関連論文リスト
- Does Reinforcement Learning Really Incentivize Reasoning Capacity in LLMs Beyond the Base Model? [67.30809748319486]
RLVR(Reinforcement Learning with Verifiable Rewards)は近年,大規模言語モデル(LLM)の推論性能の向上に成功している。
本研究はRLVRの現状を批判的に考察する。
現在のトレーニング設定では、根本的な新しい推論パターンが生まれていないことが分かりました。
論文 参考訳(メタデータ) (2025-04-18T17:59:56Z) - Echo Chamber: RL Post-training Amplifies Behaviors Learned in Pretraining [74.83412846804977]
強化学習(RL)に基づく微調整は、訓練後の言語モデルにおいて重要なステップとなっている。
数理推論のためのRLファインタニングを、スクラッチから完全にトレーニングモデルを用いて体系的にエンドツーエンドに研究する。
論文 参考訳(メタデータ) (2025-04-10T17:15:53Z) - Concise Reasoning via Reinforcement Learning [13.657506042120167]
我々は強化学習(RL)の中核的原則を再考する。
簡潔さと正確さの自然な相関関係を明らかにする。
RLトレーニングの二次段階の導入は、非常に小さな問題セットを用いて、思考の連鎖を著しく減少させることが示される。
論文 参考訳(メタデータ) (2025-04-07T15:35:54Z) - An Empirical Study on Eliciting and Improving R1-like Reasoning Models [90.52239241349504]
RLトレーニングのスケーリングは、そのような推論モデルを実装するための中心的なテクニックとなっている。
我々のRLトレーニングアプローチはQwen2.5-32Bベースモデルを継続的に改善することを示した。
また、ツール操作の利用についても検討し、大きな推論モデルの推論性能を大幅に向上させることを見出した。
論文 参考訳(メタデータ) (2025-03-06T15:34:27Z) - Improving Large Language Models via Fine-grained Reinforcement Learning with Minimum Editing Constraint [104.53687944498155]
強化学習(RL)は、大規模言語モデル(LLM)の訓練に広く用いられている。
本稿では,報酬モデルとして生成モデルを組み込んだRL法 RLMEC を提案する。
生成報酬モデルに基づいて、トレーニングのためのトークンレベルRL目標と、RLプロセスの安定化のための模倣ベース正規化を設計する。
論文 参考訳(メタデータ) (2024-01-11T17:58:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。