論文の概要: Thinking-Free Policy Initialization Makes Distilled Reasoning Models More Effective and Efficient Reasoners
- arxiv url: http://arxiv.org/abs/2509.26226v1
- Date: Tue, 30 Sep 2025 13:25:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-01 17:09:04.552654
- Title: Thinking-Free Policy Initialization Makes Distilled Reasoning Models More Effective and Efficient Reasoners
- Title(参考訳): シンキングフリー政策初期化は、蒸留推論モデルをより効果的かつ効率的にする
- Authors: Xin Xu, Cliveb AI, Kai Yang, Tianhao Chen, Yang Wang, Saiyong Yang, Can Yang,
- Abstract要約: 本稿では, 長いチェーン・オブ・ソート(CoT)蒸留と標準RLVRを橋渡しするRLVRへの, 単純かつ効果的な適応である**T**hinking-**F*ree **P**olicy **I**nitialization (**I***)を紹介する。
実験により、TFPIはRL収束を加速し、高い性能の天井を達成し、特別な報酬や複雑な訓練設計を伴わないよりトークン効率の高い推論モデルが得られることが示された。
- 参考スコア(独自算出の注目度): 12.842803192993209
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Reinforcement Learning with Verifiable Reward (RLVR) effectively solves complex tasks but demands extremely long context lengths during training, leading to substantial computational costs. While multi-stage training can partially mitigate this, starting with overly short contexts often causes irreversible performance degradation, ultimately failing to reduce overall training compute significantly. In this paper, we introduce **T**hinking-**F**ree **P**olicy **I**nitialization (**TFPI**), a simple yet effective adaptation to RLVR that bridges long Chain-of-Thought (CoT) distillation and standard RLVR. TFPI employs a simple *ThinkFree* operation, explicitly discarding the thinking content via a direct *</think>* append, to reduce token usage during inference. Training with *ThinkFree*-adapted inputs improves performance and lowers token consumption, even in the original slow-thinking mode. Extensive experiments across various benchmarks have shown that TFPI accelerates RL convergence, achieves a higher performance ceiling, and yields more token-efficient reasoning models without specialized rewards or complex training designs. With TFPI only, we train a 4B model to reach 89.0% accuracy on AIME24 and 65.5% on LiveCodeBench using less than 4K H20 hours.
- Abstract(参考訳): RLVR(Reinforcement Learning with Verifiable Reward)は、複雑なタスクを効果的に解決するが、トレーニング中に非常に長いコンテキスト長を必要とするため、かなりの計算コストがかかる。
マルチステージトレーニングは、これを部分的に緩和することができるが、過度に短いコンテキストから始めると、しばしば不可逆的なパフォーマンス劣化を引き起こし、最終的には、全体的なトレーニング計算を大幅に削減することができない。
本稿では,*T**hinking-**F*ree **P**olicy **I**nitialization (**TFPI**)を紹介する。
TFPIは単純な*ThinkFree*操作を採用し、直接*</think>*アタッチメントを通じて思考内容を明示的に破棄することで、推論時のトークン使用量を削減する。
ThinkFree*適応入力によるトレーニングは、オリジナルのスローシンキングモードであっても、パフォーマンスを改善し、トークンの消費を減少させる。
様々なベンチマークによる大規模な実験により、TFPIはRL収束を加速し、高い性能の天井を達成し、特別な報酬や複雑な訓練設計を伴わないよりトークン効率の良い推論モデルが得られることが示されている。
TFPIのみの場合、AIME24では89.0%、LiveCodeBenchでは65.5%の精度で4K H20時間未満で4Bモデルをトレーニングする。
関連論文リスト
- R-Stitch: Dynamic Trajectory Stitching for Efficient Reasoning [80.104336426172]
CoT(Chain-of- Thought)は、大規模言語モデルの問題解決能力を高める。
CoTは長い自己回帰軌道のためにかなりの推論コストを発生させる。
トレーニング不要なハイブリッドデコーディングフレームワークであるR-Stitchを紹介する。
論文 参考訳(メタデータ) (2025-07-23T08:14:36Z) - Accelerated Test-Time Scaling with Model-Free Speculative Sampling [58.69141724095398]
STAND(Stochastic Adaptive N-gram Drafting)は,新しいモデルフリーな投機的デコード手法である。
従来の自己回帰復号法と比較して,STANDは推論遅延を60~65%削減することを示した。
モデルフリーのアプローチとして、STANDは追加のトレーニングなしで既存の言語モデルに適用できる。
論文 参考訳(メタデータ) (2025-06-05T07:31:18Z) - AceReason-Nemotron: Advancing Math and Code Reasoning through Reinforcement Learning [50.02117478165099]
大規模強化学習は, 強大・中小モデルの推論能力を大幅に向上させることができることを示す。
まずは算数のみのプロンプト、次にコードのみのプロンプトのトレーニングを行う。
論文 参考訳(メタデータ) (2025-05-22T08:50:47Z) - FastCuRL: Curriculum Reinforcement Learning with Stage-wise Context Scaling for Efficient Training R1-like Reasoning Models [35.44600061387139]
我々は,LLM学習と推論を効率的に行うために,段階的コンテキストスケーリングを備えたカリキュラムRLフレームワークであるFastCuRLを提案する。
FastCuRL-1.5B-V3は5つの競合レベルのベンチマークで最先端の推論モデルよりも優れ、AIME 2024では49.6%の精度を達成した。
論文 参考訳(メタデータ) (2025-03-21T16:35:31Z) - Online Convolutional Re-parameterization [51.97831675242173]
2段階のパイプラインであるオンライン畳み込み再パラメータ化(OREPA)は、複雑なトレーニング時間ブロックを単一の畳み込みに絞ることで、巨大なトレーニングオーバーヘッドを低減することを目的としている。
最先端のre-paramモデルと比較して、OREPAはトレーニング時間のメモリコストを約70%削減し、トレーニング速度を約2倍向上させることができる。
また、オブジェクト検出とセマンティックセグメンテーションの実験を行い、下流タスクに一貫した改善を示す。
論文 参考訳(メタデータ) (2022-04-02T09:50:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。