論文の概要: The Majority is not always right: RL training for solution aggregation
- arxiv url: http://arxiv.org/abs/2509.06870v1
- Date: Mon, 08 Sep 2025 16:39:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-09 14:07:04.264795
- Title: The Majority is not always right: RL training for solution aggregation
- Title(参考訳): 多数派は常に正しいとは限らない:解集合のためのRLトレーニング
- Authors: Wenting Zhao, Pranjal Aggarwal, Swarnadeep Saha, Asli Celikyilmaz, Jason Weston, Ilia Kulikov,
- Abstract要約: 我々はアグリゲータモデルをトレーニングし、最終的な正解をレビューし、精査し、合成する。
重要な要素は、簡単なトレーニング例と厳しいトレーニング例のバランスを取ることだ。
我々の手法であるAggLMは、強いルールベースと報酬モデルベースラインの両方を上回ります。
- 参考スコア(独自算出の注目度): 53.1050856072799
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Scaling up test-time compute, by generating multiple independent solutions and selecting or aggregating among them, has become a central paradigm for improving large language models (LLMs) on challenging reasoning tasks. While most prior work relies on simple majority voting or reward model ranking to aggregate solutions, these approaches may only yield limited benefits. In this work, we propose to learn aggregation as an explicit reasoning skill: given a set of candidate solutions, we train an aggregator model to review, reconcile, and synthesize a final, correct answer using reinforcement learning from verifiable rewards. A key ingredient is careful balancing of easy and hard training examples, allowing the model to learn both to recover minority-but-correct answers as well as easy majority-correct answers. Empirically, we find our method, AggLM, outperforms both strong rule-based and reward-model baselines, across multiple benchmarks. Furthermore, it generalizes effectively to solutions from differing models, including stronger ones than contained in the training data, all while requiring substantially fewer tokens than majority voting with larger numbers of solutions.
- Abstract(参考訳): 複数の独立したソリューションを生成し、それらの中から選択または集約することにより、テスト時の計算をスケールアップすることは、大きな言語モデル(LLM)を改善するための中心的なパラダイムとなっている。
これまでのほとんどの作業は、ソリューションを集約するために単純な多数決や報酬モデルに頼っているが、これらのアプローチは限られた利益しか得られない。
そこで本研究では,アグリゲータモデルを用いて,アグリゲータモデルを用いて,アグリゲータモデルを用いて,アグリゲータモデルを用いて,アグリゲータモデルを用いて,アグリゲータモデルを用いて,アグリゲータモデルの検証・調整・合成を行う。
重要な要素は、簡単なトレーニング例と難しいトレーニング例のバランスを取ることであり、モデルがマイノリティーだが正しい回答と、簡単なマジョリティーな回答の両方を学ぶことができる。
経験的に、我々の手法であるAggLMは、強力なルールベースと報酬モデルベースラインの両方を、複数のベンチマークで上回ります。
さらに、トレーニングデータに含まれるものよりも強力なものを含む、異なるモデルからのソリューションを効果的に一般化する一方で、多数のソリューションで過半数の投票を行うよりも、かなり少ないトークンを必要とする。
関連論文リスト
- Learning to Refine: Self-Refinement of Parallel Reasoning in LLMs [102.48588475875749]
本稿では,新しい並列テスト時間スケーリングフレームワークであるGenerative Self-Refinement (GSR)を紹介する。
GSRは一連の候補応答を並列に生成し、その後自己精製を行い、新しい優れた解を合成する。
提案手法は,5つの数学ベンチマークにおいて,最先端性能を実現する。
論文 参考訳(メタデータ) (2025-08-27T06:51:48Z) - Thinkless: LLM Learns When to Think [57.857534644932194]
推論モデル(Reasoning Language Models)は、複雑な論理的推論を必要とするタスクにおいて顕著な性能を示す。
我々は,LLMが短文推論と長文推論を適応的に選択できる学習可能なフレームワークであるThinklessを提案する。
Minerva Algebra、MATH-500、GSM8Kなどのベンチマークでは、Thinklessはロングチェーン思考の使用を50%から90%削減することができる。
論文 参考訳(メタデータ) (2025-05-19T17:24:16Z) - Rationale-Aware Answer Verification by Pairwise Self-Evaluation [11.763229353978321]
信頼性のある検証器の訓練には,最終回答の正しさに加えて,有理数の有効性の確保が必要であることを示す。
本結果から, 信頼性検証には, 正解の正確性に加えて, 有理数の有効性の確保が必要であることが示唆された。
論文 参考訳(メタデータ) (2024-10-07T08:53:00Z) - Oracle Inequalities for Model Selection in Offline Reinforcement
Learning [105.74139523696284]
本稿では,値関数近似を用いたオフラインRLにおけるモデル選択の問題について検討する。
対数係数まで最小値の速度-最適不等式を実現するオフラインRLの最初のモデル選択アルゴリズムを提案する。
そこで本研究では,優れたモデルクラスを確実に選択できることを示す数値シミュレーションを行った。
論文 参考訳(メタデータ) (2022-11-03T17:32:34Z) - A Mutual Information Maximization Approach for the Spurious Solution
Problem in Weakly Supervised Question Answering [60.768146126094955]
弱々しい教師付き質問応答は通常、最終的な答えのみを監督信号として持つ。
偶然に正解を導出する刺激的な解が多数存在するかもしれないが、そのような解の訓練はモデルの性能を損なう可能性がある。
本稿では,質問応答対と予測解間の相互情報の最大化により,このような意味的相関を明示的に活用することを提案する。
論文 参考訳(メタデータ) (2021-06-14T05:47:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。