論文の概要: Bootstrapping LLMs via Preference-Based Policy Optimization
- arxiv url: http://arxiv.org/abs/2511.12867v1
- Date: Mon, 17 Nov 2025 01:41:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-18 14:36:24.591005
- Title: Bootstrapping LLMs via Preference-Based Policy Optimization
- Title(参考訳): 優先度に基づく政策最適化によるブートストラップLDM
- Authors: Chen Jia,
- Abstract要約: 大きな言語モデル(LLM)を優先ベースのポリシー最適化を通じてブートストラップすることで、モデルの振る舞いと人間の好みを整合させる、有望な方向を提供する。
本稿では,学習過程を主方針と報奨モデルの間のmin-maxゲームとして定式化する,新たな嗜好ベースの政策最適化フレームワークを提案する。
我々のアプローチは、既存の最先端の選好最適化技術より一貫して優れている。
- 参考スコア(独自算出の注目度): 11.796630967998544
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Bootstrapping large language models (LLMs) through preference-based policy optimization offers a promising direction for aligning model behavior with human preferences without relying on extensive manual annotations. In this work, we propose a novel preference-based policy optimization (PbPO) framework that formulates the learning process as a min-max game between the main policy and a reward model (RM). The RM is constrained within a confidence set derived from preference data to ensure reliable exploitation. Our iterative online algorithm actively collects preference data through guided exploration of the evolving policy, enabling continual self-improvement of both the policy and the RM. We provide theoretical guarantees for our method, establishing high-probability regret bounds for both settings with sequence-level RM and token-level RM, demonstrating its effectiveness in bootstrapping LLMs. Extensive experiments on five benchmarks show that our approach consistently outperforms existing state-of-the-art preference optimization techniques.
- Abstract(参考訳): 大きな言語モデル(LLM)を優先ベースのポリシー最適化を通じてブートストラップすることで、広範囲のマニュアルアノテーションに頼ることなく、モデルの振る舞いと人間の好みを整合させる、有望な方向を提供する。
本研究では、主方針と報奨モデル(RM)の間のmin-maxゲームとして学習プロセスを定式化する、新しい嗜好ベースのポリシー最適化(PbPO)フレームワークを提案する。
RMは、優先データから導出される信頼セット内に拘束され、信頼性の高い利用が保証される。
我々の反復的オンラインアルゴリズムは、進化するポリシーのガイドによる探索を通じて、嗜好データを積極的に収集し、ポリシーとRMの両方の継続的な自己改善を可能にする。
提案手法を理論的に保証し,シークエンスレベルのRMとトークンレベルのRMの両方の設定に対して高い確率的後悔境界を確立するとともに,LLMのブートストラップにおけるその有効性を示す。
5つのベンチマークの大規模な実験により、我々のアプローチは既存の最先端の選好最適化手法よりも一貫して優れていることが示された。
関連論文リスト
- Policy Regularized Distributionally Robust Markov Decision Processes with Linear Function Approximation [10.35045003737115]
分散シフトによる意思決定は、トレーニングとデプロイメント環境が異なる強化学習(RL)における中心的な課題である。
本稿では,モデルのないオンラインポリシー最適化手法DR-RPOを提案する。
DR-RPO は,ロバストな RL における準最適境界とサンプル効率を実現し,値に基づく手法の性能に適合することを示す。
論文 参考訳(メタデータ) (2025-10-16T02:56:58Z) - Forward KL Regularized Preference Optimization for Aligning Diffusion Policies [8.958830452149789]
拡散政策の学習における中心的な問題は、様々なタスクにおいて、政策の出力と人間の意図を一致させることである。
そこで本稿では,拡散ポリシーを優先事項と整合させる新しいフレームワーク,フォワードKL正規化参照最適化を提案する。
その結果,提案手法は好みとの整合性が優れ,従来の最先端アルゴリズムよりも優れていた。
論文 参考訳(メタデータ) (2024-09-09T13:56:03Z) - Self-Augmented Preference Optimization: Off-Policy Paradigms for Language Model Alignment [104.18002641195442]
既存のペアデータを必要としない、効果的でスケーラブルなトレーニングパラダイムである自己拡張型優先度最適化(SAPO)を導入する。
負の反応を自律的に生成するセルフプレイの概念に基づいて、我々はさらに、データ探索とエクスプロイトを強化するために、非政治的な学習パイプラインを組み込む。
論文 参考訳(メタデータ) (2024-05-31T14:21:04Z) - Provably Mitigating Overoptimization in RLHF: Your SFT Loss is Implicitly an Adversarial Regularizer [52.09480867526656]
人間の嗜好を学習する際の分布変化と不確実性の一形態として,不一致の原因を同定する。
過度な最適化を緩和するために、まず、逆選択された報酬モデルに最適なポリシーを選択する理論アルゴリズムを提案する。
報奨モデルとそれに対応する最適ポリシーの等価性を用いて、優先最適化損失と教師付き学習損失を組み合わせた単純な目的を特徴とする。
論文 参考訳(メタデータ) (2024-05-26T05:38:50Z) - Towards Efficient Exact Optimization of Language Model Alignment [93.39181634597877]
嗜好データから直接ポリシーを最適化するために、直接選好最適化(DPO)が提案された。
問題の最適解に基づいて導出されたDPOが,現実の最適解の妥協平均探索近似に繋がることを示す。
本稿では、アライメント目的の効率的な精度最適化(EXO)を提案する。
論文 参考訳(メタデータ) (2024-02-01T18:51:54Z) - Statistical Rejection Sampling Improves Preference Optimization [42.57245965632205]
提案手法は,リジェクションサンプリングを用いた最適ポリシーからのソース選好データに対する新しいアプローチを提案する。
また、嗜好モデルの観点から、SLiC(Sequence Likelihood)とDPO(Direct Preference Optimization)の両方で使用される損失関数を強化する統一フレームワークを提案する。
論文 参考訳(メタデータ) (2023-09-13T01:07:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。