論文の概要: SAFE: Stable Alignment Finetuning with Entropy-Aware Predictive Control for RLHF
- arxiv url: http://arxiv.org/abs/2602.04651v1
- Date: Wed, 04 Feb 2026 15:26:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-05 19:45:11.59059
- Title: SAFE: Stable Alignment Finetuning with Entropy-Aware Predictive Control for RLHF
- Title(参考訳): SAFE:RLHFのエントロピー対応予測制御による安定配向ファインタニング
- Authors: Dipan Maity,
- Abstract要約: LM-RLHF設定のためのポリシーアクター批判RL法を新たに開発した。
悲観的値推定のための二重ソフトミニ批判を組み合わせた新しいRLHFアルゴリズムであるSAFE(Stable Alignment Finetuning with Entropy-aware Control)を提案する。
本手法は計算オーバーヘッドを最小限に抑え,解釈可能な耐クラッシュ性RLHFフレームワークを提供する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Optimization (PPO) has been positioned by recent literature as the canonical method for the RL part of RLHF. PPO performs well empirically but has a heuristic motivation and handles the KL-divergence constraint used in LM-RLHF in an ad-hoc manner and suffers form reward oscillations, entropy collapse, value function drift, and sudden policy divergence that require frequent restarts and extensive hyperparameter tuning. In this paper, we develop a new pure on policy actor-critic RL method for the LM-RLHF setting. We present SAFE (Stable Alignment Finetuning with Entropy-aware control),a novel RLHF algorithm that combines a Double Soft-Min Critic for pessimistic value estimation with a new multi-layer stabilization framework combining entropy-gated KL regulation, and PID-controlled adaptive thresholds. Unlike standard PPO's symmetric KL penalties, SAFE distinguishes high-entropy exploration from low-entropy mode collapse and adjusts penalties dynamically based on reward velocity. Experiments on a 3B parameter model show SAFE achieves +5.15\% training-average reward than PPO (0.725 vs 0.689), negligible reward crashes, and superior KL control than ppo . Our method adds minimal computational overhead and provides an interpretable, crash-resistant RLHF framework that maintains aggressive learning speed while ensuring stable long-horizon optimization suitable for production deployment. Code is available at https://github.com/ryyzn9/SAFE
- Abstract(参考訳): 最適化(PPO)はRLHFのRL部分の標準法として近年の文献によって位置づけられている。
PPOは経験的によく機能するが、ヒューリスティックなモチベーションを持ち、LM-RLHFで使用されるKL分割制約をアドホックな方法で処理し、フォーム報酬の発振、エントロピー崩壊、値関数のドリフト、そして頻繁な再起動と広範囲なハイパーパラメータチューニングを必要とする突然のポリシー分岐に苦しむ。
本稿では,LM-RLHF設定のためのポリシーアクタ批判的RL法を新たに開発した。
エントロピーゲートKL制御とPID制御適応しきい値を組み合わせた新しい多層安定化フレームワークと、悲観的値推定のためのDouble Soft-Min Criticを組み合わせた新しいRLHFアルゴリズムであるSAFE(Stable Alignment Finetuning with Entropy-aware Control)を提案する。
標準のPPOの対称KLペナルティとは異なり、SAFEは高エントロピー探索と低エントロピーモードの崩壊を区別し、報酬速度に基づいて動的にペナルティを調整する。
3Bパラメータモデルによる実験では、SAFEはPPO(0.725対0.689)より+5.15\%のトレーニング平均報酬、無視可能な報酬クラッシュ、ppoよりも優れたKL制御を達成した。
提案手法は計算オーバーヘッドを最小限に抑えつつ, 能動的学習速度を維持しつつ, 実運用に適した長期最適化を確実にする, 解釈可能な耐クラッシュ性RLHFフレームワークを提供する。
コードはhttps://github.com/ryyzn9/SAFEで入手できる。
関連論文リスト
- Rethinking the Trust Region in LLM Reinforcement Learning [72.25890308541334]
PPO(Proximal Policy Optimization)は、大規模言語モデル(LLM)のデファクト標準アルゴリズムとして機能する。
より原則的な制約でクリッピングを代用する多変量確率ポリシー最適化(DPPO)を提案する。
DPPOは既存の方法よりも優れたトレーニングと効率を実現し、RLベースの微調整のためのより堅牢な基盤を提供する。
論文 参考訳(メタデータ) (2026-02-04T18:59:04Z) - A Step Back: Prefix Importance Ratio Stabilizes Policy Optimization [58.116300485427764]
強化学習のポストトレーニングは、大きな言語モデルにおける推論の振る舞いを引き出すことができる。
トークンレベルの補正は、オフポリシーネスの度合いが大きい場合、不安定なトレーニングダイナミクスにつながることが多い。
我々は,最小固定率 (MinPRO) を簡易かつ効果的に提案する。
論文 参考訳(メタデータ) (2026-01-30T08:47:19Z) - BAPO: Stabilizing Off-Policy Reinforcement Learning for LLMs via Balanced Policy Optimization with Adaptive Clipping [69.74252624161652]
適応クリッピング(BAPO)を用いたBAlanced Policy Optimizationを提案する。
BAPOはクリッピングバウンダリを動的に調整し、適応的に正と負のコントリビューションを再バランスさせ、エントロピーを保持し、RL最適化を安定化させる。
AIME 2024とAIME 2025ベンチマークでは、7B BAPOモデルがSkyWork-OR1-7Bのようなオープンソースモデルを上回っています。
論文 参考訳(メタデータ) (2025-10-21T12:55:04Z) - ADARL: Adaptive Low-Rank Structures for Robust Policy Learning under Uncertainty [28.291179179647795]
我々は、ロバスト性を改善する二段階最適化フレームワークであるtextbfAdaptive Rank Representation (AdaRL) を提案する。
下位レベルでは、AdaRLは、センチュロイドモデルの周りにあるワッサーシュタイン球からサンプリングされた力学を用いて、固定ランク制約の下でポリシー最適化を行う。
上層では、偏微分トレードオフのバランスをとるためにランクを適応的に調整し、ポリシーパラメータを低階多様体に投影する。
論文 参考訳(メタデータ) (2025-10-13T20:05:34Z) - Lean and Mean: Decoupled Value Policy Optimization with Global Value Guidance [52.65461207786633]
政策に基づく人間からのフィードバックからの強化学習は、大きな言語モデルと人間の嗜好の整合に不可欠である。
俳優と批評家の合同トレーニングと、事前訓練された一定の報酬モデルによる指導が必要である。
従来の報酬モデリングを事前訓練されたEmphglobal Value Model(GVM)に置き換えるリーンフレームワークである textbfDecoupled Value Policy Optimization (DVPO) を提案する。
論文 参考訳(メタデータ) (2025-02-24T08:11:33Z) - Zeroth-Order Policy Gradient for Reinforcement Learning from Human Feedback without Reward Inference [15.038210624870656]
リワード推論は、ヒューマンフィードバックパイプラインからの強化学習における重要な中間ステップである。
本稿では,帯域幅を超える一般RL問題と決定論的MDP帯域幅,Bradley-Terryモデルを超える一般選好モデルについて,報酬推論のない2つのRLHFアルゴリズムを開発した。
論文 参考訳(メタデータ) (2024-09-25T22:20:11Z) - Direct Preference Optimization: Your Language Model is Secretly a Reward Model [119.65409513119963]
本稿では,RLHFにおける報酬モデルの新たなパラメータ化について紹介する。
DPO(Direct Preference Optimization)と呼ばれる結果のアルゴリズムは、安定的で、性能が高く、計算的にも軽量である。
我々の実験は、DPOが人間の好みに合わせて微調整できるだけでなく、既存の方法よりも優れていることを示す。
論文 参考訳(メタデータ) (2023-05-29T17:57:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。