論文の概要: TGDPO: Harnessing Token-Level Reward Guidance for Enhancing Direct Preference Optimization
- arxiv url: http://arxiv.org/abs/2506.14574v1
- Date: Tue, 17 Jun 2025 14:30:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-18 17:34:59.523427
- Title: TGDPO: Harnessing Token-Level Reward Guidance for Enhancing Direct Preference Optimization
- Title(参考訳): TGDPO: 直接選好最適化のためのトークンレベルリワードガイダンスのハーネス化
- Authors: Mingkang Zhu, Xi Chen, Zhongdao Wang, Bei Yu, Hengshuang Zhao, Jiaya Jia,
- Abstract要約: 近年の強化学習の進歩は、きめ細かいトークンレベルの報酬モデルを利用することで、PPO(Pximal Policy Optimization)の性能を大幅に向上させることができることを示している。
直接選好最適化(DPO)のガイダンスとしてこのようなトークンレベルの報酬を活用することは困難である。
この研究は、PPOをトークンレベルのポリシー最適化問題列に分解し、トークンレベルの報酬ガイダンスでトークンレベルのPPOの問題をフレーム化する。
- 参考スコア(独自算出の注目度): 73.16975077770765
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent advancements in reinforcement learning from human feedback have shown that utilizing fine-grained token-level reward models can substantially enhance the performance of Proximal Policy Optimization (PPO) in aligning large language models. However, it is challenging to leverage such token-level reward as guidance for Direct Preference Optimization (DPO), since DPO is formulated as a sequence-level bandit problem. To address this challenge, this work decomposes the sequence-level PPO into a sequence of token-level proximal policy optimization problems and then frames the problem of token-level PPO with token-level reward guidance, from which closed-form optimal token-level policy and the corresponding token-level reward can be derived. Using the obtained reward and Bradley-Terry model, this work establishes a framework of computable loss functions with token-level reward guidance for DPO, and proposes a practical reward guidance based on the induced DPO reward. This formulation enables different tokens to exhibit varying degrees of deviation from reference policy based on their respective rewards. Experiment results demonstrate that our method achieves substantial performance improvements over DPO, with win rate gains of up to 7.5 points on MT-Bench, 6.2 points on AlpacaEval 2, and 4.3 points on Arena-Hard. Code is available at https://github.com/dvlab-research/TGDPO.
- Abstract(参考訳): 近年の人的フィードバックによる強化学習の進歩により, トークンレベルの細粒度報酬モデルを用いることで, 大規模言語モデルの整合化におけるPPO(Pximal Policy Optimization)の性能を大幅に向上させることができることが示されている。
しかし、DPOはシーケンスレベルのバンディット問題として定式化されているため、直接優先度最適化(DPO)のガイダンスとしてこのようなトークンレベルの報酬を活用することは困難である。
この課題に対処するために、この研究は、列レベルのPPOをトークンレベルの近位ポリシー最適化問題に分解し、トークンレベルの報酬ガイダンスでトークンレベルのPPOの問題をフレーム化して、クローズドフォームの最適トークンレベルのポリシーとそれに対応するトークンレベルの報酬を導出する。
得られた報酬とBradley-Terryモデルを用いて,DPOに対するトークンレベル報酬誘導を用いた計算可能損失関数の枠組みを確立し,誘導されたDPO報酬に基づく実用的な報酬誘導を提案する。
この定式化により、異なるトークンがそれぞれの報酬に基づいて参照ポリシーから様々な偏差を示すことができる。
その結果, MT-Benchでは7.5点, AlpacaEval 2では6.2点, Arena-Hardでは4.3点の勝利率を得た。
コードはhttps://github.com/dvlab-research/TGDPO.comで入手できる。
関連論文リスト
- Learning Explainable Dense Reward Shapes via Bayesian Optimization [45.34810347865996]
トークンレベルのクレジット代入に焦点をあてた最適化問題として、報酬形成の枠組みを定めている。
SHAP や LIME などの説明可能性法を用いて,報酬モデルから各報酬を推定する。
実験の結果,トークンレベルの報酬属性のバランスが良くなると,ベースラインよりもパフォーマンスが向上することがわかった。
論文 参考訳(メタデータ) (2025-04-22T21:09:33Z) - AlignDistil: Token-Level Language Model Alignment as Adaptive Policy Distillation [46.72611855060883]
トークンレベルの報酬最適化のためのRLHF等価蒸留法を提案する。
実験の結果、既存の方法よりもAlignDistilの方が優れていることが示された。
論文 参考訳(メタデータ) (2025-03-04T17:57:09Z) - $α$-DPO: Adaptive Reward Margin is What Direct Preference Optimization Needs [45.46582930202524]
$alpha$-DPOは、大規模言語モデルの適応的優先最適化アルゴリズムである。
ポリシーモデルと参照モデルのバランスを取り、パーソナライズされた報酬マージンを達成する。
さまざまなモデル設定でDPOとSimPOを一貫して上回ります。
論文 参考訳(メタデータ) (2024-10-14T04:29:57Z) - TIS-DPO: Token-level Importance Sampling for Direct Preference Optimization With Estimated Weights [73.9088920210495]
本稿では,TIS-DPO と呼ばれるトークン単位の重要度サンプリング DPO の目的について,その報酬に基づいて各トークンに重要度を割り当てる手法を提案する。
TIS-DPOは、無害性、有用性アライメントおよび要約タスクにおいて、様々なベースライン手法を著しく上回っている。
論文 参考訳(メタデータ) (2024-10-06T04:03:00Z) - DPO Meets PPO: Reinforced Token Optimization for RLHF [35.638723885233475]
本稿では,トークンワイド報酬関数を選好データから学習し,この学習したトークンワイド報酬信号に基づいてポリシー最適化を行うアルゴリズムを提案する。
実験により、texttRTOはPPOや他の直接選好学習アルゴリズムよりも優れていることが示された。
論文 参考訳(メタデータ) (2024-04-29T17:58:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。