論文の概要: daDPO: Distribution-Aware DPO for Distilling Conversational Abilities
- arxiv url: http://arxiv.org/abs/2506.15717v1
- Date: Tue, 03 Jun 2025 03:39:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-29 09:28:14.788784
- Title: daDPO: Distribution-Aware DPO for Distilling Conversational Abilities
- Title(参考訳): daDPO: 会話能力の蒸留のための分散対応DPO
- Authors: Zhengze Zhang, Shiqi Wang, Yiqun Shen, Simin Guo, Dahua Lin, Xiaoliang Wang, Nguyen Cam-Tu, Fei Tan,
- Abstract要約: 本稿では, 優先最適化と分散蒸留を統一したdaDPO (Distribution-Aware DPO) を提案する。
そこで,daDPOは,刈り取られたモデルの性能回復と,より小型のLCMモデルの改良において,既存の手法よりも優れていることを示す。
- 参考スコア(独自算出の注目度): 48.745922491268004
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large language models (LLMs) have demonstrated exceptional performance across various applications, but their conversational abilities decline sharply as model size decreases, presenting a barrier to their deployment in resource-constrained environments. Knowledge distillation with Direct Preference Optimization (dDPO) has emerged as a promising approach to enhancing the conversational abilities of smaller models using a larger teacher model. However, current methods primarily focus on 'black-box' KD, which only uses the teacher's responses, overlooking the output distribution offered by the teacher. This paper addresses this gap by introducing daDPO (Distribution-Aware DPO), a unified method for preference optimization and distribution-based distillation. We provide rigorous theoretical analysis and empirical validation, showing that daDPO outperforms existing methods in restoring performance for pruned models and enhancing smaller LLM models. Notably, in in-domain evaluation, our method enables a 20% pruned Vicuna1.5-7B to achieve near-teacher performance (-7.3% preference rate compared to that of dDPO's -31%), and allows Qwen2.5-1.5B to occasionally outperform its 7B teacher model (14.0% win rate).
- Abstract(参考訳): 大規模言語モデル(LLM)は様々なアプリケーションで例外的な性能を示してきたが、その対話能力はモデルサイズが減少するにつれて急速に低下し、リソース制約のある環境への展開に障壁が生じる。
直接選好最適化(dDPO)を用いた知識蒸留は,より大規模な教師モデルを用いて,より小規模なモデルの対話能力を高めるための有望なアプローチとして登場した。
しかし,現状の手法は,教師が提示する出力分布を見越して,教師の回答のみを利用する「ブラックボックス」KDに重点を置いている。
本稿では,daDPO (Distribution-Aware DPO) を導入し,このギャップに対処する。
厳密な理論的解析と実証的検証を行い、daDPOは、刈り取られたモデルの性能を回復し、より小さなLCMモデルを向上する上で、既存の手法よりも優れていることを示す。
特に、ドメイン内評価では、20%プルーニングされたVicuna1.5-7BをほぼTeacherのパフォーマンス(dDPOの-31%と比べて7.3%の選好率)を実現し、Qwen2.5-1.5Bが7B教師モデル(14.0%の勝利率)を時折上回らせる。
関連論文リスト
- Understanding the Performance Gap in Preference Learning: A Dichotomy of RLHF and DPO [51.22869332661607]
本研究では,人間からのフィードバックからの強化学習と,表現ギャップ下での直接選好最適化との間の性能ギャップを分解する。
RLHF, DPO, オンラインDPOは, モデルミスのタイプによって, 互いに優れることを示す。
論文 参考訳(メタデータ) (2025-05-26T09:54:02Z) - Towards Self-Improvement of Diffusion Models via Group Preference Optimization [10.6096255671291]
グループ優先最適化(GPO)は、外部データを必要とせずに性能を向上させる効果的な自己改善手法である。
GPOは、安定拡散3.5媒体の正確なカウントとテキストレンダリング能力を20パーセント改善する。
プラグアンドプレイ方式では、推論中に余分なオーバーヘッドは発生しない。
論文 参考訳(メタデータ) (2025-05-16T10:04:57Z) - 3D-Properties: Identifying Challenges in DPO and Charting a Path Forward [17.27880657597116]
我々はDPOを再考し、その理論的基礎と経験的性能を分析した。
DPOの学習過程から生じる3つの重要な特性、いわゆる3D特性を同定する。
トレーニングの安定性と性能を向上させるための簡単な正規化手法を提案する。
論文 参考訳(メタデータ) (2024-06-11T14:59:24Z) - MallowsPO: Fine-Tune Your LLM with Preference Dispersions [9.697663437292848]
直接選好最適化(DPO)は、人間のフィードバックによる強化学習を改善するための一般的なアプローチとして現れている。
Mallowsの選好ランク理論に触発されて、我々は新しいアプローチであるMallowsPOを開発した。
このアプローチの際立った特徴は、人選好のプロンプトへの分散を反映する分散指標である。
論文 参考訳(メタデータ) (2024-05-23T18:01:11Z) - Self-Play Preference Optimization for Language Model Alignment [75.83359213697854]
近年の進歩は、嗜好の確率で直接作業することで、人間の嗜好をより正確に反映できることを示している。
本稿では,言語モデルアライメントのためのセルフプレイ方式を提案する。
我々の手法はSPPO(Self-Play Preference Optimization)と呼ばれ、繰り返しポリシー更新を利用してナッシュ均衡を確実に近似する。
論文 参考訳(メタデータ) (2024-05-01T17:59:20Z) - Model Extrapolation Expedites Alignment [135.12769233630362]
本研究では,人選好によるアライメントトレーニングを迅速化するExPOという手法を提案する。
我々は、ExPOがトレーニングされたDPOモデルを20%のステップで強化し、完全に訓練されたモデルを上回ることを実証した。
ExPO は AlpacaEval 2.0 と MT-Bench ベンチマークにおいて,既存のオープンソース LLM を特に改善している。
論文 参考訳(メタデータ) (2024-04-25T17:39:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。