論文の概要: Preference Models assume Proportional Hazards of Utilities
- arxiv url: http://arxiv.org/abs/2508.13189v1
- Date: Fri, 15 Aug 2025 00:08:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-20 15:36:31.642351
- Title: Preference Models assume Proportional Hazards of Utilities
- Title(参考訳): 選好モデルによる公共事業の危険度の推定
- Authors: Chirag Nagpal,
- Abstract要約: 私は、Pockett-Luceモデルと、別の古典的でよく知られた統計モデル、Cox Proportional Hazardsモデルとを結びつける。
Reward ModellingやDirect Preference Optimizationといった現代のAIアライメントツールは、Planet-Luceモデルが提案する統計的仮定に基づいている。
- 参考スコア(独自算出の注目度): 2.2299983745857896
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Approaches for estimating preferences from human annotated data typically involves inducing a distribution over a ranked list of choices such as the Plackett-Luce model. Indeed, modern AI alignment tools such as Reward Modelling and Direct Preference Optimization are based on the statistical assumptions posed by the Plackett-Luce model. In this paper, I will connect the Plackett-Luce model to another classical and well known statistical model, the Cox Proportional Hazards model and attempt to shed some light on the implications of the connection therein.
- Abstract(参考訳): 人間の注釈付きデータから好みを推定するためのアプローチは、典型的には、プラケット・リュックモデルのようなランク付けされた選択リスト上の分布を誘導する。
実際、Reward ModellingやDirect Preference Optimizationのような現代のAIアライメントツールは、Planet-Luceモデルによって引き起こされる統計的仮定に基づいている。
本稿では、Pockett-Luceモデルと、Cox Proportional Hazardsモデルという、古典的でよく知られた別の統計モデルとを結びつける。
関連論文リスト
- Detecting Prefix Bias in LLM-based Reward Models [4.596249232904721]
選好データセットに基づいて訓練された報酬モデルにおいて,プレフィックスバイアスを検知し,評価するための新しい手法を提案する。
これらの指標を活用して、人種と性別の異なる嗜好モデルにおける大きなバイアスを明らかにします。
本研究は,公正かつ信頼性の高い報酬モデルを開発する上で,バイアス対応データセットの設計と評価を重要視するものである。
論文 参考訳(メタデータ) (2025-05-13T21:50:03Z) - Optimizing Sequential Recommendation Models with Scaling Laws and Approximate Entropy [104.48511402784763]
SRモデルの性能法則は,モデルの性能とデータ品質の関係を理論的に調査し,モデル化することを目的としている。
データ品質を評価するために、従来のデータ量メトリクスと比較して、より曖昧なアプローチを示すために、近似エントロピー(ApEn)を提案する。
論文 参考訳(メタデータ) (2024-11-30T10:56:30Z) - Influence Functions for Scalable Data Attribution in Diffusion Models [52.92223039302037]
拡散モデルは、生成的モデリングに大きな進歩をもたらした。
しかし、彼らの普及はデータ属性と解釈可能性に関する課題を引き起こす。
これらの課題に対処するための影響関数フレームワークを開発する。
論文 参考訳(メタデータ) (2024-10-17T17:59:02Z) - Bridging Model-Based Optimization and Generative Modeling via Conservative Fine-Tuning of Diffusion Models [54.132297393662654]
本稿では,RLによる報酬モデルの最適化により,最先端拡散モデルを微調整するハイブリッド手法を提案する。
我々は、報酬モデルの補間能力を活用し、オフラインデータにおいて最良の設計を上回るアプローチの能力を実証する。
論文 参考訳(メタデータ) (2024-05-30T03:57:29Z) - The Interpolating Information Criterion for Overparameterized Models [49.283527214211446]
補間情報基準(Interpolating Information Criterion)は,モデル選択に事前選択を自然に取り入れたモデル品質の尺度であることを示す。
我々の新しい情報基準は、モデルの事前の誤特定、幾何学的およびスペクトル的特性を考慮に入れており、既知の経験的および理論的挙動と数値的に一致している。
論文 参考訳(メタデータ) (2023-07-15T12:09:54Z) - Debiased Recommendation with Neural Stratification [19.841871819722016]
我々は、露光密度を増大させることにより、より正確なIPS計算のためにユーザをクラスタ化することを提案する。
提案手法の有効性を実証するために,実世界のデータセットに基づく広範囲な実験を行った。
論文 参考訳(メタデータ) (2022-08-15T15:45:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。