論文の概要: Deep Value Benchmark: Measuring Whether Models Generalize Deep Values or Shallow Preferences
- arxiv url: http://arxiv.org/abs/2511.02109v2
- Date: Wed, 12 Nov 2025 01:47:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-12 16:10:52.567082
- Title: Deep Value Benchmark: Measuring Whether Models Generalize Deep Values or Shallow Preferences
- Title(参考訳): ディープバリューベンチマーク: モデルがディープバリューを一般化するかどうかを計測する
- Authors: Joshua Ashkinaze, Hua Shen, Sai Avula, Eric Gilbert, Ceren Budak,
- Abstract要約: 評価フレームワークであるDeep Value Benchmark(DVB)を導入し、大きな言語モデルが基本的人間の価値を学習するか、単に表面レベルの嗜好を学習するかを直接テストする。
モデルのDVGR(Deep Value Generalization Rate)を測定する -- 浅い特徴ではなく、基礎となる値に基づいて一般化する確率。
この設計により、モデルのDVGR(Deep Value Generalization Rate)を正確に測定することができます。
- 参考スコア(独自算出の注目度): 9.262265774803538
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We introduce the Deep Value Benchmark (DVB), an evaluation framework that directly tests whether large language models (LLMs) learn fundamental human values or merely surface-level preferences. This distinction is critical for AI alignment: Systems that capture deeper values are likely to generalize human intentions robustly, while those that capture only superficial patterns in preference data risk producing misaligned behavior. The DVB uses a novel experimental design with controlled confounding between deep values (e.g., moral principles) and shallow features (e.g., superficial attributes). In the training phase, we expose LLMs to human preference data with deliberately correlated deep and shallow features -- for instance, where a user consistently prefers (non-maleficence, formal language) options over (justice, informal language) alternatives. The testing phase then breaks these correlations, presenting choices between (justice, formal language) and (non-maleficence, informal language) options. This design allows us to precisely measure a model's Deep Value Generalization Rate (DVGR) -- the probability of generalizing based on the underlying value rather than the shallow feature. Across 9 different models, the average DVGR is just 0.30. All models generalize deep values less than chance. Larger models have a (slightly) lower DVGR than smaller models. We are releasing our dataset, which was subject to three separate human validation experiments. DVB provides an interpretable measure of a core feature of alignment.
- Abstract(参考訳): 我々は,大規模言語モデル(LLM)が基本的人間の価値観を学習するか,単に表面レベルの嗜好を学習するかを直接テストする評価フレームワークであるDeep Value Benchmark(DVB)を紹介した。
この区別はAIのアライメントにとって重要である: より深い価値を捉えたシステムは、人間の意図をしっかりと一般化する可能性が高い。
DVBは、深い価値(例えば道徳的原則)と浅い特徴(例えば表面的な属性)の相違を制御した新しい実験設計を使用している。
トレーニングフェーズでは、故意に相関した深い特徴と浅い特徴を持つ人間の嗜好データにLLMを公開します。
テストフェーズはこれらの相関関係を破り、(正当性、形式言語)と(非正当性、非公式言語)の選択肢を提示する。
この設計により、モデルのDVGR(Deep Value Generalization Rate)を正確に測定することができます。
9種類の異なるモデルで、平均的なDVGRは0.30である。
すべてのモデルは、チャンスよりも少ない深さの値を一般化する。
大型モデルは小型モデルよりも(わずかに)DVGRが低い。
私たちは3つの人間による検証実験の対象となるデータセットをリリースしています。
DVBは、アライメントのコア特徴の解釈可能な測度を提供する。
関連論文リスト
- Latent Geometry of Taste: Scalable Low-Rank Matrix Factorization for Recommender Systems [0.0]
本研究は、MovieLens 32Mデータセットを用いて、ユーザの嗜好の潜時幾何学について検討する。
制約付き低ランクモデルはランク精度において高次元モデルよりも有意に優れていることを示す。
我々は,人気バイアスとパーソナライズされた親和性とのトレードオフを効果的に管理するための調整可能なスコアリングパラメータを導入し,コールドスタートシナリオにおけるシステムの実用性を検証する。
論文 参考訳(メタデータ) (2026-01-06T23:42:40Z) - What's In My Human Feedback? Learning Interpretable Descriptions of Preference Data [20.75601428185122]
In My Human Feedback? (WIMHF)はスパースオートエンコーダを用いてフィードバックデータを説明する方法である。
WIMHFは、(1)データセットが測定できる嗜好と(2)アノテーションが実際に表現する嗜好の両方を特徴付ける。
論文 参考訳(メタデータ) (2025-10-30T07:25:10Z) - On the Role of Preference Variance in Preference Optimization [55.364953481473286]
直接選好最適化(DPO)トレーニングの有効性に対する選好分散(PVar)の影響について検討する。
PVarより高いプロンプトは、ランダムに選択されたプロンプトまたは低いPVarより優れたプロンプトを示す。
論文 参考訳(メタデータ) (2025-10-14T22:34:52Z) - Revisiting LLM Value Probing Strategies: Are They Robust and Expressive? [81.49470136653665]
広範に利用されている3つの探索戦略における値表現の頑健さと表現性を評価する。
人口統計学的文脈は自由テキスト生成にはほとんど影響を与えず、モデルの値は値に基づく行動の好みと弱い相関しか示さない。
論文 参考訳(メタデータ) (2025-07-17T18:56:41Z) - Doubly Robust Alignment for Large Language Models [11.384429991118926]
本稿では,人からのフィードバックから,大規模言語モデルと人間の嗜好を整合させる強化学習について検討する。
本稿では、優先モデルと参照ポリシーのどちらが正しく指定された場合でも、一貫性が保たれる2つの頑健な選好最適化アルゴリズムを提案する。
論文 参考訳(メタデータ) (2025-06-01T21:34:37Z) - Value-Guided Search for Efficient Chain-of-Thought Reasoning [49.971608979012366]
本稿では,長文推論トレースを用いた値モデル学習の簡易かつ効率的な手法を提案する。
250万の推論トレースのデータセットを収集して、1.5Bトークンレベルのバリューモデルをトレーニングします。
最終多数決を重み付けしたブロックワイド値誘導検索(VGS)は,標準手法よりも優れたテスト時間スケーリングを実現する。
論文 参考訳(メタデータ) (2025-05-23T01:05:07Z) - R3: Robust Rubric-Agnostic Reward Models [17.958272227199746]
$shortmethodname$は、ルックスに依存しない、評価次元で一般化可能な新しい報酬モデリングフレームワークで、解釈可能な、推論されたスコアの割り当てを提供する。
私たちのモデル、データ、コードはhttps://github.com/rubricreward/r3.comでオープンソースとして公開されています。
論文 参考訳(メタデータ) (2025-05-19T17:29:03Z) - DataDecide: How to Predict Best Pretraining Data with Small Experiments [67.95896457895404]
私たちはDataDecideのモデル、データ、評価を公開しています。
最大100Bトークン,最大1Bパラメータのモデルサイズ,および3つのランダムシードを用いて,25コーパスにわたる事前学習実験を行った。
論文 参考訳(メタデータ) (2025-04-15T17:02:15Z) - Spread Preference Annotation: Direct Preference Judgment for Efficient LLM Alignment [72.99676237703099]
大規模言語モデルと人間の嗜好の整合性を高める新しいフレームワークを提案する。
私たちのキーとなるアイデアは、小さな(種)データの中で人間の事前知識を活用することです。
本稿では,ノイズ認識型選好学習アルゴリズムを導入し,生成した選好データにおける品質低下のリスクを軽減する。
論文 参考訳(メタデータ) (2024-06-06T18:01:02Z) - Preference Learning Algorithms Do Not Learn Preference Rankings [62.335733662381884]
選好学習は、好ましくない出力よりも、好ましくない出力により高い確率を割り当てるようにモデルを訓練する、という従来の知恵を考察する。
多くの最先端の選好調整モデルでは、一般的な選好データセットでは60%未満のランキング精度が得られている。
論文 参考訳(メタデータ) (2024-05-29T21:29:44Z) - Dissecting Human and LLM Preferences [80.55271307662365]
人間は誤りに敏感ではなく、自分の姿勢を支持する反応を好んでおり、モデルが限界を認めている場合、明確な嫌悪を示します。
GPT-4-Turboのような先進的なLCMは、より正確さ、明快さ、無害さを強調している。
嗜好に基づく評価は意図的に操作可能であることを示す。
論文 参考訳(メタデータ) (2024-02-17T14:34:31Z) - Inferring Data Preconditions from Deep Learning Models for Trustworthy
Prediction in Deployment [25.527665632625627]
デプロイ中に見つからないデータを使って、モデルの予測の信頼性を判断することが重要です。
従来のソフトウェアを特定し検証する既存の方法は、このタスクには不十分である。
本稿では、ニューラルネットワーク計算から導出されるルールを用いて、データ前提条件を推論する新しい手法を提案する。
論文 参考訳(メタデータ) (2024-01-26T03:47:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。