論文の概要: Deep Value Benchmark: Measuring Whether Models Generalize Deep values or Shallow Preferences
- arxiv url: http://arxiv.org/abs/2511.02109v1
- Date: Mon, 03 Nov 2025 22:49:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-05 18:47:05.700696
- Title: Deep Value Benchmark: Measuring Whether Models Generalize Deep values or Shallow Preferences
- Title(参考訳): ディープバリューベンチマーク: モデルがディープバリューを一般化するかどうかを計測する
- Authors: Joshua Ashkinaze, Hua Shen, Sai Avula, Eric Gilbert, Ceren Budak,
- Abstract要約: 評価フレームワークであるDeep Value Benchmark(DVB)を導入し、大きな言語モデルが基本的人間の価値を学習するか、単に表面レベルの嗜好を学習するかを直接テストする。
モデルのDVGR(Deep Value Generalization Rate)を測定する -- 浅い特徴ではなく、基礎となる値に基づいて一般化する確率。
この設計により、モデルのDVGR(Deep Value Generalization Rate)を正確に測定することができます。
- 参考スコア(独自算出の注目度): 9.262265774803538
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We introduce the Deep Value Benchmark (DVB), an evaluation framework that directly tests whether large language models (LLMs) learn fundamental human values or merely surface-level preferences. This distinction is critical for AI alignment: Systems that capture deeper values are likely to generalize human intentions robustly, while those that capture only superficial patterns in preference data risk producing misaligned behavior. The DVB uses a novel experimental design with controlled confounding between deep values (e.g., moral principles) and shallow features (e.g., superficial attributes). In the training phase, we expose LLMs to human preference data with deliberately correlated deep and shallow features -- for instance, where a user consistently prefers (non-maleficence, formal language) options over (justice, informal language) alternatives. The testing phase then breaks these correlations, presenting choices between (justice, formal language) and (non-maleficence, informal language) options. This design allows us to precisely measure a model's Deep Value Generalization Rate (DVGR) -- the probability of generalizing based on the underlying value rather than the shallow feature. Across 9 different models, the average DVGR is just 0.30. All models generalize deep values less than chance. Larger models have a (slightly) lower DVGR than smaller models. We are releasing our dataset, which was subject to three separate human validation experiments. DVB provides an interpretable measure of a core feature of alignment.
- Abstract(参考訳): 我々は,大規模言語モデル(LLM)が基本的人間の価値観を学習するか,単に表面レベルの嗜好を学習するかを直接テストする評価フレームワークであるDeep Value Benchmark(DVB)を紹介した。
この区別はAIのアライメントにとって重要である: より深い価値を捉えたシステムは、人間の意図をしっかりと一般化する可能性が高い。
DVBは、深い価値(例えば道徳的原則)と浅い特徴(例えば表面的な属性)の相違を制御した新しい実験設計を使用している。
トレーニングフェーズでは、故意に相関した深い特徴と浅い特徴を持つ人間の嗜好データにLLMを公開します。
テストフェーズはこれらの相関関係を破り、(正当性、形式言語)と(非正当性、非公式言語)の選択肢を提示する。
この設計により、モデルのDVGR(Deep Value Generalization Rate)を正確に測定することができます。
9種類の異なるモデルで、平均的なDVGRは0.30である。
すべてのモデルは、チャンスよりも少ない深さの値を一般化する。
大型モデルは小型モデルよりも(わずかに)DVGRが低い。
私たちは3つの人間による検証実験の対象となるデータセットをリリースしています。
DVBは、アライメントのコア特徴の解釈可能な測度を提供する。
関連論文リスト
- Revisiting LLM Value Probing Strategies: Are They Robust and Expressive? [81.49470136653665]
広範に利用されている3つの探索戦略における値表現の頑健さと表現性を評価する。
人口統計学的文脈は自由テキスト生成にはほとんど影響を与えず、モデルの値は値に基づく行動の好みと弱い相関しか示さない。
論文 参考訳(メタデータ) (2025-07-17T18:56:41Z) - R3: Robust Rubric-Agnostic Reward Models [17.958272227199746]
$shortmethodname$は、ルックスに依存しない、評価次元で一般化可能な新しい報酬モデリングフレームワークで、解釈可能な、推論されたスコアの割り当てを提供する。
私たちのモデル、データ、コードはhttps://github.com/rubricreward/r3.comでオープンソースとして公開されています。
論文 参考訳(メタデータ) (2025-05-19T17:29:03Z) - Spread Preference Annotation: Direct Preference Judgment for Efficient LLM Alignment [72.99676237703099]
大規模言語モデルと人間の嗜好の整合性を高める新しいフレームワークを提案する。
私たちのキーとなるアイデアは、小さな(種)データの中で人間の事前知識を活用することです。
本稿では,ノイズ認識型選好学習アルゴリズムを導入し,生成した選好データにおける品質低下のリスクを軽減する。
論文 参考訳(メタデータ) (2024-06-06T18:01:02Z) - Preference Learning Algorithms Do Not Learn Preference Rankings [62.335733662381884]
選好学習は、好ましくない出力よりも、好ましくない出力により高い確率を割り当てるようにモデルを訓練する、という従来の知恵を考察する。
多くの最先端の選好調整モデルでは、一般的な選好データセットでは60%未満のランキング精度が得られている。
論文 参考訳(メタデータ) (2024-05-29T21:29:44Z) - Dissecting Human and LLM Preferences [80.55271307662365]
人間は誤りに敏感ではなく、自分の姿勢を支持する反応を好んでおり、モデルが限界を認めている場合、明確な嫌悪を示します。
GPT-4-Turboのような先進的なLCMは、より正確さ、明快さ、無害さを強調している。
嗜好に基づく評価は意図的に操作可能であることを示す。
論文 参考訳(メタデータ) (2024-02-17T14:34:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。