論文の概要: Growth First, Care Second? Tracing the Landscape of LLM Value Preferences in Everyday Dilemmas
- arxiv url: http://arxiv.org/abs/2602.04456v1
- Date: Wed, 04 Feb 2026 11:41:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-05 19:45:11.507321
- Title: Growth First, Care Second? Tracing the Landscape of LLM Value Preferences in Everyday Dilemmas
- Title(参考訳): 成長第一か, 第二か? 日々のジレンマにおけるLLM値のランドスケープの追跡
- Authors: Zhiyi Chen, Eun Cheol Choi, Yingjia Luo, Xinyi Wang, Yulei Xiao, Aizi Yang, Luca Luceri,
- Abstract要約: 4つのアドバイス指向サブレディットから得られたキュレートデータセットを用いて、アドバイスに基づく価値トレードオフ構造を検討する。
我々は、ジレンマ内でどのように共起するかを特徴付けるために、値共起ネットワークを構築した。
モデルとコンテキストによって、LLMはベネバレンスとコネクションよりも探索と成長に関する価値を常に優先順位付けしています。
- 参考スコア(独自算出の注目度): 5.1141034187487175
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: People increasingly seek advice online from both human peers and large language model (LLM)-based chatbots. Such advice rarely involves identifying a single correct answer; instead, it typically requires navigating trade-offs among competing values. We aim to characterize how LLMs navigate value trade-offs across different advice-seeking contexts. First, we examine the value trade-off structure underlying advice seeking using a curated dataset from four advice-oriented subreddits. Using a bottom-up approach, we inductively construct a hierarchical value framework by aggregating fine-grained values extracted from individual advice options into higher-level value categories. We construct value co-occurrence networks to characterize how values co-occur within dilemmas and find substantial heterogeneity in value trade-off structures across advice-seeking contexts: a women-focused subreddit exhibits the highest network density, indicating more complex value conflicts; women's, men's, and friendship-related subreddits exhibit highly correlated value-conflict patterns centered on security-related tensions (security vs. respect/connection/commitment); by contrast, career advice forms a distinct structure where security frequently clashes with self-actualization and growth. We then evaluate LLM value preferences against these dilemmas and find that, across models and contexts, LLMs consistently prioritize values related to Exploration & Growth over Benevolence & Connection. This systemically skewed value orientation highlights a potential risk of value homogenization in AI-mediated advice, raising concerns about how such systems may shape decision-making and normative outcomes at scale.
- Abstract(参考訳): 人々は、人間ピアと大きな言語モデル(LLM)ベースのチャットボットの両方から、オンラインでアドバイスを求めています。
このようなアドバイスは、単一の正しい回答を特定することがほとんどなく、代わりに、通常、競合する値間のトレードオフをナビゲートする必要があります。
LLMがさまざまなアドバイス検索コンテキストで価値トレードオフをナビゲートする方法を特徴付けることを目的としている。
まず,4つのアドバイス指向サブレディットから得られたキュレートデータセットを用いて,アドバイスに基づく価値トレードオフ構造を検討する。
ボトムアップアプローチを用いて、個別のアドバイスオプションから抽出したきめ細かい値を高レベルな価値カテゴリに集約することで、階層的価値の枠組みを誘導的に構築する。
女性中心のサブレディットは、より高いネットワーク密度を示し、より複雑な価値衝突を示す。女性、男性、友情関係のサブレディットは、セキュリティ関連の緊張(セキュリティ対敬意/接続/コミット)に焦点を当てた極めて相関性の高いバリューコンフリクトパターンを示す。
次に、これらのジレンマに対してLLM値の嗜好を評価し、モデルとコンテキストにおいて、LLMはベネボレンス・アンド・コネクションよりも探索・成長に関する価値を一貫して優先順位付けする。
この体系的に歪んだ価値指向は、AIによるアドバイスにおける価値均質化の潜在的なリスクを強調し、そのようなシステムが意思決定や規範的な成果を大規模に形成するのではないかという懸念を提起する。
関連論文リスト
- Counterfactual Reasoning for Steerable Pluralistic Value Alignment of Large Language Models [43.01088871836861]
COUPLEは、Puuralistic valuEアライメントのためのCOUnterfactual reasoning frameworkである。
特徴間の複雑な相互依存と優先順位付け、高レベルの価値次元と振る舞いの因果関係が特徴である。
明確な因果モデリングから恩恵を受けるため、COUPLEはより良い解釈可能性も提供する。
論文 参考訳(メタデータ) (2025-10-21T11:12:45Z) - Unintended Harms of Value-Aligned LLMs: Psychological and Empirical Insights [30.69754256601697]
LLM(Large Language Models)の適用範囲は拡大を続けており、人間の価値に合わせてパーソナライズされたLLMへの関心が高まっている。
これらのモデルを個々の値と整合させると、特定の値が有害な情報と相関する可能性があるため、重大な安全性上の懸念が生じる。
本研究は、価値アライメントの「ブラックボックス」に関する知見を提供し、価値アライメントLLMの安全性を高めるためのコンテキスト内アライメント手法を提案する。
論文 参考訳(メタデータ) (2025-06-06T07:03:12Z) - CLASH: Evaluating Language Models on Judging High-Stakes Dilemmas from Multiple Perspectives [3.7931130268412194]
CLASHは345個のハイインパクトジレンマと3,795個の異なる値の個々の視点からなるデータセットである。
CLASHは、価値に基づく意思決定プロセスの批判的かつ未調査な側面の研究を可能にする。
GPT-5やClaude-4-Sonnetのような強力なプロプライエタリモデルでさえ、曖昧な決定に苦戦している。
論文 参考訳(メタデータ) (2025-04-15T02:54:16Z) - Value Compass Benchmarks: A Platform for Fundamental and Validated Evaluation of LLMs Values [76.70893269183684]
大きな言語モデル(LLM)は驚くべきブレークスルーを達成する。
価値を人間に合わせることは 責任ある開発に欠かせないものになっています
3つの望ましい目標を達成するLLMの評価はいまだに欠けている。
論文 参考訳(メタデータ) (2025-01-13T05:53:56Z) - Value FULCRA: Mapping Large Language Models to the Multidimensional
Spectrum of Basic Human Values [47.779186412943076]
本稿では,新しい基本値アライメントパラダイムと,基本値次元にまたがる値空間を提案する。
人文科学における人文科学と社会科学の基本的価値観に触発され、この研究は、新しい基本的価値アライメントパラダイムと、基本的価値次元にまたがる価値空間を提案する。
今後の研究を促進するために、代表的シュワルツの基本値理論を例として応用し、5k(LLM出力、値ベクトル)ペアからなるデータセットであるFULCRAを構築する。
論文 参考訳(メタデータ) (2023-11-15T10:29:28Z) - Heterogeneous Value Alignment Evaluation for Large Language Models [91.96728871418]
大規模言語モデル(LLM)は、その価値を人間のものと整合させることを重要視している。
本研究では,LLMと不均一値の整合性を評価するため,不均一値アライメント評価(HVAE)システムを提案する。
論文 参考訳(メタデータ) (2023-05-26T02:34:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。