論文の概要: DailyDilemmas: Revealing Value Preferences of LLMs with Quandaries of Daily Life
- arxiv url: http://arxiv.org/abs/2410.02683v1
- Date: Thu, 3 Oct 2024 17:08:52 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-04 01:32:59.548403
- Title: DailyDilemmas: Revealing Value Preferences of LLMs with Quandaries of Daily Life
- Title(参考訳): DailyDilemmas: LLMの価値観と生活の基準を明らかにする
- Authors: Yu Ying Chiu, Liwei Jiang, Yejin Choi,
- Abstract要約: 日常生活で遭遇した1,360の道徳的ジレンマのデータセットであるDailyDilemmasを提示する。
それぞれのジレンマは2つの可能なアクションを含み、それぞれのアクションでは、影響を受ける当事者と人間の価値が呼び出される。
我々は、社会学、心理学、哲学に触発された5つの一般的な理論のレンズを通して、これらの価値を分析した。
- 参考スコア(独自算出の注目度): 46.11149958010897
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As we increasingly seek guidance from LLMs for decision-making in daily life, many of these decisions are not clear-cut and depend significantly on the personal values and ethical standards of the users. We present DailyDilemmas, a dataset of 1,360 moral dilemmas encountered in everyday life. Each dilemma includes two possible actions and with each action, the affected parties and human values invoked. Based on these dilemmas, we consolidated a set of human values across everyday topics e.g., interpersonal relationships, workplace, and environmental issues. We evaluated LLMs on these dilemmas to determine what action they will take and the values represented by these actions. Then, we analyzed these values through the lens of five popular theories inspired by sociology, psychology and philosophy. These theories are: World Value Survey, Moral Foundation Theory, Maslow's Hierarchy of Needs, Aristotle's Virtues, and Plutchik Wheel of Emotion. We find that LLMs are most aligned with the self-expression over survival values in terms of World Value Survey, care over loyalty in Moral Foundation Theory. Interestingly, we find large preferences differences in models for some core values such as truthfulness e.g., Mixtral-8x7B model tends to neglect it by 9.7% while GPT-4-turbo model tends to select it by 9.4%. We also study the recent guidance released by OpenAI (ModelSpec), and Anthropic (Constitutional AI) to understand how their released principles reflect their actual value prioritization when facing nuanced moral reasoning in daily-life settings. We find that end users cannot effectively steer such prioritization using system prompts.
- Abstract(参考訳): 日常生活における意思決定のためのLCMからのガイダンスをますます求めている中、これらの決定の多くは明確ではなく、ユーザの個人的価値観や倫理基準に大きく依存している。
日常生活で遭遇した1,360の道徳的ジレンマのデータセットであるDailyDilemmasを提示する。
それぞれのジレンマは2つの可能なアクションを含み、それぞれのアクションでは、影響を受ける当事者と人間の価値が呼び出される。
これらのジレンマに基づいて、日々の話題、対人関係、職場、環境問題など、人間の価値のセットを統合した。
我々はこれらのジレンマ上でLCMを評価し、それらがどのようなアクションをとるか、これらのアクションで表される値を決定する。
そして、社会学、心理学、哲学に触発された5つの一般的な理論のレンズを通して、これらの価値を分析した。
これらの理論は、世界価値調査、道徳的基礎理論、マスローの必要の階層、アリストテレスの処女、プリュッチクの感情の車輪である。
LLMは、世界価値調査(World Value Survey)やモラル財団理論(Moral Foundation Theory)において、生存価値に対する自己表現と最もよく一致している。
興味深いことに、Mixtral-8x7Bモデルは9.7%、GPT-4-turboモデルは9.4%である。
また,OpenAI (ModelSpec) と Anthropic (Constitutional AI) が最近リリースしたガイドラインを考察し,それらの原則が日常生活における道徳的理由の曖昧さに直面する際の実際の価値の優先順位付けをどのように反映しているかを考察した。
エンドユーザーはシステムプロンプトを用いてこのような優先順位付けを効果的に行うことはできない。
関連論文リスト
- FairMindSim: Alignment of Behavior, Emotion, and Belief in Humans and LLM Agents Amid Ethical Dilemmas [23.26678104324838]
FairMindSimを導入し、不公平なシナリオを通じて道徳的ジレンマをシミュレートした。
我々はLLMエージェントを用いて人間の行動をシミュレートし,様々な段階のアライメントを確保した。
以上の結果から,GPT-4oは社会的正義の感覚が強く,人間はより豊かな感情を呈することが明らかとなった。
論文 参考訳(メタデータ) (2024-10-14T11:39:05Z) - Exploring and steering the moral compass of Large Language Models [55.2480439325792]
大規模言語モデル(LLM)は、様々な分野における自動化と意思決定の推進の中心となっている。
本研究は,その道徳的特徴を評価するために,最も先進的なLCMの総合的比較分析を提案する。
論文 参考訳(メタデータ) (2024-05-27T16:49:22Z) - Political Compass or Spinning Arrow? Towards More Meaningful Evaluations for Values and Opinions in Large Language Models [61.45529177682614]
我々は,大規模言語モデルにおける価値と意見の制約評価パラダイムに挑戦する。
強制されない場合、モデルが実質的に異なる答えを与えることを示す。
我々はこれらの知見をLLMの価値と意見を評価するための推奨とオープンな課題に抽出する。
論文 参考訳(メタデータ) (2024-02-26T18:00:49Z) - MoCa: Measuring Human-Language Model Alignment on Causal and Moral
Judgment Tasks [49.60689355674541]
認知科学の豊富な文献は人々の因果関係と道徳的直観を研究してきた。
この研究は、人々の判断に体系的に影響を及ぼす多くの要因を明らかにした。
大規模言語モデル(LLM)が、人間の参加者と一致するテキストベースのシナリオについて因果的、道徳的な判断を下すかどうかを検証する。
論文 参考訳(メタデータ) (2023-10-30T15:57:32Z) - Moral Foundations of Large Language Models [6.6445242437134455]
道徳的基礎理論(MFT)は、人間の道徳的推論を5つの要素に分解する心理学的評価ツールである。
大規模な言語モデル(LLM)は、インターネットから収集されたデータセットに基づいて訓練されるため、そのようなコーパスに存在するバイアスを反映する可能性がある。
本稿では、MFTをレンズとして用いて、人気のあるLLMが特定の道徳的価値観に対して偏見を得たかどうかを分析する。
論文 参考訳(メタデータ) (2023-10-23T20:05:37Z) - Denevil: Towards Deciphering and Navigating the Ethical Values of Large
Language Models via Instruction Learning [36.66806788879868]
大きな言語モデル(LLM)は前例のない突破口をたどったが、彼らの日常生活への統合は非倫理的コンテンツによって社会的リスクを引き起こす可能性がある。
この研究はモラル・ファンデーション理論を利用した倫理的価値を論じている。
論文 参考訳(メタデータ) (2023-10-17T07:42:40Z) - Value Kaleidoscope: Engaging AI with Pluralistic Human Values, Rights, and Duties [68.66719970507273]
価値多元性とは、複数の正しい値が互いに緊張して保持されるという考え方である。
統計的学習者として、AIシステムはデフォルトで平均に適合する。
ValuePrismは、218kの値、権利、義務の大規模なデータセットで、31kの人間が記述した状況に関連付けられています。
論文 参考訳(メタデータ) (2023-09-02T01:24:59Z) - Heterogeneous Value Alignment Evaluation for Large Language Models [91.96728871418]
大規模言語モデル(LLM)は、その価値を人間のものと整合させることを重要視している。
本研究では,LLMと不均一値の整合性を評価するため,不均一値アライメント評価(HVAE)システムを提案する。
論文 参考訳(メタデータ) (2023-05-26T02:34:20Z) - That's All Folks: a KG of Values as Commonsense Social Norms and
Behaviors [0.34265828682659694]
FOLK と That's All Folks という2つの存在論的加群を提案する。
FOLKは広義に意図された値のオントロジーであり、That's All Folksは語彙的および事実的なフォークバリュートリガのモジュールである。
このリソースは、フレームベースのアプローチでテキストから値を自動的に検出することでテストされる。
論文 参考訳(メタデータ) (2023-03-01T16:35:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。