論文の概要: Western, Religious or Spiritual: An Evaluation of Moral Justification in
Large Language Models
- arxiv url: http://arxiv.org/abs/2311.07792v1
- Date: Mon, 13 Nov 2023 23:01:19 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-15 16:08:22.975490
- Title: Western, Religious or Spiritual: An Evaluation of Moral Justification in
Large Language Models
- Title(参考訳): 西洋、宗教、精神--大言語モデルにおける道徳的正当化の評価
- Authors: Eyup Engin Kucuk, Muhammed Yusuf Kocyigit
- Abstract要約: 本稿では,道徳的正当化の過程で,Large Language Models (LLM) にどの値や原則が組み込まれているかを明らかにすることを目的とする。
西洋の伝統観(WT)、アブラハムの伝統観(AT)、スピリチュアリスト/神秘観(SMT)の3つの異なる道徳観念カテゴリを考案した。
- 参考スコア(独自算出の注目度): 5.257719744958368
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The increasing success of Large Language Models (LLMs) in variety of tasks
lead to their widespread use in our lives which necessitates the examination of
these models from different perspectives. The alignment of these models to
human values is an essential concern in order to establish trust that we have
safe and responsible systems. In this paper, we aim to find out which values
and principles are embedded in LLMs in the process of moral justification. For
this purpose, we come up with three different moral perspective categories:
Western tradition perspective (WT), Abrahamic tradition perspective (AT), and
Spiritualist/Mystic tradition perspective (SMT). In two different experiment
settings, we asked models to choose principles from the three for suggesting a
moral action and evaluating the moral permissibility of an action if one tries
to justify an action on these categories, respectively. Our experiments
indicate that tested LLMs favors the Western tradition moral perspective over
others. Additionally, we observe that there potentially exists an
over-alignment towards religious values represented in the Abrahamic Tradition,
which causes models to fail to recognize an action is immoral if it is
presented as a "religious-action". We believe that these results are essential
in order to direct our attention in future efforts.
- Abstract(参考訳): 様々なタスクにおけるLarge Language Models(LLMs)の成功は、これらのモデルをさまざまな視点から検証する必要のある私たちの生活に広く使われるようになる。
これらのモデルの人間的価値へのアライメントは、安全で責任のあるシステムを持つという信頼を確立する上で重要な関心事です。
本稿では,道徳的正当化の過程でLLMにどの価値観や原則が組み込まれているかを明らかにすることを目的とする。
この目的のために、西洋的伝統観(wt)、エイブラハム的伝統観(at)、スピリチュアリスト/神秘的伝統観(smt)の3つの異なる道徳的視点を考案した。
2つの異なる実験環境で、我々はモデルに、道徳的行動を提案する3つの原則と、これらのカテゴリーにおける行動の正当化を試みる場合の行動の道徳的許容性を評価することを依頼した。
実験の結果,LLMは他者よりも西洋の伝統観を好んでいることがわかった。
さらに、アブラハムの伝統に表される宗教的な価値観に対する過度な調整が存在する可能性があり、それが「宗教的な行動」として提示された場合、モデルが行動が不道徳であると認識できなくなる。
これらの結果は、今後の取り組みに注意を向けるために不可欠であると考えています。
関連論文リスト
- Evaluating Moral Beliefs across LLMs through a Pluralistic Framework [22.0799438612003]
本研究では,4つの著名な大規模言語モデルの道徳的信念を評価するために,新しい3つのモジュール・フレームワークを提案する。
我々は、道徳的単語から派生した中国語の道徳的選択シナリオ472のデータセットを構築した。
これらの道徳的選択をランク付けすることで、異なる言語モデルによって保持される様々な道徳的信念を識別する。
論文 参考訳(メタデータ) (2024-11-06T04:52:38Z) - DailyDilemmas: Revealing Value Preferences of LLMs with Quandaries of Daily Life [46.11149958010897]
日常生活で遭遇した1,360の道徳的ジレンマのデータセットであるDailyDilemmasを提示する。
それぞれのジレンマは2つの可能なアクションを含み、それぞれのアクションでは、影響を受ける当事者と人間の価値が呼び出される。
我々は、社会学、心理学、哲学に触発された5つの一般的な理論のレンズを通して、これらの価値を分析した。
論文 参考訳(メタデータ) (2024-10-03T17:08:52Z) - Exploring and steering the moral compass of Large Language Models [55.2480439325792]
大規模言語モデル(LLM)は、様々な分野における自動化と意思決定の推進の中心となっている。
本研究は,その道徳的特徴を評価するために,最も先進的なLCMの総合的比較分析を提案する。
論文 参考訳(メタデータ) (2024-05-27T16:49:22Z) - Are Large Language Models Moral Hypocrites? A Study Based on Moral Foundations [0.5278650675825148]
我々は,現在最先端の大規模言語モデル (LLM) が道徳的偽善であるかどうかを検討する。
モラル基礎理論に基づく2つの研究機器を採用。
論文 参考訳(メタデータ) (2024-05-17T21:27:32Z) - What Makes it Ok to Set a Fire? Iterative Self-distillation of Contexts
and Rationales for Disambiguating Defeasible Social and Moral Situations [48.686872351114964]
道徳的または倫理的な判断は、それらが起こる特定の文脈に大きく依存する。
我々は,行動が多かれ少なかれ道徳的に容認されるような,根底的な文脈を提供するという,デファシブルな道徳的推論を導入する。
文脈化と論理の1.2M項目からなる高品質なデータセットを115Kデファシブルな道徳行動のために蒸留する。
論文 参考訳(メタデータ) (2023-10-24T00:51:29Z) - Moral Foundations of Large Language Models [6.6445242437134455]
道徳的基礎理論(MFT)は、人間の道徳的推論を5つの要素に分解する心理学的評価ツールである。
大規模な言語モデル(LLM)は、インターネットから収集されたデータセットに基づいて訓練されるため、そのようなコーパスに存在するバイアスを反映する可能性がある。
本稿では、MFTをレンズとして用いて、人気のあるLLMが特定の道徳的価値観に対して偏見を得たかどうかを分析する。
論文 参考訳(メタデータ) (2023-10-23T20:05:37Z) - Ethical Reasoning over Moral Alignment: A Case and Framework for
In-Context Ethical Policies in LLMs [19.675262411557235]
我々は、LLMを特定の倫理的原則に道徳的に整合させるのではなく、一般的な倫理的推論能力をそれらに注入すべきだと論じている。
我々は、道徳的ジレンマと規範的倫理の異なるフォアメル主義に関連する道徳的原則を統合する枠組みを開発する。
論文 参考訳(メタデータ) (2023-10-11T07:27:34Z) - Rethinking Machine Ethics -- Can LLMs Perform Moral Reasoning through the Lens of Moral Theories? [78.3738172874685]
倫理的AIシステムの開発には倫理的判断が不可欠である。
一般的なアプローチは主にボトムアップ方式で実装されており、モラルに関するクラウドソースの意見に基づいて、大量の注釈付きデータを使用してモデルをトレーニングする。
本研究は、学際的な研究から確立された道徳理論を用いて道徳的推論を行うために、言語モデル(LM)を操る柔軟なトップダウンフレームワークを提案する。
論文 参考訳(メタデータ) (2023-08-29T15:57:32Z) - MoralDial: A Framework to Train and Evaluate Moral Dialogue Systems via
Moral Discussions [71.25236662907056]
ユーザの価値観に合わせた道徳的対話システムは、会話のエンゲージメントとユーザ接続を高めることができる。
道徳的対話システムを訓練・評価するための枠組みであるMoralDialを提案する。
論文 参考訳(メタデータ) (2022-12-21T02:21:37Z) - ClarifyDelphi: Reinforced Clarification Questions with Defeasibility
Rewards for Social and Moral Situations [81.70195684646681]
本稿では,ClarifyDelphiという対話型システムについて紹介する。
我々は、潜在的な答えが道徳的判断の多様化に繋がる質問が最も有益であると仮定する。
私たちの研究は究極的には、道徳的認知の柔軟性を研究してきた認知科学の研究にインスピレーションを受けています。
論文 参考訳(メタデータ) (2022-12-20T16:33:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。