論文の概要: Are Large Language Models Moral Hypocrites? A Study Based on Moral Foundations
- arxiv url: http://arxiv.org/abs/2405.11100v2
- Date: Tue, 22 Oct 2024 00:02:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-23 14:26:27.819747
- Title: Are Large Language Models Moral Hypocrites? A Study Based on Moral Foundations
- Title(参考訳): 大規模言語モデルは道徳的偽善であるか? : 道徳的基礎に基づく研究
- Authors: José Luiz Nunes, Guilherme F. C. F. Almeida, Marcelo de Araujo, Simone D. J. Barbosa,
- Abstract要約: 我々は,現在最先端の大規模言語モデル (LLM) が道徳的偽善であるかどうかを検討する。
モラル基礎理論に基づく2つの研究機器を採用。
- 参考スコア(独自算出の注目度): 0.5278650675825148
- License:
- Abstract: Large language models (LLMs) have taken centre stage in debates on Artificial Intelligence. Yet there remains a gap in how to assess LLMs' conformity to important human values. In this paper, we investigate whether state-of-the-art LLMs, GPT-4 and Claude 2.1 (Gemini Pro and LLAMA 2 did not generate valid results) are moral hypocrites. We employ two research instruments based on the Moral Foundations Theory: (i) the Moral Foundations Questionnaire (MFQ), which investigates which values are considered morally relevant in abstract moral judgements; and (ii) the Moral Foundations Vignettes (MFVs), which evaluate moral cognition in concrete scenarios related to each moral foundation. We characterise conflicts in values between these different abstractions of moral evaluation as hypocrisy. We found that both models displayed reasonable consistency within each instrument compared to humans, but they displayed contradictory and hypocritical behaviour when we compared the abstract values present in the MFQ to the evaluation of concrete moral violations of the MFV.
- Abstract(参考訳): 大規模言語モデル(LLM)は人工知能に関する議論の中心をなしている。
しかし、重要な人間の価値に対するLLMの適合性を評価する方法には、まだギャップがある。
本稿では,現在最先端のLCMであるGPT-4とClaude 2.1(Gemini ProとLAMA 2は有効ではない)が道徳的偽善であるかどうかを検討する。
モラル基礎理論に基づく2つの研究機器を採用。
一 抽象的道徳的判断にどの価値観が道徳的関係があるかを調べる道徳的基礎質問紙(MFQ)
(II)モラル財団ヴィグネット(MFV)は,各モラル財団に関する具体的なシナリオにおいて,道徳的認知を評価する。
我々は、これらの異なる道徳的評価の抽象概念間の価値の対立を偽善として特徴づける。
両モデルとも,MFQの抽象的値とMFVの具体的な道徳的違反の評価とを比較した結果,両モデルが人間と比較して合理的に一致していることが判明した。
関連論文リスト
- Evaluating Moral Beliefs across LLMs through a Pluralistic Framework [22.0799438612003]
本研究では,4つの著名な大規模言語モデルの道徳的信念を評価するために,新しい3つのモジュール・フレームワークを提案する。
我々は、道徳的単語から派生した中国語の道徳的選択シナリオ472のデータセットを構築した。
これらの道徳的選択をランク付けすることで、異なる言語モデルによって保持される様々な道徳的信念を識別する。
論文 参考訳(メタデータ) (2024-11-06T04:52:38Z) - Exploring and steering the moral compass of Large Language Models [55.2480439325792]
大規模言語モデル(LLM)は、様々な分野における自動化と意思決定の推進の中心となっている。
本研究は,その道徳的特徴を評価するために,最も先進的なLCMの総合的比較分析を提案する。
論文 参考訳(メタデータ) (2024-05-27T16:49:22Z) - Morality is Non-Binary: Building a Pluralist Moral Sentence Embedding
Space using Contrastive Learning [4.925187725973777]
複数の道徳哲学者は、人間の道徳性は有限個の要素に分解できると主張している。
我々は、最先端のコントラスト学習アプローチにより、多元的道徳文埋め込み空間を構築する。
以上の結果から,モラルに対する多元的アプローチを埋め込み空間で捉えることが可能であることが示唆された。
論文 参考訳(メタデータ) (2024-01-30T18:15:25Z) - What Makes it Ok to Set a Fire? Iterative Self-distillation of Contexts
and Rationales for Disambiguating Defeasible Social and Moral Situations [48.686872351114964]
道徳的または倫理的な判断は、それらが起こる特定の文脈に大きく依存する。
我々は,行動が多かれ少なかれ道徳的に容認されるような,根底的な文脈を提供するという,デファシブルな道徳的推論を導入する。
文脈化と論理の1.2M項目からなる高品質なデータセットを115Kデファシブルな道徳行動のために蒸留する。
論文 参考訳(メタデータ) (2023-10-24T00:51:29Z) - Moral Foundations of Large Language Models [6.6445242437134455]
道徳的基礎理論(MFT)は、人間の道徳的推論を5つの要素に分解する心理学的評価ツールである。
大規模な言語モデル(LLM)は、インターネットから収集されたデータセットに基づいて訓練されるため、そのようなコーパスに存在するバイアスを反映する可能性がある。
本稿では、MFTをレンズとして用いて、人気のあるLLMが特定の道徳的価値観に対して偏見を得たかどうかを分析する。
論文 参考訳(メタデータ) (2023-10-23T20:05:37Z) - Probing the Moral Development of Large Language Models through Defining
Issues Test [21.108525674360898]
我々の研究は、初期のLSMは、ランダムなベースラインよりも道徳的推論能力があることを示している。
実際、GPT-4は、典型的な大学院生に匹敵する、伝統的な道徳的推論スコアが最も高い。
論文 参考訳(メタデータ) (2023-09-23T12:17:10Z) - Rethinking Machine Ethics -- Can LLMs Perform Moral Reasoning through the Lens of Moral Theories? [78.3738172874685]
倫理的AIシステムの開発には倫理的判断が不可欠である。
一般的なアプローチは主にボトムアップ方式で実装されており、モラルに関するクラウドソースの意見に基づいて、大量の注釈付きデータを使用してモデルをトレーニングする。
本研究は、学際的な研究から確立された道徳理論を用いて道徳的推論を行うために、言語モデル(LM)を操る柔軟なトップダウンフレームワークを提案する。
論文 参考訳(メタデータ) (2023-08-29T15:57:32Z) - MoralDial: A Framework to Train and Evaluate Moral Dialogue Systems via
Moral Discussions [71.25236662907056]
ユーザの価値観に合わせた道徳的対話システムは、会話のエンゲージメントとユーザ接続を高めることができる。
道徳的対話システムを訓練・評価するための枠組みであるMoralDialを提案する。
論文 参考訳(メタデータ) (2022-12-21T02:21:37Z) - ClarifyDelphi: Reinforced Clarification Questions with Defeasibility
Rewards for Social and Moral Situations [81.70195684646681]
本稿では,ClarifyDelphiという対話型システムについて紹介する。
我々は、潜在的な答えが道徳的判断の多様化に繋がる質問が最も有益であると仮定する。
私たちの研究は究極的には、道徳的認知の柔軟性を研究してきた認知科学の研究にインスピレーションを受けています。
論文 参考訳(メタデータ) (2022-12-20T16:33:09Z) - When to Make Exceptions: Exploring Language Models as Accounts of Human
Moral Judgment [96.77970239683475]
AIシステムは人間の道徳的判断や決定を理解し、解釈し、予測しなければなりません。
AIの安全性に対する中心的な課題は、人間の道徳心の柔軟性を捉えることだ。
ルール破りの質問応答からなる新しい課題セットを提案する。
論文 参考訳(メタデータ) (2022-10-04T09:04:27Z) - Moral Mimicry: Large Language Models Produce Moral Rationalizations
Tailored to Political Identity [0.0]
本研究は,アメリカの政治集団に付随する道徳的偏見を,大規模言語モデルが再現するかどうかを考察する。
モラル・ファンデーションズ・セオリー(英語版)の道具を用いて、これらのLSMは確かに道徳的な模倣であることを示した。
論文 参考訳(メタデータ) (2022-09-24T23:55:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。