論文の概要: Are Language Models Consequentialist or Deontological Moral Reasoners?
- arxiv url: http://arxiv.org/abs/2505.21479v1
- Date: Tue, 27 May 2025 17:51:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-28 17:05:58.844408
- Title: Are Language Models Consequentialist or Deontological Moral Reasoners?
- Title(参考訳): 言語モデルは連続主義者か、それともデオントロジー的モラル推論者か?
- Authors: Keenan Samway, Max Kleiman-Weiner, David Guzman Piedrahita, Rada Mihalcea, Bernhard Schölkopf, Zhijing Jin,
- Abstract要約: 我々は、大規模言語モデル(LLM)が提供する道徳的推論トレースの大規模分析に焦点をあてる。
我々は,2つの主要な規範的倫理理論,つまり連続主義と非オントロジーを体系的に分類するために,道徳的論理学の分類を導入し,検証する。
- 参考スコア(独自算出の注目度): 69.85385952436044
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: As AI systems increasingly navigate applications in healthcare, law, and governance, understanding how they handle ethically complex scenarios becomes critical. Previous work has mainly examined the moral judgments in large language models (LLMs), rather than their underlying moral reasoning process. In contrast, we focus on a large-scale analysis of the moral reasoning traces provided by LLMs. Furthermore, unlike prior work that attempted to draw inferences from only a handful of moral dilemmas, our study leverages over 600 distinct trolley problems as probes for revealing the reasoning patterns that emerge within different LLMs. We introduce and test a taxonomy of moral rationales to systematically classify reasoning traces according to two main normative ethical theories: consequentialism and deontology. Our analysis reveals that LLM chains-of-thought tend to favor deontological principles based on moral obligations, while post-hoc explanations shift notably toward consequentialist rationales that emphasize utility. Our framework provides a foundation for understanding how LLMs process and articulate ethical considerations, an important step toward safe and interpretable deployment of LLMs in high-stakes decision-making environments. Our code is available at https://github.com/keenansamway/moral-lens .
- Abstract(参考訳): AIシステムは、医療、法律、ガバナンスにおけるアプリケーションをますますナビゲートするにつれて、倫理的に複雑なシナリオをどのように扱うかを理解することが重要になる。
これまでの研究は、その根底にある道徳的推論プロセスではなく、大きな言語モデル(LLM)の道徳的判断を主に検討してきた。
対照的に、LLMが提供する道徳的推論トレースの大規模分析に焦点をあてる。
さらに、ごく少数の道徳的ジレンマから推論を導き出そうとした以前の研究とは異なり、この研究では600以上の異なるトロリー問題を、異なるLSM内に現れる推論パターンを明らかにするためのプローブとして活用している。
我々は,2つの主要な規範的倫理理論,つまり連続主義と非オントロジーを体系的に分類するために,道徳的論理学の分類を導入し,検証する。
我々の分析によると、LLM連鎖は道徳的義務に基づく非オントロジ的原則を好む傾向にあり、一方ポストホックの説明は、実用性を重視した連帯主義的理性に特化している。
我々のフレームワークは、LLMがいかにして処理し、倫理的考察を明瞭にするかを理解するための基盤を提供し、高い意思決定環境におけるLLMの安全かつ解釈可能な展開に向けた重要なステップである。
私たちのコードはhttps://github.com/keenansamway/moral-lensで利用可能です。
関連論文リスト
- When Ethics and Payoffs Diverge: LLM Agents in Morally Charged Social Dilemmas [68.79830818369683]
大規模言語モデル(LLM)は、人間や他のエージェントとの意思決定を含む複雑なエージェントの役割での使用を可能にしている。
大規模言語モデル(LLM)の最近の進歩は、人間や他のエージェントとの意思決定を含む複雑なエージェントの役割において、それらの使用を可能にしている。
道徳的命令が報酬やインセンティブと直接衝突するときの行動についての理解は限られている。
本稿では,社会ジレンマシミュレーション(MoralSim)におけるモラル行動について紹介し,LLMが囚人のジレンマゲームや公共グッズゲームにおいて道徳的に課金された文脈でどのように振る舞うかを評価する。
論文 参考訳(メタデータ) (2025-05-25T16:19:24Z) - Diagnosing Moral Reasoning Acquisition in Language Models: Pragmatics and Generalization [9.650922370722476]
大規模言語モデル(LLM)は、道徳的認識を必要とするタスクで満足に機能しないことが多い。
現在の学習パラダイムは、LLMが十分な道徳的推論能力を得ることができるか?
性能改善は意味レベルの課題に類似したメカニズムを踏襲し,言論における潜在道徳の実践的性質の影響を受け続けることを示す。
論文 参考訳(メタデータ) (2025-02-23T15:00:53Z) - Normative Evaluation of Large Language Models with Everyday Moral Dilemmas [0.0]
Reddit 上の "Am I the Asshole" (AITA) コミュニティから得られた複雑で日常的な道徳的ジレンマに基づいて,大規模言語モデル (LLM) を評価する。
以上の結果から,AITAサブレディットにおける人的評価とは大きく異なる,大きな言語モデルでは道徳的判断のパターンが異なることが示唆された。
論文 参考訳(メタデータ) (2025-01-30T01:29:46Z) - Analyzing the Ethical Logic of Six Large Language Models [1.119697400073873]
本研究では,OpenAI GPT-4o, Meta LLaMA 3.1, Perplexity, Anthropic Claude 3.5 Sonnet, Google Gemini, Mistral 7Bの6つの著名な生成言語モデルの倫理的理由について検討した。
発見によると、LLMは、合理主義的、連帯主義的な強調が特徴で、しばしば害と公正を優先する決定を伴う、ほぼ収束した倫理論理を示す。
論文 参考訳(メタデータ) (2025-01-15T16:56:26Z) - Exploring and steering the moral compass of Large Language Models [55.2480439325792]
大規模言語モデル(LLM)は、様々な分野における自動化と意思決定の推進の中心となっている。
本研究は,その道徳的特徴を評価するために,最も先進的なLCMの総合的比較分析を提案する。
論文 参考訳(メタデータ) (2024-05-27T16:49:22Z) - Rethinking Machine Ethics -- Can LLMs Perform Moral Reasoning through the Lens of Moral Theories? [78.3738172874685]
倫理的AIシステムの開発には倫理的判断が不可欠である。
一般的なアプローチは主にボトムアップ方式で実装されており、モラルに関するクラウドソースの意見に基づいて、大量の注釈付きデータを使用してモデルをトレーニングする。
本研究は、学際的な研究から確立された道徳理論を用いて道徳的推論を行うために、言語モデル(LM)を操る柔軟なトップダウンフレームワークを提案する。
論文 参考訳(メタデータ) (2023-08-29T15:57:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。