論文の概要: The Convergent Ethics of AI? Analyzing Moral Foundation Priorities in Large Language Models with a Multi-Framework Approach
- arxiv url: http://arxiv.org/abs/2504.19255v1
- Date: Sun, 27 Apr 2025 14:26:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-02 19:15:54.199225
- Title: The Convergent Ethics of AI? Analyzing Moral Foundation Priorities in Large Language Models with a Multi-Framework Approach
- Title(参考訳): AIの収束倫理 : 多面的アプローチによる大規模言語モデルにおける道徳的基礎優先性の分析
- Authors: Chad Coleman, W. Russell Neuman, Ali Dasdan, Safinah Ali, Manan Shah,
- Abstract要約: 本稿では,Reasoning and Intrinsic Moral Evaluation (PRIME)フレームワークについて紹介する。
PRIMEは、基本的な倫理的側面をまたいだ倫理的優先順位を分析するための包括的な方法論である。
我々はこのフレームワークを6つの主要な大規模言語モデル (LLM) に適用する。
- 参考スコア(独自算出の注目度): 6.0972634521845475
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: As large language models (LLMs) are increasingly deployed in consequential decision-making contexts, systematically assessing their ethical reasoning capabilities becomes a critical imperative. This paper introduces the Priorities in Reasoning and Intrinsic Moral Evaluation (PRIME) framework--a comprehensive methodology for analyzing moral priorities across foundational ethical dimensions including consequentialist-deontological reasoning, moral foundations theory, and Kohlberg's developmental stages. We apply this framework to six leading LLMs through a dual-protocol approach combining direct questioning and response analysis to established ethical dilemmas. Our analysis reveals striking patterns of convergence: all evaluated models demonstrate strong prioritization of care/harm and fairness/cheating foundations while consistently underweighting authority, loyalty, and sanctity dimensions. Through detailed examination of confidence metrics, response reluctance patterns, and reasoning consistency, we establish that contemporary LLMs (1) produce decisive ethical judgments, (2) demonstrate notable cross-model alignment in moral decision-making, and (3) generally correspond with empirically established human moral preferences. This research contributes a scalable, extensible methodology for ethical benchmarking while highlighting both the promising capabilities and systematic limitations in current AI moral reasoning architectures--insights critical for responsible development as these systems assume increasingly significant societal roles.
- Abstract(参考訳): 大規模言語モデル (LLM) が連続的な意思決定の文脈に徐々に展開されるにつれて、その倫理的推論能力の体系的評価が重要課題となっている。
本稿では, 因果的道徳評価(PRIME)フレームワークの優先性について紹介する。これは, 連続論的推論, 道徳的基礎論, コールバーグの発達段階を含む, 基礎的倫理的側面における道徳的優先性を分析する包括的方法論である。
この枠組みを、6つの主要なLCMに適用し、直接質問と応答分析を組み合わせた双対プロトコールアプローチを確立された倫理ジレンマに適用する。
評価されたモデルはすべて、ケア/ハームとフェアネス/チーティングの基礎の強い優先順位付けを示しながら、権威、忠誠、聖なる次元を一貫して過小評価している。
信頼性指標の詳細な検証,応答レラクタンスパターン,推論整合性の検証を通じて,(1)現代LLMが決定的な倫理的判断を下し,(2)道徳的意思決定において顕著なクロスモデルアライメントを示し,(3)一般に実証的に確立された人間の道徳的嗜好に対応することが確認された。
この研究は、倫理的ベンチマークのためのスケーラブルで拡張可能な方法論に貢献しながら、現在のAI道徳推論アーキテクチャにおける有望な能力と体系的な制限の両方を強調している。
関連論文リスト
- Auditing the Ethical Logic of Generative AI Models [6.0972634521845475]
本稿では,主要な大規模言語モデル(LLM)の倫理的論理を評価するための5次元監査モデルを提案する。
モデルが一般に倫理的決定に収束する一方で、説明的厳密性や道徳的優先順位付けの点で異なることを発見した7つの主要なLCMをベンチマークする。
チェーン・オブ・ソート(Chain-of-Thought)のプロンプトと推論最適化モデルにより,監査指標のパフォーマンスが大幅に向上した。
論文 参考訳(メタデータ) (2025-04-24T13:32:30Z) - Bridging the Gap: Integrating Ethics and Environmental Sustainability in AI Research and Practice [57.94036023167952]
我々は、AIの倫理的影響を研究するための努力は、その環境への影響を評価するものと相まって行われるべきであると論じる。
我々は,AI研究と実践にAI倫理と持続可能性を統合するためのベストプラクティスを提案する。
論文 参考訳(メタデータ) (2025-04-01T13:53:11Z) - Towards Developing Ethical Reasoners: Integrating Probabilistic Reasoning and Decision-Making for Complex AI Systems [4.854297874710511]
計算倫理フレームワークは、複雑な実環境で動作するAIと自律システムにとって不可欠である。
既存のアプローチは、倫理原則を動的で曖昧な文脈に組み込むために必要な適応性に欠けることが多い。
本稿では,中間表現,確率論的推論,知識表現を組み合わせた総合的メタレベルフレームワークの構築に必要な要素について概説する。
論文 参考訳(メタデータ) (2025-02-28T17:25:11Z) - Causality Is Key to Understand and Balance Multiple Goals in Trustworthy ML and Foundation Models [91.24296813969003]
本稿では,機械学習に因果的手法を取り入れて,信頼性の高いMLの主要な原則間のトレードオフをナビゲートすることを提唱する。
我々は、信頼できるMLと基礎モデルの両方において、複数の競合する目標のバランスをとるためには、因果的アプローチが不可欠であると主張する。
論文 参考訳(メタデータ) (2025-02-28T14:57:33Z) - Diagnosing Moral Reasoning Acquisition in Language Models: Pragmatics and Generalization [9.650922370722476]
大規模言語モデル(LLM)は、道徳的認識を必要とするタスクで満足に機能しないことが多い。
現在の学習パラダイムは、LLMが十分な道徳的推論能力を得ることができるか?
性能改善は意味レベルの課題に類似したメカニズムを踏襲し,言論における潜在道徳の実践的性質の影響を受け続けることを示す。
論文 参考訳(メタデータ) (2025-02-23T15:00:53Z) - Addressing Moral Uncertainty using Large Language Models for Ethical Decision-Making [0.0]
本稿では,タスクに依存しない倫理的レイヤを用いて,事前学習された強化学習(RL)モデルを洗練する倫理的意思決定フレームワークを提案する。
倫理的階層は、Jensen-Shannon Divergence と Dempster-Shafer Theory を用いて複数の道徳的観点から信念のスコアを集約する。
この統合学習フレームワークは、複雑な環境においてRLエージェントが道徳的不確実性をナビゲートし、様々なタスクにおいて道徳的に健全な決定を可能にする。
論文 参考訳(メタデータ) (2025-02-17T19:05:55Z) - LogiDynamics: Unraveling the Dynamics of Logical Inference in Large Language Model Reasoning [49.58786377307728]
本稿では、類似推論のための制御された評価環境を導入することにより、探索的アプローチを採用する。
帰納的,帰納的,帰納的,帰納的な推論パイプラインの比較力学を解析する。
仮説選択や検証,洗練といった高度なパラダイムを考察し,論理的推論のスケールアップの可能性を明らかにする。
論文 参考訳(メタデータ) (2025-02-16T15:54:53Z) - Towards Responsible AI in Banking: Addressing Bias for Fair
Decision-Making [69.44075077934914]
責任AI(Responsible AI)は、企業文化の発展におけるバイアスに対処する重要な性質を強調している。
この論文は、バイアスを理解すること、バイアスを緩和すること、バイアスを説明することの3つの基本的な柱に基づいて構成されている。
オープンソースの原則に従って、アクセス可能なPythonパッケージとして、Bias On DemandとFairViewをリリースしました。
論文 参考訳(メタデータ) (2024-01-13T14:07:09Z) - A collection of principles for guiding and evaluating large language
models [5.412690203810726]
文献から220の原則のリストを特定し、キュレートし、37のコア原則を7つのカテゴリに分類する。
われわれは、主観的重要性の専門家に異なる原則を課す、小規模の専門家調査を実施している。
原則の共有モデルの開発は、複数の目的を達成することができると想定しています。
論文 参考訳(メタデータ) (2023-12-04T12:06:12Z) - Unpacking the Ethical Value Alignment in Big Models [46.560886177083084]
本稿では,ビッグモデルに関連するリスクと課題の概要,既存のAI倫理ガイドラインを調査し,これらのモデルの限界から生じる倫理的影響について考察する。
本稿では,大規模モデルの倫理的価値を整合させる新しい概念パラダイムを導入し,アライメント基準,評価,方法に関する有望な研究方向性について議論する。
論文 参考訳(メタデータ) (2023-10-26T16:45:40Z) - Rethinking Machine Ethics -- Can LLMs Perform Moral Reasoning through the Lens of Moral Theories? [78.3738172874685]
倫理的AIシステムの開発には倫理的判断が不可欠である。
一般的なアプローチは主にボトムアップ方式で実装されており、モラルに関するクラウドソースの意見に基づいて、大量の注釈付きデータを使用してモデルをトレーニングする。
本研究は、学際的な研究から確立された道徳理論を用いて道徳的推論を行うために、言語モデル(LM)を操る柔軟なトップダウンフレームワークを提案する。
論文 参考訳(メタデータ) (2023-08-29T15:57:32Z) - Towards CausalGPT: A Multi-Agent Approach for Faithful Knowledge Reasoning via Promoting Causal Consistency in LLMs [55.66353783572259]
Causal-Consistency Chain-of-Thoughtは、基礎モデルの忠実さと因果性を強化するために、マルチエージェントコラボレーションを活用する。
我々のフレームワークは、広範囲かつ包括的な評価を通じて、最先端の手法よりも大きな優位性を示す。
論文 参考訳(メタデータ) (2023-08-23T04:59:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。