論文の概要: Expected Moral Shortfall for Ethical Competence in Decision-making Models
- arxiv url: http://arxiv.org/abs/2602.13268v1
- Date: Wed, 04 Feb 2026 07:37:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-23 12:01:13.60147
- Title: Expected Moral Shortfall for Ethical Competence in Decision-making Models
- Title(参考訳): 意思決定モデルにおける倫理的コンピテンスに対するモラル・ショートフォールの期待
- Authors: Aisha Aijaz, Raghava Mutharaju, Manohar Kumar,
- Abstract要約: 道徳的認知は、AIモデルにおける意思決定において決定的だが過小評価されていない側面である。
本稿では,AIモデルに倫理的能力を与える技術の比較分析を行う。
道徳の数学的離散化と実生活応用の実証は、他の技術に対して伝達され、テストされてきた。
- 参考スコア(独自算出の注目度): 2.2111747843735268
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Moral cognition is a crucial yet underexplored aspect of decision-making in AI models. Regardless of the application domain, it should be a consideration that allows for ethically aligned decision-making. This paper presents a multifaceted contribution to this research space. Firstly, a comparative analysis of techniques to instill ethical competence into AI models has been presented to gauge them on multiple performance metrics. Second, a novel mathematical discretization of morality and a demonstration of its real-life application have been conveyed and tested against other techniques on two datasets. This value is modeled as the risk of loss incurred by the least moral cases, or an Expected Moral Shortfall (EMS), which we direct the AI model to minimize in order to maximize its performance while retaining ethical competence. Lastly, the paper discusses the tradeoff between preliminary AI decision-making metrics such as model performance, complexity, and scale of ethical competence to recognize the true extent of practical social impact.
- Abstract(参考訳): 道徳的認知は、AIモデルにおける意思決定において決定的だが過小評価されていない側面である。
アプリケーションドメインに関係なく、倫理的に整合した意思決定を可能にするのは考慮すべきことです。
本稿では,本研究分野への多面的貢献について述べる。
まず、AIモデルに倫理的能力を与える技術の比較分析を行い、それらを複数のパフォーマンス指標で評価した。
第二に、道徳の数学的離散化と実生活応用の実証が、2つのデータセット上の他の技術に対して伝達され、テストされている。
この値は、最小の道徳的ケースによって引き起こされる損失のリスクや、倫理的能力を維持しながらそのパフォーマンスを最大化するためにAIモデルに最小化を指示する期待されたモラル不足(EMS)としてモデル化される。
最後に、モデル性能、複雑性、倫理的能力のスケールといった、予備的なAI意思決定指標のトレードオフについて論じ、実践的な社会的影響の真の範囲を認識する。
関連論文リスト
- Auditing the Ethical Logic of Generative AI Models [6.0972634521845475]
本稿では,主要な大規模言語モデル(LLM)の倫理的論理を評価するための5次元監査モデルを提案する。
モデルが一般に倫理的決定に収束する一方で、説明的厳密性や道徳的優先順位付けの点で異なることを発見した7つの主要なLCMをベンチマークする。
チェーン・オブ・ソート(Chain-of-Thought)のプロンプトと推論最適化モデルにより,監査指標のパフォーマンスが大幅に向上した。
論文 参考訳(メタデータ) (2025-04-24T13:32:30Z) - Bridging the Gap: Integrating Ethics and Environmental Sustainability in AI Research and Practice [57.94036023167952]
我々は、AIの倫理的影響を研究するための努力は、その環境への影響を評価するものと相まって行われるべきであると論じる。
我々は,AI研究と実践にAI倫理と持続可能性を統合するためのベストプラクティスを提案する。
論文 参考訳(メタデータ) (2025-04-01T13:53:11Z) - Addressing Moral Uncertainty using Large Language Models for Ethical Decision-Making [0.42481744176244507]
本稿では,タスクに依存しない倫理的レイヤを用いて,事前学習された強化学習(RL)モデルを洗練する倫理的意思決定フレームワークを提案する。
倫理的階層は、Jensen-Shannon Divergence と Dempster-Shafer Theory を用いて複数の道徳的観点から信念のスコアを集約する。
この統合学習フレームワークは、複雑な環境においてRLエージェントが道徳的不確実性をナビゲートし、様々なタスクにおいて道徳的に健全な決定を可能にする。
論文 参考訳(メタデータ) (2025-02-17T19:05:55Z) - Unpacking the Ethical Value Alignment in Big Models [46.560886177083084]
本稿では,ビッグモデルに関連するリスクと課題の概要,既存のAI倫理ガイドラインを調査し,これらのモデルの限界から生じる倫理的影響について考察する。
本稿では,大規模モデルの倫理的価値を整合させる新しい概念パラダイムを導入し,アライメント基準,評価,方法に関する有望な研究方向性について議論する。
論文 参考訳(メタデータ) (2023-10-26T16:45:40Z) - Modeling Moral Choices in Social Dilemmas with Multi-Agent Reinforcement
Learning [4.2050490361120465]
ボトムアップ学習アプローチは、AIエージェントの倫理的行動の研究と開発にもっと適しているかもしれない。
本稿では,道徳理論に基づく報酬を内在的に動機づけたRLエージェントによる選択の体系的分析を行う。
我々は、異なる種類の道徳が協力、欠陥、搾取の出現に与える影響を分析する。
論文 参考訳(メタデータ) (2023-01-20T09:36:42Z) - Are Neural Topic Models Broken? [81.15470302729638]
トピックモデルの自動評価と人的評価の関係について検討する。
ニューラルトピックモデルは、確立された古典的手法と比較して、両方の点においてより悪くなる。
論文 参考訳(メタデータ) (2022-10-28T14:38:50Z) - Human-AI Collaboration via Conditional Delegation: A Case Study of
Content Moderation [47.102566259034326]
我々は,人間-AI協調のための代替パラダイムとして条件付きデリゲートを提案する。
我々は、条件付きデリゲートルールの作成において、人間を支援する新しいインタフェースを開発する。
本研究は,モデル性能向上における条件付きデリゲートの実現可能性を示す。
論文 参考訳(メタデータ) (2022-04-25T17:00:02Z) - Metaethical Perspectives on 'Benchmarking' AI Ethics [81.65697003067841]
ベンチマークは、人工知能(AI)研究の技術的進歩を測定するための基盤とみられている。
AIの顕著な研究領域は倫理であり、現在、ベンチマークのセットも、AIシステムの「倫理性」を測定する一般的な方法もない。
我々は、現在と将来のAIシステムのアクションを考えるとき、倫理よりも「価値」について話す方が理にかなっていると論じる。
論文 参考訳(メタデータ) (2022-04-11T14:36:39Z) - Scruples: A Corpus of Community Ethical Judgments on 32,000 Real-Life
Anecdotes [72.64975113835018]
記述倫理に動機づけられた我々は、機械倫理に対する新しいデータ駆動アプローチを調査する。
Scruplesは、625,000の倫理的判断を持つ最初の大規模データセットで、32,000の実生活の逸話について紹介する。
我々のデータセットは最先端のニューラルネットワークモデルに対して大きな課題を示し、改善の余地を残しています。
論文 参考訳(メタデータ) (2020-08-20T17:34:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。