論文の概要: Normative Moral Pluralism for AI: A Framework for Deliberation in Complex Moral Contexts
- arxiv url: http://arxiv.org/abs/2508.08333v1
- Date: Sun, 10 Aug 2025 14:52:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-13 21:07:34.179746
- Title: Normative Moral Pluralism for AI: A Framework for Deliberation in Complex Moral Contexts
- Title(参考訳): AIのための規範的モラル多元論:複雑なモラル文脈における議論のためのフレームワーク
- Authors: David-Doron Yaacov,
- Abstract要約: 本論文で提案される概念的枠組みは、熟考的道徳的推論システムの開発に焦点を当てている。
多様な倫理的視点から引き出された規範的議論を生成、フィルタリング、重み付けすることで、複雑な道徳的状況を処理するように設計されている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The conceptual framework proposed in this paper centers on the development of a deliberative moral reasoning system - one designed to process complex moral situations by generating, filtering, and weighing normative arguments drawn from diverse ethical perspectives. While the framework is rooted in Machine Ethics, it also makes a substantive contribution to Value Alignment by outlining a system architecture that links structured moral reasoning to action under time constraints. Grounded in normative moral pluralism, this system is not constructed to imitate behavior but is built on reason-sensitive deliberation over structured moral content in a transparent and principled manner. Beyond its role as a deliberative system, it also serves as the conceptual foundation for a novel two-level architecture: functioning as a moral reasoning teacher envisioned to train faster models that support real-time responsiveness without reproducing the full structure of deliberative reasoning. Together, the deliberative and intuitive components are designed to enable both deep reflection and responsive action. A key design feature is the dual-hybrid structure: a universal layer that defines a moral threshold through top-down and bottom-up learning, and a local layer that learns to weigh competing considerations in context while integrating culturally specific normative content, so long as it remains within the universal threshold. By extending the notion of moral complexity to include not only conflicting beliefs but also multifactorial dilemmas, multiple stakeholders, and the integration of non-moral considerations, the framework aims to support morally grounded decision-making in realistic, high-stakes contexts.
- Abstract(参考訳): 本論文で提案される概念的枠組みは, 多様な倫理的観点から引き出された規範的議論の生成, フィルタリング, 重み付けによる複雑な道徳的状況の処理を目的とした, 熟考的道徳的推論システムの開発に焦点を当てる。
フレームワークはマシン倫理に根ざしているが、構造化された道徳的推論を時間的制約の下での行動に結びつけるシステムアーキテクチャを概説することで、バリューアライメントに実質的な貢献をする。
規範的道徳的多元主義に根ざしたこの制度は、振る舞いを模倣するために構築されるのではなく、透明で原則化された方法で構造化された道徳的内容に対する合理的な熟考に基づいている。
道徳的推論の教師として機能し、議論的推論の完全な構造を再現することなく、リアルタイムの応答性をサポートするより高速なモデルを訓練する。
熟考的かつ直感的なコンポーネントは、深い反射と応答性の両方を可能にするように設計されている。
トップダウンとボトムアップの学習を通じて道徳的しきい値を定義する普遍的なレイヤと、文化的に特定の規範的内容を統合しながら、文脈における競合する考慮を考慮し、普遍的なしきい値内に留まる限り、局所的なレイヤである。
道徳的複雑性の概念を、矛盾する信念だけでなく、多因子ジレンマ、複数の利害関係者、非道徳的考察の統合を含むものに拡張することで、この枠組みは、現実的で高い文脈において道徳的に根ざした意思決定を支援することを目的としている。
関連論文リスト
- Are Language Models Consequentialist or Deontological Moral Reasoners? [69.85385952436044]
我々は、大規模言語モデル(LLM)が提供する道徳的推論トレースの大規模分析に焦点をあてる。
我々は,2つの主要な規範的倫理理論,つまり連続主義と非オントロジーを体系的に分類するために,道徳的論理学の分類を導入し,検証する。
論文 参考訳(メタデータ) (2025-05-27T17:51:18Z) - The Convergent Ethics of AI? Analyzing Moral Foundation Priorities in Large Language Models with a Multi-Framework Approach [6.0972634521845475]
本稿では,Reasoning and Intrinsic Moral Evaluation (PRIME)フレームワークについて紹介する。
PRIMEは、基本的な倫理的側面をまたいだ倫理的優先順位を分析するための包括的な方法論である。
我々はこのフレームワークを6つの主要な大規模言語モデル (LLM) に適用する。
論文 参考訳(メタデータ) (2025-04-27T14:26:48Z) - Towards Developing Ethical Reasoners: Integrating Probabilistic Reasoning and Decision-Making for Complex AI Systems [4.854297874710511]
計算倫理フレームワークは、複雑な実環境で動作するAIと自律システムにとって不可欠である。
既存のアプローチは、倫理原則を動的で曖昧な文脈に組み込むために必要な適応性に欠けることが多い。
本稿では,中間表現,確率論的推論,知識表現を組み合わせた総合的メタレベルフレームワークの構築に必要な要素について概説する。
論文 参考訳(メタデータ) (2025-02-28T17:25:11Z) - Technology as uncharted territory: Contextual integrity and the notion of AI as new ethical ground [55.2480439325792]
私は、責任と倫理的AIを促進する努力が、確立された文脈規範に対するこの軽視に必然的に貢献し、正当化することができると論じます。
私は、道徳的保護よりも道徳的革新のAI倫理における現在の狭い優先順位付けに疑問を呈する。
論文 参考訳(メタデータ) (2024-12-06T15:36:13Z) - Rethinking Machine Ethics -- Can LLMs Perform Moral Reasoning through the Lens of Moral Theories? [78.3738172874685]
倫理的AIシステムの開発には倫理的判断が不可欠である。
一般的なアプローチは主にボトムアップ方式で実装されており、モラルに関するクラウドソースの意見に基づいて、大量の注釈付きデータを使用してモデルをトレーニングする。
本研究は、学際的な研究から確立された道徳理論を用いて道徳的推論を行うために、言語モデル(LM)を操る柔軟なトップダウンフレームワークを提案する。
論文 参考訳(メタデータ) (2023-08-29T15:57:32Z) - MoralDial: A Framework to Train and Evaluate Moral Dialogue Systems via
Moral Discussions [71.25236662907056]
ユーザの価値観に合わせた道徳的対話システムは、会話のエンゲージメントとユーザ接続を高めることができる。
道徳的対話システムを訓練・評価するための枠組みであるMoralDialを提案する。
論文 参考訳(メタデータ) (2022-12-21T02:21:37Z) - Reinforcement Learning Under Moral Uncertainty [13.761051314923634]
機械学習の野心的な目標は、倫理的に振る舞うエージェントを作ることだ。
倫理的エージェントは、特定の道徳理論の下で正しい行動に報いることによって訓練することができるが、道徳性の本質について広く意見の相違がある。
本稿では、競合するデシダラタの異なる点を実現するための2つのトレーニング手法を提案し、モラルの不確実性の下で行動するための単純な環境におけるエージェントを訓練する。
論文 参考訳(メタデータ) (2020-06-08T16:40:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。