論文の概要: fEDM+: A Risk-Based Fuzzy Ethical Decision Making Framework with Principle-Level Explainability and Pluralistic Validation
- arxiv url: http://arxiv.org/abs/2602.21746v1
- Date: Wed, 25 Feb 2026 09:58:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-26 18:19:16.787721
- Title: fEDM+: A Risk-Based Fuzzy Ethical Decision Making Framework with Principle-Level Explainability and Pluralistic Validation
- Title(参考訳): fEDM+: 原則レベル説明可能性と多元的検証を備えたリスクベースのファジィ倫理的意思決定フレームワーク
- Authors: Abeer Dyoub, Francesca A. Lisi,
- Abstract要約: 説明可能性とトレーサビリティーモジュール(ETM)を導入し、それぞれの倫理的決定ルールと根底にある道徳的原則を明示的に結びつける。
単一参照検証を多元的セマンティック検証フレームワークに置き換える。
その結果、fEDM+と呼ばれる拡張されたfEDMは、解釈可能性とステークホルダー認識の検証を向上しつつ、形式的な検証性を保っている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: In a previous work, we introduced the fuzzy Ethical Decision-Making framework (fEDM), a risk-based ethical reasoning architecture grounded in fuzzy logic. The original model combined a fuzzy Ethical Risk Assessment module (fERA) with ethical decision rules, enabled formal structural verification through Fuzzy Petri Nets (FPNs), and validated outputs against a single normative referent. Although this approach ensured formal soundness and decision consistency, it did not fully address two critical challenges: principled explainability of decisions and robustness under ethical pluralism. In this paper, we extend fEDM in two major directions. First, we introduce an Explainability and Traceability Module (ETM) that explicitly links each ethical decision rule to the underlying moral principles and computes a weighted principle-contribution profile for every recommended action. This enables transparent, auditable explanations that expose not only what decision was made but why, and on the basis of which principles. Second, we replace single-referent validation with a pluralistic semantic validation framework that evaluates decisions against multiple stakeholder referents, each encoding distinct principle priorities and risk tolerances. This shift allows principled disagreement to be formally represented rather than suppressed, thus increasing robustness and contextual sensitivity. The resulting extended fEDM, called fEDM+, preserves formal verifiability while achieving enhanced interpretability and stakeholder-aware validation, making it suitable as an oversight and governance layer for ethically sensitive AI systems.
- Abstract(参考訳): 前回の研究で、ファジィ論理に基づくリスクベースの倫理的推論アーキテクチャであるファジィ倫理的意思決定フレームワーク(fEDM)を紹介した。
元のモデルでは、ファジィ倫理的リスク評価モジュール(fERA)と倫理的決定規則を組み合わせることで、ファジィペトリネット(FPN)による正式な構造的検証を可能にし、単一の規範的参照に対して検証されたアウトプットを実現した。
このアプローチは形式的健全性と決定整合性を保証するが、決定の原理的説明可能性と倫理的多元主義の下での堅牢性という2つの重要な課題に完全には対処しなかった。
本稿では,fEDMを2つの主要な方向に拡張する。
まず、それぞれの倫理的決定ルールを根底にある道徳的原則に明示的に関連付け、推奨行動ごとに重み付けされた原則-貢献プロファイルを計算する、説明可能性・トレーサビリティモジュール(ETM)を導入する。
これによって、決定された理由だけでなく、どの原則に基づいて、透明で監査可能な説明が可能になる。
第2に,複数の利害関係者に対する決定を評価する多元的セマンティック・バリデーション・フレームワークを単一参照検証に置き換える。
このシフトにより、原則的不一致は抑圧されるよりも正式に表現され、堅牢性と文脈感受性が増大する。
その結果生まれたfEDMはfEDM+と呼ばれ、形式的な検証性を維持しつつ、解釈可能性とステークホルダー対応の検証を実現し、倫理的に敏感なAIシステムの監視とガバナンス層として適している。
関連論文リスト
- Mirror: A Multi-Agent System for AI-Assisted Ethics Review [104.3684024153469]
MirrorはAIによる倫理的レビューのためのエージェントフレームワークである。
倫理的推論、構造化された規則解釈、統合されたアーキテクチャ内でのマルチエージェントの議論を統合する。
論文 参考訳(メタデータ) (2026-02-09T03:38:55Z) - Breaking Up with Normatively Monolithic Agency with GRACE: A Reason-Based Neuro-Symbolic Architecture for Safe and Ethical AI Alignment [7.776436480034601]
ニューロシンボリックな理由に基づく封じ込めアーキテクチャ、GRACE(Reason-Aligned ContainmEnt)の知事について紹介する。
GRACEは、道具的な意思決定から規範的推論を分離し、事実上あらゆる設計のAIエージェントを含むことができる。
MMは、意味論的論理のセマンティック基盤を提供する理性に基づく形式主義を用いており、解釈可能性、競合性、正当性を実現している。
論文 参考訳(メタデータ) (2026-01-15T15:47:38Z) - Fuzzy Representation of Norms [1.0098114696565863]
本稿では,SLEECルールの論理的表現を提案し,テストスコアセマンティクスとファジィ論理を用いてこれらの倫理的要件を埋め込む手法を提案する。
ファジィ論理の使用は、倫理を可能性の領域と見なすことによって動機付けられ、AIシステムが直面するかもしれない倫理ジレンマの解決を可能にする。
論文 参考訳(メタデータ) (2026-01-06T12:51:18Z) - The Reasoning-Creativity Trade-off: Toward Creativity-Driven Problem Solving [57.652356955571065]
最先端の大規模言語モデル(LLM)パイプラインは、ブートストラップの推論ループに依存している。
我々は、この設計選択が、推論経路上のモデルの分布の崩壊にどのように敏感であるかを分析する。
本稿では,分散創造推論(DCR)について紹介する。これは,解トレースの確率測定を通じて,トレーニングを勾配流としてキャストする,統一的な変分目的である。
論文 参考訳(メタデータ) (2026-01-02T17:10:31Z) - Syntactic Framing Fragility: An Audit of Robustness in LLM Ethical Decisions [1.0671844383558033]
大規模言語モデル(LLM)は、逐次的な意思決定設定に徐々にデプロイされている。
LLMが論理的に等価だが構文的に異なるプロンプトに対して一貫した倫理的判断を維持できるかどうかを考察する。
SFF(Syntactic Framing Fragility)は、純粋に構文効果を分離するロバストネス評価フレームワークである。
論文 参考訳(メタデータ) (2025-12-27T18:09:34Z) - The Principle of Proportional Duty: A Knowledge-Duty Framework for Ethical Equilibrium in Human and Artificial Systems [0.0]
本稿では,倫理的責任がエージェントのてんかん状態とどのようにスケールするかをモデル化する新しい枠組みであるProportional Duty(PPD)について紹介する。
不確実性の増加に伴い、Action Duty(決定的に行動する義務)は、補修デューティ(不確実性を確認し、調査し、解決する活動的義務)に比例的に変換される。
本稿では,臨床倫理,受取権法,経済ガバナンス,人工知能の4分野にまたがる枠組みを適用し,学際的妥当性を実証する。
論文 参考訳(メタデータ) (2025-12-07T02:37:07Z) - The Convergent Ethics of AI? Analyzing Moral Foundation Priorities in Large Language Models with a Multi-Framework Approach [6.0972634521845475]
本稿では,Reasoning and Intrinsic Moral Evaluation (PRIME)フレームワークについて紹介する。
PRIMEは、基本的な倫理的側面をまたいだ倫理的優先順位を分析するための包括的な方法論である。
我々はこのフレームワークを6つの主要な大規模言語モデル (LLM) に適用する。
論文 参考訳(メタデータ) (2025-04-27T14:26:48Z) - Prioritization First, Principles Second: An Adaptive Interpretation of Helpful, Honest, and Harmless Principles [30.405680322319242]
Helpful, Honest, and Harmless(HHH)原則は、AIシステムを人間の価値と整合させるためのフレームワークである。
我々は,HHH原理の適応的解釈を論じ,多様なシナリオへの適応のための参照フレームワークを提案する。
この作業は、AIアライメントを改善するための実践的な洞察を提供し、HHH原則が現実のAIデプロイメントにおいて基礎的かつ運用的に有効であることを保証する。
論文 参考訳(メタデータ) (2025-02-09T22:41:24Z) - Deliberative Alignment: Reasoning Enables Safer Language Models [64.60765108418062]
モデルセーフティ仕様を教える新しいパラダイムであるDeliberative Alignmentを紹介します。
このアプローチを使ってOpenAIのoシリーズモデルを整列させ、人書きのチェーンや回答を必要とせず、OpenAIの安全ポリシーに極めて正確な順守を実現しました。
論文 参考訳(メタデータ) (2024-12-20T21:00:11Z) - A Semantic Approach to Decidability in Epistemic Planning (Extended
Version) [72.77805489645604]
我々は決定可能性を達成するために新しい意味論的アプローチを用いる。
具体的には、知識の論理S5$_n$と(知識)可換性と呼ばれる相互作用公理を拡大する。
我々は,本フレームワークが,独立した知識である共通知識の有限的非固定点的特徴を認めていることを証明した。
論文 参考訳(メタデータ) (2023-07-28T11:26:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。