論文の概要: The Principle of Proportional Duty: A Knowledge-Duty Framework for Ethical Equilibrium in Human and Artificial Systems
- arxiv url: http://arxiv.org/abs/2512.15740v1
- Date: Sun, 07 Dec 2025 02:37:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-21 14:22:08.788519
- Title: The Principle of Proportional Duty: A Knowledge-Duty Framework for Ethical Equilibrium in Human and Artificial Systems
- Title(参考訳): 比喩的デューティの原理--人間・人工システムにおける倫理的平衡の知識量化フレームワーク
- Authors: Timothy Prescher,
- Abstract要約: 本稿では,倫理的責任がエージェントのてんかん状態とどのようにスケールするかをモデル化する新しい枠組みであるProportional Duty(PPD)について紹介する。
不確実性の増加に伴い、Action Duty(決定的に行動する義務)は、補修デューティ(不確実性を確認し、調査し、解決する活動的義務)に比例的に変換される。
本稿では,臨床倫理,受取権法,経済ガバナンス,人工知能の4分野にまたがる枠組みを適用し,学際的妥当性を実証する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Traditional ethical frameworks often struggle to model decision-making under uncertainty, treating it as a simple constraint on action. This paper introduces the Principle of Proportional Duty (PPD), a novel framework that models how ethical responsibility scales with an agent's epistemic state. The framework reveals that moral duty is not lost to uncertainty but transforms: as uncertainty increases, Action Duty (the duty to act decisively) is proportionally converted into Repair Duty (the active duty to verify, inquire, and resolve uncertainty). This dynamic is expressed by the equation D_total = K[(1-HI) + HI * g(C_signal)], where Total Duty is a function of Knowledge (K), Humility/Uncertainty (HI), and Contextual Signal Strength (C_signal). Monte Carlo simulations demonstrate that systems maintaining a baseline humility coefficient (lambda > 0) produce more stable duty allocations and reduce the risk of overconfident decision-making. By formalizing humility as a system parameter, the PPD offers a mathematically tractable approach to moral responsibility that could inform the development of auditable AI decision systems. This paper applies the framework across four domains, clinical ethics, recipient-rights law, economic governance, and artificial intelligence, to demonstrate its cross-disciplinary validity. The findings suggest that proportional duty serves as a stabilizing principle within complex systems, preventing both overreach and omission by dynamically balancing epistemic confidence against contextual risk.
- Abstract(参考訳): 伝統的な倫理的枠組みは、しばしば不確実性の下で意思決定をモデル化するのに苦労し、行動に関する単純な制約として扱う。
本稿では,倫理的責任がエージェントのてんかん状態とどのようにスケールするかをモデル化する新しい枠組みであるProportional Duty(PPD)について紹介する。
この枠組みは道徳的義務が不確実性に失われるのではなく、不確実性が増えるにつれて、行動デューティ(決定的に行動する義務)は補修デューティ(不確実性を確認し、調査し、解決する活動的義務)に比例的に変換される。
この力学は、D_total = K[(1-HI) + HI * g(C_signal)] という方程式で表され、トータルデューティは知識(K)、湿度/不確実性(HI)、文脈信号強度(C_signal)の関数である。
モンテカルロシミュレーションは、ベースラインの謙虚性係数(lambda > 0)を維持するシステムがより安定したデューティアロケーションを生み出し、過信な意思決定のリスクを低減することを示した。
謙虚をシステムパラメータとして定式化することにより、PDは、監査可能なAI決定システムの開発を知らせる、道徳的責任に対する数学的に取り得るアプローチを提供する。
本稿では,臨床倫理,受取権法,経済ガバナンス,人工知能の4分野にまたがる枠組みを適用し,学際的妥当性を実証する。
以上の結果から, 複合システムにおいて比例的義務が安定化原理として機能し, 文脈的リスクに対する認識的信頼を動的にバランスさせることにより, オーバーリーチと省略の両方を防止することが示唆された。
関連論文リスト
- fEDM+: A Risk-Based Fuzzy Ethical Decision Making Framework with Principle-Level Explainability and Pluralistic Validation [0.0]
説明可能性とトレーサビリティーモジュール(ETM)を導入し、それぞれの倫理的決定ルールと根底にある道徳的原則を明示的に結びつける。
単一参照検証を多元的セマンティック検証フレームワークに置き換える。
その結果、fEDM+と呼ばれる拡張されたfEDMは、解釈可能性とステークホルダー認識の検証を向上しつつ、形式的な検証性を保っている。
論文 参考訳(メタデータ) (2026-02-25T09:58:14Z) - Mirror: A Multi-Agent System for AI-Assisted Ethics Review [104.3684024153469]
MirrorはAIによる倫理的レビューのためのエージェントフレームワークである。
倫理的推論、構造化された規則解釈、統合されたアーキテクチャ内でのマルチエージェントの議論を統合する。
論文 参考訳(メタデータ) (2026-02-09T03:38:55Z) - Fluid Agency in AI Systems: A Case for Functional Equivalence in Copyright, Patent, and Tort [0.31061678033205636]
現代の人工知能(AI)システムには、人間の意識や能力が欠如している。
流体機関は貴重な出力を生成するが、帰属は崩壊する。
本条では,機能的等価性だけが教義を安定させると主張している。
論文 参考訳(メタデータ) (2026-01-06T01:06:07Z) - From Linear Risk to Emergent Harm: Complexity as the Missing Core of AI Governance [0.0]
リスクベースのAI規制は、予想される損害に対応する比例制御を約束する。
本稿では、そのようなフレームワークは構造上の理由から失敗することが多いと論じる。
我々は,規制を制御ではなく介入として扱う,AIガバナンスのための複雑性ベースのフレームワークを提案する。
論文 参考訳(メタデータ) (2025-12-14T14:19:21Z) - Never Compromise to Vulnerabilities: A Comprehensive Survey on AI Governance [211.5823259429128]
本研究は,本質的セキュリティ,デリバティブ・セキュリティ,社会倫理の3つの柱を中心に構築された,技術的・社会的次元を統合した包括的枠組みを提案する。
我々は,(1)防衛が進化する脅威に対して失敗する一般化ギャップ,(2)現実世界のリスクを無視する不適切な評価プロトコル,(3)矛盾する監視につながる断片的な規制,の3つの課題を特定する。
私たちのフレームワークは、研究者、エンジニア、政策立案者に対して、堅牢でセキュアなだけでなく、倫理的に整合性があり、公的な信頼に値するAIシステムを開発するための実用的なガイダンスを提供します。
論文 参考訳(メタデータ) (2025-08-12T09:42:56Z) - Towards Responsible AI: Advances in Safety, Fairness, and Accountability of Autonomous Systems [0.913755431537592]
この論文は、AIシステムの安全性、公正性、透明性、説明責任に関する知識を前進させる。
我々は,古典的決定論的遮蔽技術を拡張し,遅延観測に対する耐性を高める。
我々は,グループフェアネスを逐次決定設定で強制するための,新しい後処理手法であるフェアネスシールドを導入する。
論文 参考訳(メタデータ) (2025-06-11T21:30:02Z) - Beyond Explainability: The Case for AI Validation [0.0]
我々は、中央規制柱としての検証へのシフトを主張する。
AI出力の信頼性、一貫性、堅牢性を保証するバリデーションは、説明可能性に対してより実用的で、スケーラブルで、リスクに敏感な代替手段を提供する。
本稿では,事前・後検証,第三者監査,調和標準,債務インセンティブを中心に,先進的な政策枠組みを提案する。
論文 参考訳(メタデータ) (2025-05-27T06:42:41Z) - Causality Is Key to Understand and Balance Multiple Goals in Trustworthy ML and Foundation Models [91.24296813969003]
本稿では,機械学習に因果的手法を取り入れて,信頼性の高いMLの主要な原則間のトレードオフをナビゲートすることを提唱する。
我々は、信頼できるMLと基礎モデルの両方において、複数の競合する目標のバランスをとるためには、因果的アプローチが不可欠であると主張する。
論文 参考訳(メタデータ) (2025-02-28T14:57:33Z) - Prioritization First, Principles Second: An Adaptive Interpretation of Helpful, Honest, and Harmless Principles [30.405680322319242]
Helpful, Honest, and Harmless(HHH)原則は、AIシステムを人間の価値と整合させるためのフレームワークである。
我々は,HHH原理の適応的解釈を論じ,多様なシナリオへの適応のための参照フレームワークを提案する。
この作業は、AIアライメントを改善するための実践的な洞察を提供し、HHH原則が現実のAIデプロイメントにおいて基礎的かつ運用的に有効であることを保証する。
論文 参考訳(メタデータ) (2025-02-09T22:41:24Z) - Trustworthiness in Stochastic Systems: Towards Opening the Black Box [1.7355698649527407]
AIシステムによる行動は、アライメントと潜在的な信頼を損なう恐れがある。
我々は、基礎性と信頼性の間の緊張と潜在的な対立に対して哲学的な視点を採っている。
我々は,AIシステムとユーザの両方に対して,アライメントをよりよく評価するための潜在値モデリングを提案する。
論文 参考訳(メタデータ) (2025-01-27T19:43:09Z) - Causal Responsibility Attribution for Human-AI Collaboration [62.474732677086855]
本稿では,人間のAIシステムにおける責任を体系的に評価するために,構造因果モデル(SCM)を用いた因果的枠組みを提案する。
2つのケーススタディは、多様な人間とAIのコラボレーションシナリオにおけるフレームワークの適応性を示している。
論文 参考訳(メタデータ) (2024-11-05T17:17:45Z) - Know Where You're Uncertain When Planning with Multimodal Foundation Models: A Formal Framework [54.40508478482667]
認識と計画生成の不確実性を解消し、定量化し、緩和する包括的枠組みを提案する。
本稿では,知覚と意思決定の独特な性質に合わせた手法を提案する。
この不確実性分散フレームワークは, 変動率を最大40%削減し, タスク成功率をベースラインに比べて5%向上させることを示した。
論文 参考訳(メタデータ) (2024-11-03T17:32:00Z) - Towards Responsible AI in Banking: Addressing Bias for Fair
Decision-Making [69.44075077934914]
責任AI(Responsible AI)は、企業文化の発展におけるバイアスに対処する重要な性質を強調している。
この論文は、バイアスを理解すること、バイアスを緩和すること、バイアスを説明することの3つの基本的な柱に基づいて構成されている。
オープンソースの原則に従って、アクセス可能なPythonパッケージとして、Bias On DemandとFairViewをリリースしました。
論文 参考訳(メタデータ) (2024-01-13T14:07:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。