論文の概要: NAEL: Non-Anthropocentric Ethical Logic
- arxiv url: http://arxiv.org/abs/2510.14676v1
- Date: Thu, 16 Oct 2025 13:33:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-17 21:15:14.877076
- Title: NAEL: Non-Anthropocentric Ethical Logic
- Title(参考訳): NAEL: アンソロジー中心ではない倫理論理
- Authors: Bianca Maria Lerma, Rafael Peñaloza,
- Abstract要約: NAEL (Non-Anthrocentric Ethical Logic) は, 能動的推論と記号的推論を基礎とした, 人工エージェントの倫理的枠組みである。
本研究では, エージェントが不確実な環境での行動の倫理的影響を評価できるように, ニューロシンボリックアーキテクチャを提案する。
- 参考スコア(独自算出の注目度): 0.45119235878273006
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We introduce NAEL (Non-Anthropocentric Ethical Logic), a novel ethical framework for artificial agents grounded in active inference and symbolic reasoning. Departing from conventional, human-centred approaches to AI ethics, NAEL formalizes ethical behaviour as an emergent property of intelligent systems minimizing global expected free energy in dynamic, multi-agent environments. We propose a neuro-symbolic architecture to allow agents to evaluate the ethical consequences of their actions in uncertain settings. The proposed system addresses the limitations of existing ethical models by allowing agents to develop context-sensitive, adaptive, and relational ethical behaviour without presupposing anthropomorphic moral intuitions. A case study involving ethical resource distribution illustrates NAEL's dynamic balancing of self-preservation, epistemic learning, and collective welfare.
- Abstract(参考訳): NAEL (Non-Anthrocentric Ethical Logic) は, 能動的推論と記号的推論を基礎とした, 人工エージェントの倫理的枠組みである。
NAELは、AI倫理に対する従来の人間中心のアプローチとは別に、動的でマルチエージェント環境におけるグローバルな自由エネルギーを最小化するインテリジェントシステムの創発的な特性として、倫理的行動の形式化を行っている。
本研究では, エージェントが不確実な環境での行動の倫理的影響を評価できるように, ニューロシンボリックアーキテクチャを提案する。
提案システムは,人為的道徳的直観を前提とせずに,エージェントが文脈に敏感で適応的で関係的な倫理的行動を開発することを可能にすることによって,既存の倫理的モデルの限界に対処する。
倫理的資源分布に関わるケーススタディでは、NAELの自己保存、疫学学習、集団福祉の動的バランスが示されている。
関連論文リスト
- The Ultimate Test of Superintelligent AI Agents: Can an AI Balance Care and Control in Asymmetric Relationships? [11.983461426678522]
シェパードテストは、超知能人工エージェントの道徳的および関係的な次元を評価するための新しい概念テストである。
私たちは、AIが知的エージェントを操作、育む、そして機器的に使用しない能力を示すときに、重要な、潜在的に危険な、知能のしきい値を越えることを主張する。
これには、自己利益と従属エージェントの幸福の間の道徳的なトレードオフを評価する能力が含まれる。
論文 参考訳(メタデータ) (2025-06-02T15:53:56Z) - Ten Principles of AI Agent Economics [34.771189554393096]
AIエージェントは、特殊なツールから、社会的および経済的エコシステムのダイナミックな参加者へと進化している。
彼らの自律性と意思決定能力は、産業、職業、そして人間の生活に大きな影響を与える可能性がある。
本稿では、AIエージェント経済の10の原則を提示し、AIエージェントがどのように意思決定を行い、社会的相互作用に影響を与え、より広い経済に参加するかを理解するための枠組みを提供する。
論文 参考訳(メタデータ) (2025-05-26T17:52:44Z) - Deontic Temporal Logic for Formal Verification of AI Ethics [4.028503203417233]
本稿では,AIシステムの倫理的行動を定義し評価するために,デオン論理に基づく形式化を提案する。
公理と定理を導入し、公正性と説明可能性に関する倫理的要件を捉えている。
筆者らは,実世界のCompASとローン予測AIシステムの倫理性を評価することにより,この形式化の有効性を評価する。
論文 参考訳(メタデータ) (2025-01-10T07:48:40Z) - Technology as uncharted territory: Contextual integrity and the notion of AI as new ethical ground [51.85131234265026]
私は、責任と倫理的AIを促進する努力が、確立された文脈規範に対するこの軽視に必然的に貢献し、正当化することができると論じます。
私は、道徳的保護よりも道徳的革新のAI倫理における現在の狭い優先順位付けに疑問を呈する。
論文 参考訳(メタデータ) (2024-12-06T15:36:13Z) - Unpacking the Ethical Value Alignment in Big Models [46.560886177083084]
本稿では,ビッグモデルに関連するリスクと課題の概要,既存のAI倫理ガイドラインを調査し,これらのモデルの限界から生じる倫理的影響について考察する。
本稿では,大規模モデルの倫理的価値を整合させる新しい概念パラダイムを導入し,アライメント基準,評価,方法に関する有望な研究方向性について議論する。
論文 参考訳(メタデータ) (2023-10-26T16:45:40Z) - EALM: Introducing Multidimensional Ethical Alignment in Conversational
Information Retrieval [43.72331337131317]
我々は、倫理的アライメントを、効率的なデータスクリーニングのための初期倫理的判断段階と統合するワークフローを導入する。
本稿では,ETHICSベンチマークから適応したQA-ETHICSデータセットについて述べる。
さらに,二項および多ラベルの倫理的判断タスクにおいて,最高の性能を実現する新しい手法を提案する。
論文 参考訳(メタデータ) (2023-10-02T08:22:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。