論文の概要: The Runtime Dimension of Ethics in Self-Adaptive Systems
- arxiv url: http://arxiv.org/abs/2602.17426v1
- Date: Thu, 19 Feb 2026 14:57:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-20 15:21:29.109097
- Title: The Runtime Dimension of Ethics in Self-Adaptive Systems
- Title(参考訳): 自己適応システムにおける倫理のランタイム次元
- Authors: Marco Autili, Gianluca Filippone, Mashal Afzal Memon, Patrizio Pelliccione,
- Abstract要約: 自己適応システムは人間と密接な相互作用で動作し、しばしば同じ物理的または仮想環境を共有する。
現在のアプローチでは、倫理を固定されたルールベースの制約としてエンコードするか、あるいは設計時に埋め込まれた単一の倫理理論としてエンコードしている。
本稿では,静的な倫理規則から,自己適応システムに対する実行時倫理的推論への移行を提唱する。
- 参考スコア(独自算出の注目度): 5.0803118668252925
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Self-adaptive systems increasingly operate in close interaction with humans, often sharing the same physical or virtual environments and making decisions with ethical implications at runtime. Current approaches typically encode ethics as fixed, rule-based constraints or as a single chosen ethical theory embedded at design time. This overlooks a fundamental property of human-system interaction settings: ethical preferences vary across individuals and groups, evolve with context, and may conflict, while still needing to remain within a legally and regulatorily defined hard-ethics envelope (e.g., safety and compliance constraints). This paper advocates a shift from static ethical rules to runtime ethical reasoning for self-adaptive systems, where ethical preferences are treated as runtime requirements that must be elicited, represented, and continuously revised as stakeholders and situations change. We argue that satisfying such requirements demands explicit ethics-based negotiation to manage ethical trade-offs among multiple humans who interact with, are represented by, or are affected by a system. We identify key challenges, ethical uncertainty, conflicts among ethical values (including human, societal, and environmental drivers), and multi-dimensional/multi-party/multi-driver negotiation, and outline research directions and questions toward ethically self-adaptive systems.
- Abstract(参考訳): 自己適応システムは、人間との密接な相互作用の中でますます機能し、しばしば同じ物理的または仮想環境を共有し、実行時に倫理的な意味を持つ決定を行う。
現在のアプローチは一般的に、倫理を固定された規則に基づく制約として、あるいは設計時に埋め込まれた単一の倫理理論としてエンコードする。
倫理的嗜好は個人やグループによって異なり、文脈によって進化し、対立する可能性があるが、法的に規制的に定義されたハード倫理的封筒(安全とコンプライアンスの制約など)に留まる必要がある。
本稿では、静的な倫理的規則から、利害関係者や状況の変化によって引き起こされ、表現され、継続的に修正されるランタイム要件として倫理的嗜好が扱われる自己適応システムに対する実行時倫理的推論への転換を提唱する。
このような要件を満たすためには、システムに代表される、あるいは影響を受ける複数の人間間の倫理的トレードオフを管理するために、明確な倫理に基づく交渉が必要である、と我々は主張する。
我々は、重要課題、倫理的不確実性、倫理的価値(人間、社会、環境ドライバーを含む)間の紛争、多次元・複数党・複数ドライバー交渉を特定し、倫理的自己適応システムに向けた研究の方向性と課題を概説する。
関連論文リスト
- Operationalizing Human Values in the Requirements Engineering Process of Ethics-Aware Autonomous Systems [3.535946769391712]
倫理に配慮した自律システムのための要求工学的アプローチを提案する。
人間の価値を規範的な目標として捉え、機能的および適応的な目標と整合させます。
本稿では,医療用ボディセンサネットワークのケーススタディを通じて,アプローチの有効性を実証する。
論文 参考訳(メタデータ) (2026-02-10T15:54:25Z) - Mirror: A Multi-Agent System for AI-Assisted Ethics Review [104.3684024153469]
MirrorはAIによる倫理的レビューのためのエージェントフレームワークである。
倫理的推論、構造化された規則解釈、統合されたアーキテクチャ内でのマルチエージェントの議論を統合する。
論文 参考訳(メタデータ) (2026-02-09T03:38:55Z) - Fuzzy Representation of Norms [1.0098114696565863]
本稿では,SLEECルールの論理的表現を提案し,テストスコアセマンティクスとファジィ論理を用いてこれらの倫理的要件を埋め込む手法を提案する。
ファジィ論理の使用は、倫理を可能性の領域と見なすことによって動機付けられ、AIシステムが直面するかもしれない倫理ジレンマの解決を可能にする。
論文 参考訳(メタデータ) (2026-01-06T12:51:18Z) - Principles and Reasons Behind Automated Vehicle Decisions in Ethically Ambiguous Everyday Scenarios [4.244307111313931]
本稿では、日常的かつ倫理的に曖昧なシナリオにおけるAV意思決定のための原則的概念的枠組みを提案する。
このフレームワークは、安全性を優先することで、動的で人間に沿った行動をサポートし、厳格な法的遵守が重要な価値を損なうような現実的な行動を可能にする。
論文 参考訳(メタデータ) (2025-07-18T11:52:33Z) - Technology as uncharted territory: Contextual integrity and the notion of AI as new ethical ground [51.85131234265026]
私は、責任と倫理的AIを促進する努力が、確立された文脈規範に対するこの軽視に必然的に貢献し、正当化することができると論じます。
私は、道徳的保護よりも道徳的革新のAI倫理における現在の狭い優先順位付けに疑問を呈する。
論文 参考訳(メタデータ) (2024-12-06T15:36:13Z) - Towards Responsible AI in Banking: Addressing Bias for Fair
Decision-Making [69.44075077934914]
責任AI(Responsible AI)は、企業文化の発展におけるバイアスに対処する重要な性質を強調している。
この論文は、バイアスを理解すること、バイアスを緩和すること、バイアスを説明することの3つの基本的な柱に基づいて構成されている。
オープンソースの原則に従って、アクセス可能なPythonパッケージとして、Bias On DemandとFairViewをリリースしました。
論文 参考訳(メタデータ) (2024-01-13T14:07:09Z) - Macro Ethics Principles for Responsible AI Systems: Taxonomy and Future Directions [1.864621482724548]
我々は、AIで運用可能な21の規範的倫理原則の分類法を開発する。
我々は、この分類が、責任あるAIシステムの能力の推論に規範的倫理原則を取り入れるための方法論の開発を促進することを想定する。
論文 参考訳(メタデータ) (2022-08-12T08:48:16Z) - Scruples: A Corpus of Community Ethical Judgments on 32,000 Real-Life
Anecdotes [72.64975113835018]
記述倫理に動機づけられた我々は、機械倫理に対する新しいデータ駆動アプローチを調査する。
Scruplesは、625,000の倫理的判断を持つ最初の大規模データセットで、32,000の実生活の逸話について紹介する。
我々のデータセットは最先端のニューラルネットワークモデルに対して大きな課題を示し、改善の余地を残しています。
論文 参考訳(メタデータ) (2020-08-20T17:34:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。