論文の概要: Operationalizing Human Values in the Requirements Engineering Process of Ethics-Aware Autonomous Systems
- arxiv url: http://arxiv.org/abs/2602.09921v1
- Date: Tue, 10 Feb 2026 15:54:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-11 20:17:43.664517
- Title: Operationalizing Human Values in the Requirements Engineering Process of Ethics-Aware Autonomous Systems
- Title(参考訳): 倫理を意識した自律システムの要求工学プロセスにおける人的価値の運用
- Authors: Everaldo Silva Júnior, Lina Marsso, Ricardo Caldas, Marsha Chechik, Genaína Nunes Rodrigues,
- Abstract要約: 倫理に配慮した自律システムのための要求工学的アプローチを提案する。
人間の価値を規範的な目標として捉え、機能的および適応的な目標と整合させます。
本稿では,医療用ボディセンサネットワークのケーススタディを通じて,アプローチの有効性を実証する。
- 参考スコア(独自算出の注目度): 3.535946769391712
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Operationalizing human values alongside functional and adaptation requirements remains challenging due to their ambiguous, pluralistic, and context-dependent nature. Explicit representations are needed to support the elicitation, analysis, and negotiation of value conflicts beyond traditional software engineering abstractions. In this work, we propose a requirements engineering approach for ethics-aware autonomous systems that captures human values as normative goals and aligns them with functional and adaptation goals. These goals are systematically operationalized into Social, Legal, Ethical, Empathetic, and Cultural (SLEEC) requirements, enabling automated well-formedness checking, conflict detection, and early design-time negotiation. We demonstrate the feasibility of the approach through a medical Body Sensor Network case study.
- Abstract(参考訳): 機能的および適応的要求を伴う人間の価値の運用は、あいまいで多元的、文脈に依存した性質のため、依然として困難である。
従来のソフトウェア工学の抽象化を超えて、価値の衝突の誘発、分析、交渉をサポートするために、明示的な表現が必要である。
本研究では,人間の価値観を規範的目標として捉え,機能的・適応的目標と整合させる,倫理に配慮した自律システムのための要求工学的アプローチを提案する。
これらの目標は、社会、法、倫理、共感、文化(SLEEC)の要件に体系的に運用され、自動化された健全性チェック、紛争検出、初期設計時の交渉を可能にする。
本稿では,医療用ボディセンサネットワークのケーススタディを通じて,アプローチの有効性を実証する。
関連論文リスト
- The Runtime Dimension of Ethics in Self-Adaptive Systems [5.0803118668252925]
自己適応システムは人間と密接な相互作用で動作し、しばしば同じ物理的または仮想環境を共有する。
現在のアプローチでは、倫理を固定されたルールベースの制約としてエンコードするか、あるいは設計時に埋め込まれた単一の倫理理論としてエンコードしている。
本稿では,静的な倫理規則から,自己適応システムに対する実行時倫理的推論への移行を提唱する。
論文 参考訳(メタデータ) (2026-02-19T14:57:30Z) - Requirements for Aligned, Dynamic Resolution of Conflicts in Operational Constraints [2.752817022620644]
デプロイされた自律型AIシステムは、新規または未特定のコンテキストにおいて、複数のもっともらしい行動コースを評価する必要がある。
本稿では,これらの文脈におけるエージェント決定の要件を特徴付ける。
また、目標を達成し、人間の期待に沿うために、意思決定を堅牢にするために必要な知識エージェントの種類を特定する。
論文 参考訳(メタデータ) (2025-11-14T04:33:15Z) - Taxonomy of User Needs and Actions [51.86289485979439]
会話AIの普及は、ユーザの計測目標と、それらを達成するための位置、適応、および社会的プラクティスをキャプチャするフレームワークの必要性を強調している。
このギャップに対処するために,1193人の人間とAIの会話の反復的質的分析によって構築された経験的基盤の枠組みであるTUNA(Taxonomy of User Needs and Actions)を紹介した。
TUNAは、ユーザアクションを情報検索、合成、手続き的ガイダンス、コンテンツ作成、ソーシャルインタラクション、メタ会話に関連する行動を含む3段階の階層に編成する。
論文 参考訳(メタデータ) (2025-10-07T17:04:42Z) - Robot-Gated Interactive Imitation Learning with Adaptive Intervention Mechanism [48.41735416075536]
インタラクティブ・イミテーション・ラーニング (Interactive Imitation Learning, IIL) は、エージェントが人間の介入を通じて望ましい行動を取得することを可能にする。
本稿では,人間の実演を依頼する適応的基準を学習するロボットゲート型IILアルゴリズムであるAdaptive Intervention Mechanism (AIM)を提案する。
論文 参考訳(メタデータ) (2025-06-10T18:43:26Z) - Towards Developing Ethical Reasoners: Integrating Probabilistic Reasoning and Decision-Making for Complex AI Systems [4.854297874710511]
計算倫理フレームワークは、複雑な実環境で動作するAIと自律システムにとって不可欠である。
既存のアプローチは、倫理原則を動的で曖昧な文脈に組み込むために必要な適応性に欠けることが多い。
本稿では,中間表現,確率論的推論,知識表現を組み合わせた総合的メタレベルフレームワークの構築に必要な要素について概説する。
論文 参考訳(メタデータ) (2025-02-28T17:25:11Z) - Constrained Human-AI Cooperation: An Inclusive Embodied Social Intelligence Challenge [47.74313897705183]
CHAICは、インボディードエージェントの社会的知覚と協力をテストするために設計された包括的インボディード・ソーシャル・インテリジェンス・チャレンジである。
CHAICの目標は、身体的制約の下で活動している可能性がある人間を支援するために、自我中心の観察装置を備えたエンボディエージェントである。
論文 参考訳(メタデータ) (2024-11-04T04:41:12Z) - Position: Towards Bidirectional Human-AI Alignment [109.57781720848669]
我々は、人間とAIの双方向的・動的関係を説明するために、研究コミュニティは「調整」を明確に定義し、批判的に反映すべきであると主張する。
このフレームワークは、AIと人間の価値を整合させる従来の取り組みを取り入れているだけでなく、人間とAIを整合させるという、重要で未解明の次元も導入しています。
論文 参考訳(メタデータ) (2024-06-13T16:03:25Z) - Normative Requirements Operationalization with Large Language Models [3.456725053685842]
規範的な非機能要件は、社会的、法的、倫理的、共感的、文化的規範の違反を避けるために、システムが観察しなければならない制約を規定する。
近年の研究では、規範的要件を特定するためにドメイン固有言語を使用してこの問題に対処している。
本稿では,システム機能の抽象表現間の意味的関係を抽出するために,大規模言語モデルを用いた補完的アプローチを提案する。
論文 参考訳(メタデータ) (2024-04-18T17:01:34Z) - Disciplining Deliberation: A Sociotechnical Perspective on Machine Learning Trade-offs [0.0]
人工知能における2つの顕著なトレードオフは、予測精度と公正性、予測精度と解釈可能性の間のものである。
一般的な解釈では、これらの形式的なトレードオフは、根底にある社会的価値の間の緊張と直接的に対応していると見なされている。
トレードオフの価値を検証するための社会技術的アプローチを紹介します。
論文 参考訳(メタデータ) (2024-03-07T05:03:18Z) - Towards Responsible AI in Banking: Addressing Bias for Fair
Decision-Making [69.44075077934914]
責任AI(Responsible AI)は、企業文化の発展におけるバイアスに対処する重要な性質を強調している。
この論文は、バイアスを理解すること、バイアスを緩和すること、バイアスを説明することの3つの基本的な柱に基づいて構成されている。
オープンソースの原則に従って、アクセス可能なPythonパッケージとして、Bias On DemandとFairViewをリリースしました。
論文 参考訳(メタデータ) (2024-01-13T14:07:09Z) - Proceeding of the 1st Workshop on Social Robots Personalisation At the
crossroads between engineering and humanities (CONCATENATE) [37.838596863193565]
本ワークショップは,ロボット工学におけるパーソナライゼーションに関する学際的な議論を提起することを目的としている。
異なる分野の研究者を集結させ、パーソナライズのためのガイドラインを提案することを目的としている。
論文 参考訳(メタデータ) (2023-07-10T11:11:24Z) - Rethinking Model Evaluation as Narrowing the Socio-Technical Gap [47.632123167141245]
モデル評価の実践は、この均質化によってもたらされる課題や責任に対処するために、重要なタスクを負わなければならない、と我々は主張する。
我々は,現実の文脈と人間の要求に基づく評価手法の開発をコミュニティに促す。
論文 参考訳(メタデータ) (2023-06-01T00:01:43Z) - Ethical-Advice Taker: Do Language Models Understand Natural Language
Interventions? [62.74872383104381]
読解システムにおける自然言語介入の有効性について検討する。
本稿では,新たな言語理解タスクであるLingguistic Ethical Interventions (LEI)を提案する。
論文 参考訳(メタデータ) (2021-06-02T20:57:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。