論文の概要: Towards Requirements Engineering for GenAI-Enabled Software: Bridging Responsibility Gaps through Human Oversight Requirements
- arxiv url: http://arxiv.org/abs/2511.13069v1
- Date: Mon, 17 Nov 2025 07:14:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-18 14:36:24.88994
- Title: Towards Requirements Engineering for GenAI-Enabled Software: Bridging Responsibility Gaps through Human Oversight Requirements
- Title(参考訳): GenAI-Enabled Softwareの要件エンジニアリングに向けて:人間の監視要件を通した責任ギャップのブリッジ
- Authors: Zhenyu Mao, Jacky Keung, Yicheng Sun, Yifei Wang, Shuo Liu, Jialong Li,
- Abstract要約: 生成的かつ適応的な性質は、人間の監督と責任がどのように特定され、委任され、追跡されるかを複雑にします。
本研究は,GenAI対応ソフトウェアシステムのコンテキストにおいて,これらの研究ギャップを分析することを目的とする。
- 参考スコア(独自算出の注目度): 12.18822408018955
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Context: Responsibility gaps, long-recognized challenges in socio-technical systems where accountability becomes diffuse or ambiguous, have become increasingly pronounced in GenAI-enabled software. The generative and adaptive nature complicates how human oversight and responsibility are specified, delegated, and traced. Existing requirements engineering (RE) approaches remain limited in addressing these phenomena, revealing conceptual, methodological, and artifact-level research gaps.. Objective: This study aims to analyze these research gaps in the context of GenAI-enabled software systems. It seeks to establish a coherent perspective for a systematic analysis of responsibility gaps from a human oversight requirements standpoint, encompassing how these responsibility gaps should be conceptualized, identified, and represented throughout the RE process. Methods: The proposed design methodology is structured across three analytical layers. At the conceptualization layer, it establishes a conceptual framing that defines the key elements of responsibility across the human and system dimensions and explains how potential responsibility gaps emerge from their interactions. At the methodological layer, it introduces a deductive pipeline for identifying responsibility gaps by analyzing interactions between these dimensions and deriving corresponding oversight requirements within established RE frameworks. At the artifact layer, it formalizes the results in a Deductive Backbone Table, a reusable representation that traces the reasoning path from responsibility gaps identification to human oversight requirements derivation. Results: A user study compared the proposed methodology with a baseline goal-oriented RE across two scenarios. Evaluation across six dimensions indicated clear improvements of the proposed methodology, confirming its effectiveness in addressing three research gaps.
- Abstract(参考訳): コンテキスト: 責任ギャップ、説明責任が拡散または曖昧になる社会技術システムにおける長年認識されてきた課題は、GenAI対応ソフトウェアでますます顕著になっている。
生成的かつ適応的な性質は、人間の監督と責任がどのように特定され、委任され、追跡されるかを複雑にしている。
既存の要求工学(RE)アプローチは、これらの現象に対処し、概念的、方法論的、アーティファクトレベルの研究ギャップを明らかにしている。
と。
目的:本研究は,GenAI対応ソフトウェアシステムのコンテキストにおいて,これらの研究ギャップを分析することを目的としている。
責任ギャップを概念化し、特定し、REプロセス全体を通してどのように表現すべきかを包含し、人間の監視要求の観点から責任ギャップを体系的に分析するための一貫性のある視点を確立することを目指している。
方法:提案手法は3つの分析層にまたがって構成される。
概念化層において、人間とシステム次元における責任の鍵となる要素を定義し、その相互作用から潜在的な責任ギャップがどのように出現するかを説明する概念的フレーミングを確立する。
方法論的なレイヤでは、これらの次元間の相互作用を分析し、確立されたREフレームワーク内で対応する監視要件を導出することにより、責任ギャップを識別するための導出パイプラインを導入します。
デダクティブバックボーンテーブル(Deductive Backbone Table)は、責任ギャップの識別から人間の監視要求の導出まで、推論パスをトレースする再利用可能な表現である。
結果: 提案手法と目標指向REを2つのシナリオで比較した。
6次元にわたる評価は提案手法の明確な改善を示し、3つの研究ギャップに対処する上での有効性を確認した。
関連論文リスト
- Understanding Catastrophic Interference: On the Identifibility of Latent Representations [67.05452287233122]
破滅的な干渉、あるいは破滅的な忘れ(Caastrophic forgetting)は、機械学習の根本的な課題である。
本稿では,破滅的干渉を識別問題として定式化する新しい理論枠組みを提案する。
我々のアプローチは、合成データセットとベンチマークデータセットの両方で理論的保証と実用的なパフォーマンスの改善を提供する。
論文 参考訳(メタデータ) (2025-09-27T00:53:32Z) - Towards a Framework for Operationalizing the Specification of Trustworthy AI Requirements [1.2184324428571227]
AI対応システムの信頼性に関する懸念の高まりは、要件エンジニアリング(RE)の役割を強調している。
AMDiREとPerSpecMLの2つの補完的アプローチの統合を提案する。
論文 参考訳(メタデータ) (2025-07-14T12:49:26Z) - KAQG: A Knowledge-Graph-Enhanced RAG for Difficulty-Controlled Question Generation [0.0]
本研究は知識強化質問生成(KAQG)を紹介する。
項目応答理論(IRT)、ブルームの分類学、知識グラフをマルチエージェント検索拡張生成システムに統合する。
提案手法は, 項目難易度, 心理測定校正, 認知アライメントのきめ細かい制御を可能にすることによって, 既存の手法の限界を克服する。
論文 参考訳(メタデータ) (2025-05-12T14:42:19Z) - A Survey of Frontiers in LLM Reasoning: Inference Scaling, Learning to Reason, and Agentic Systems [93.8285345915925]
推論(Reasoning)は、論理的推論、問題解決、意思決定を可能にする基本的な認知プロセスである。
大規模言語モデル(LLM)の急速な進歩により、推論は高度なAIシステムを区別する重要な能力として浮上した。
我々は,(1)推論が達成される段階を定義するレジーム,(2)推論プロセスに関与するコンポーネントを決定するアーキテクチャの2つの側面に沿って既存の手法を分類する。
論文 参考訳(メタデータ) (2025-04-12T01:27:49Z) - Causal Responsibility Attribution for Human-AI Collaboration [62.474732677086855]
本稿では,人間のAIシステムにおける責任を体系的に評価するために,構造因果モデル(SCM)を用いた因果的枠組みを提案する。
2つのケーススタディは、多様な人間とAIのコラボレーションシナリオにおけるフレームワークの適応性を示している。
論文 参考訳(メタデータ) (2024-11-05T17:17:45Z) - Attributing Responsibility in AI-Induced Incidents: A Computational Reflective Equilibrium Framework for Accountability [22.498210339327155]
AI(Artificial Intelligence)の広範な統合は、AI対応システムに関わるインシデントが発生した場合の責任と説明責任において、複雑な課題を導入している。
この研究は、すべての利害関係者に対して、一貫性があり倫理的に許容される責任帰属の枠組みを提案する。
論文 参考訳(メタデータ) (2024-04-25T18:11:03Z) - Combining Inductive and Deductive Reasoning for Query Answering over
Incomplete Knowledge Graphs [12.852658691077643]
非完全知識グラフ(KG)に対する埋め込み型クエリ応答の現在の手法は、帰納的推論のみに焦点を当てている。
埋め込みモデルの顕著な代表者に対する様々な統合戦略を提案する。
インダクティブ推論とインダクティブ推論の両方を必要とする設定の改善は、HITS@3で20%から55%に向上した。
論文 参考訳(メタデータ) (2021-06-26T16:05:44Z) - Counterfactual Explanations as Interventions in Latent Space [62.997667081978825]
反現実的な説明は、望ましい結果を達成するために変更が必要な機能のセットをエンドユーザに提供することを目的としています。
現在のアプローチでは、提案された説明を達成するために必要な行動の実現可能性を考慮することはめったにない。
本稿では,非現実的説明を生成する手法として,潜時空間における干渉としての対実的説明(CEILS)を提案する。
論文 参考訳(メタデータ) (2021-06-14T20:48:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。