論文の概要: Automatic Generation of Explainability Requirements and Software Explanations From User Reviews
- arxiv url: http://arxiv.org/abs/2507.07344v1
- Date: Thu, 10 Jul 2025 00:03:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-11 16:40:15.235772
- Title: Automatic Generation of Explainability Requirements and Software Explanations From User Reviews
- Title(参考訳): ユーザレビューから説明可能性要件の自動生成とソフトウェア説明
- Authors: Martin Obaidi, Jannik Fischbach, Jakob Droste, Hannah Deters, Marc Herrmann, Jil Klünder, Steffen Krätzig, Hugo Villamizar, Kurt Schneider,
- Abstract要約: 本研究は,ユーザレビューから要件を抽出し,それに対応する説明を生成する自動アプローチを導入することで,ソフトウェアシステムにおける説明可能性要件の進展に寄与する。
私たちは58のユーザレビューのデータセットを作成しました。
我々の評価では、AI生成の要件は、人間生成の要件に比べて関連性や正確性に欠けることが多いが、AI生成の説明は、その明快さとスタイルに対してしばしば好まれる。
- 参考スコア(独自算出の注目度): 2.2392379251177696
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Explainability has become a crucial non-functional requirement to enhance transparency, build user trust, and ensure regulatory compliance. However, translating explanation needs expressed in user feedback into structured requirements and corresponding explanations remains challenging. While existing methods can identify explanation-related concerns in user reviews, there is no established approach for systematically deriving requirements and generating aligned explanations. To contribute toward addressing this gap, we introduce a tool-supported approach that automates this process. To evaluate its effectiveness, we collaborated with an industrial automation manufacturer to create a dataset of 58 user reviews, each annotated with manually crafted explainability requirements and explanations. Our evaluation shows that while AI-generated requirements often lack relevance and correctness compared to human-created ones, the AI-generated explanations are frequently preferred for their clarity and style. Nonetheless, correctness remains an issue, highlighting the importance of human validation. This work contributes to the advancement of explainability requirements in software systems by (1) introducing an automated approach to derive requirements from user reviews and generate corresponding explanations, (2) providing empirical insights into the strengths and limitations of automatically generated artifacts, and (3) releasing a curated dataset to support future research on the automatic generation of explainability requirements.
- Abstract(参考訳): 透明性を高め、ユーザ信頼を構築し、規制の遵守を保証するために、説明責任は重要な非機能要件になっています。
しかし、ユーザフィードバックで表現された説明文を構造化された要求に翻訳することは依然として困難である。
既存手法では, ユーザレビューにおける説明に関する懸念を識別できるが, 要求を体系的に導き, 整合的な説明を生成するための確立したアプローチは存在しない。
このギャップに対処するために、私たちはこのプロセスを自動化するツールベースのアプローチを導入します。
有効性を評価するため,産業自動化製造業者と共同で58件のユーザレビューデータセットを作成し,それぞれに手作業による説明可能性要件と説明を行った。
我々の評価では、AI生成の要件は、人間生成の要件に比べて関連性や正確性に欠けることが多いが、AI生成の説明は、その明快さとスタイルに対してしばしば好まれる。
それでも正確さは問題であり、人間の検証の重要性を強調している。
本研究は,(1)ユーザレビューから要件を導出し,それに対応する説明を生成する自動アプローチの導入,(2)自動生成アーティファクトの強度と限界に関する実証的な洞察の提供,(3)説明可能性要件の自動生成を支援するためのキュレートデータセットのリリースなど,ソフトウェアシステムにおける説明可能性要件の進展に寄与する。
関連論文リスト
- Hybrid Reasoning for Perception, Explanation, and Autonomous Action in Manufacturing [0.0]
CIPHERは、産業制御のための人間のような推論を再現することを目的としたビジョン言語アクション(VLA)モデルフレームワークである。
システム状態の定量的評価を可能にする回帰モデルであるプロセスエキスパートを統合する。
プロセス監視からの視覚的またはテキスト的入力を解釈し、その決定を説明し、正確なマシン命令を自律的に生成する。
論文 参考訳(メタデータ) (2025-06-10T05:37:33Z) - Interactive Agents to Overcome Ambiguity in Software Engineering [61.40183840499932]
AIエージェントは、あいまいで不明確なユーザー指示に基づいて、タスクを自動化するためにますますデプロイされている。
不安定な仮定をし、明確な質問をしないことは、最適以下の結果につながる可能性がある。
対話型コード生成設定において,LLMエージェントが不明瞭な命令を処理する能力について,プロプライエタリモデルとオープンウェイトモデルを評価して検討する。
論文 参考訳(メタデータ) (2025-02-18T17:12:26Z) - RECOVER: Toward Requirements Generation from Stakeholders' Conversations [10.706772429994384]
本稿では,会話要求工学の新たなアプローチであるRECOVERを紹介する。
利害関係者のインタラクションからシステム要件を自動的に抽出する実践者を支援する。
経験的評価は、十分な正確性、完全性、実行可能性を示す要求が生成された、有望なパフォーマンスを示す。
論文 参考訳(メタデータ) (2024-11-29T08:52:40Z) - Evaluating the Utility of Model Explanations for Model Development [54.23538543168767]
機械学習モデル構築の実践シナリオにおいて、説明が人間の意思決定を改善するかどうかを評価する。
驚いたことに、サリエンシマップが提供されたとき、タスクが大幅に改善されたという証拠は見つからなかった。
以上の結果から,サリエンシに基づく説明における誤解の可能性と有用性について注意が必要であることが示唆された。
論文 参考訳(メタデータ) (2023-12-10T23:13:23Z) - A Methodology and Software Architecture to Support
Explainability-by-Design [0.0]
本稿では,意思決定システムの設計における説明能力を含む積極的尺度を特徴とする説明可能性設計手法について述べる。
方法論は, (A)説明要求分析, (B)説明技術設計, (C)説明検証の3段階からなる。
提案手法は,1文あたり2時間程度の開発時間で抽出可能であることがわかった。
論文 参考訳(メタデータ) (2022-06-13T15:34:29Z) - Exploring the Trade-off between Plausibility, Change Intensity and
Adversarial Power in Counterfactual Explanations using Multi-objective
Optimization [73.89239820192894]
自動対物生成は、生成した対物インスタンスのいくつかの側面を考慮すべきである。
本稿では, 対実例生成のための新しい枠組みを提案する。
論文 参考訳(メタデータ) (2022-05-20T15:02:53Z) - Textual Explanations and Critiques in Recommendation Systems [8.406549970145846]
論文は、このニーズに対処する2つの根本的な課題に焦点を当てています。
1つ目は、スケーラブルでデータ駆動的な説明生成である。
第2の課題は、説明を実行可能なものにすることだ。
論文 参考訳(メタデータ) (2022-05-15T11:59:23Z) - Explainability in Process Outcome Prediction: Guidelines to Obtain
Interpretable and Faithful Models [77.34726150561087]
本稿では、プロセス結果予測の分野における説明可能性モデルと説明可能性モデルの忠実性を通して、説明可能性を定義する。
本稿では,イベントログの仕様に基づいて適切なモデルを選択することのできる,X-MOPというガイドラインのセットを提案する。
論文 参考訳(メタデータ) (2022-03-30T05:59:50Z) - Counterfactual Explanations as Interventions in Latent Space [62.997667081978825]
反現実的な説明は、望ましい結果を達成するために変更が必要な機能のセットをエンドユーザに提供することを目的としています。
現在のアプローチでは、提案された説明を達成するために必要な行動の実現可能性を考慮することはめったにない。
本稿では,非現実的説明を生成する手法として,潜時空間における干渉としての対実的説明(CEILS)を提案する。
論文 参考訳(メタデータ) (2021-06-14T20:48:48Z) - Generating Fact Checking Explanations [52.879658637466605]
まだ欠けているパズルの重要なピースは、プロセスの最も精巧な部分を自動化する方法を理解することです。
本稿では、これらの説明を利用可能なクレームコンテキストに基づいて自動生成する方法について、最初の研究を行う。
この結果から,個別に学習するのではなく,両目標を同時に最適化することで,事実確認システムの性能が向上することが示唆された。
論文 参考訳(メタデータ) (2020-04-13T05:23:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。