論文の概要: Can Requirements Engineering Support Explainable Artificial
Intelligence? Towards a User-Centric Approach for Explainability Requirements
- arxiv url: http://arxiv.org/abs/2206.01507v1
- Date: Fri, 3 Jun 2022 11:17:41 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-06 20:48:30.160816
- Title: Can Requirements Engineering Support Explainable Artificial
Intelligence? Towards a User-Centric Approach for Explainability Requirements
- Title(参考訳): 要求工学は説明可能な人工知能をサポートするか?
説明可能性要件に対するユーザ中心アプローチに向けて
- Authors: Umm-e-Habiba, Justus Bogner, and Stefan Wagner
- Abstract要約: 我々は要求工学(RE)と説明可能なAI(XAI)の相乗効果について議論する。
我々は、XAIの分野における課題を強調し、これらの課題を緩和するためにREプラクティスがどのように役立つかに関するフレームワークと研究の方向性を提案します。
- 参考スコア(独自算出の注目度): 9.625088778011717
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: With the recent proliferation of artificial intelligence systems, there has
been a surge in the demand for explainability of these systems. Explanations
help to reduce system opacity, support transparency, and increase stakeholder
trust. In this position paper, we discuss synergies between requirements
engineering (RE) and Explainable AI (XAI). We highlight challenges in the field
of XAI, and propose a framework and research directions on how RE practices can
help to mitigate these challenges.
- Abstract(参考訳): 近年、人工知能システムの普及に伴い、これらのシステムの説明可能性に対する需要が急増している。
説明はシステムの不透明度を減らし、透明性をサポートし、ステークホルダーの信頼を高めるのに役立つ。
本稿では,要求工学(RE)と説明可能なAI(XAI)の相乗効果について議論する。
我々は、XAIの分野における課題を強調し、これらの課題を緩和するためにREプラクティスがどのように役立つかに関するフレームワークと研究の方向性を提案します。
関連論文リスト
- Representation Engineering: A Top-Down Approach to AI Transparency [132.0398250233924]
表現工学の新たな領域(RepE)を特定し,特徴付ける
RepEは、神経細胞や回路ではなく、人口レベルの表現を解析の中心に置く。
これらの手法が、広範囲の安全関連問題に対してどのようにトラクションを提供するかを紹介する。
論文 参考訳(メタデータ) (2023-10-02T17:59:07Z) - A New Perspective on Evaluation Methods for Explainable Artificial
Intelligence (XAI) [0.0]
我々は、リソースの可用性、ドメインの特徴、リスクの考慮を組み込んだ、曖昧な方法でアプローチするのが最善である、と論じる。
この研究は、AIのための要求工学の分野を前進させることを目的としている。
論文 参考訳(メタデータ) (2023-07-26T15:15:44Z) - Revisiting the Performance-Explainability Trade-Off in Explainable
Artificial Intelligence (XAI) [0.0]
我々は、リソースの可用性、ドメインの特徴、リスクの考慮を組み込んだ、曖昧な方法でアプローチするのが最善である、と論じる。
この研究は、AIのための要求工学の分野を前進させることを目的としている。
論文 参考訳(メタデータ) (2023-07-26T15:07:40Z) - Tailoring Requirements Engineering for Responsible AI [7.713240800142864]
要求工学(RE)は、慎重に実施されるだけでなく、責任あるAIに合わせて調整されるべきである、と我々は主張する。
研究と実践に関する課題について概説する。
論文 参考訳(メタデータ) (2023-02-21T16:48:59Z) - Seamful XAI: Operationalizing Seamful Design in Explainable AI [59.89011292395202]
AIシステムのミスは必然的であり、技術的制限と社会技術的ギャップの両方から生じる。
本稿では, 社会工学的・インフラ的ミスマッチを明らかにすることにより, シームレスな設計がAIの説明可能性を高めることを提案する。
43人のAI実践者と実際のエンドユーザでこのプロセスを探求します。
論文 参考訳(メタデータ) (2022-11-12T21:54:05Z) - Making Things Explainable vs Explaining: Requirements and Challenges
under the GDPR [2.578242050187029]
ExplanatorY AI(YAI)はXAI上に構築され、説明可能な情報の収集と整理を目的としている。
本稿では,自動意思決定システム(ADM)について,説明空間上の適切な経路を特定するための説明を生成する問題について述べる。
論文 参考訳(メタデータ) (2021-10-02T08:48:47Z) - A User-Centred Framework for Explainable Artificial Intelligence in
Human-Robot Interaction [70.11080854486953]
本稿では,XAIのソーシャル・インタラクティブな側面に着目したユーザ中心型フレームワークを提案する。
このフレームワークは、エキスパートでないユーザのために考えられた対話型XAIソリューションのための構造を提供することを目的としている。
論文 参考訳(メタデータ) (2021-09-27T09:56:23Z) - Explainable AI: current status and future directions [11.92436948211501]
説明可能な人工知能(XAI)は、人工知能(AI)分野における新たな研究分野である。
XAIは、AIが特定のソリューションをどのように取得したかを説明し、他の"wh"質問にも答えることができる。
本稿では,マルチメディア(テキスト,画像,音声,ビデオ)の観点から,これらの技術の概要を紹介する。
論文 参考訳(メタデータ) (2021-07-12T08:42:19Z) - Counterfactual Explanations as Interventions in Latent Space [62.997667081978825]
反現実的な説明は、望ましい結果を達成するために変更が必要な機能のセットをエンドユーザに提供することを目的としています。
現在のアプローチでは、提案された説明を達成するために必要な行動の実現可能性を考慮することはめったにない。
本稿では,非現実的説明を生成する手法として,潜時空間における干渉としての対実的説明(CEILS)を提案する。
論文 参考訳(メタデータ) (2021-06-14T20:48:48Z) - Empowering Things with Intelligence: A Survey of the Progress,
Challenges, and Opportunities in Artificial Intelligence of Things [98.10037444792444]
AIがIoTをより速く、より賢く、よりグリーンで、より安全にするための力を与える方法を示します。
まず、認識、学習、推論、行動の4つの視点から、IoTのためのAI研究の進歩を示す。
最後に、私たちの世界を深く再形成する可能性が高いAIoTの有望な応用をいくつかまとめる。
論文 参考訳(メタデータ) (2020-11-17T13:14:28Z) - A general framework for scientifically inspired explanations in AI [76.48625630211943]
我々は、AIシステムの説明を実装可能な一般的なフレームワークの理論的基盤として、科学的説明の構造の概念をインスタンス化する。
このフレームワークは、AIシステムの"メンタルモデル"を構築するためのツールを提供することを目的としている。
論文 参考訳(メタデータ) (2020-03-02T10:32:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。