論文の概要: What Do We Want From Explainable Artificial Intelligence (XAI)? -- A
Stakeholder Perspective on XAI and a Conceptual Model Guiding
Interdisciplinary XAI Research
- arxiv url: http://arxiv.org/abs/2102.07817v1
- Date: Mon, 15 Feb 2021 19:54:33 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-17 14:58:53.128971
- Title: What Do We Want From Explainable Artificial Intelligence (XAI)? -- A
Stakeholder Perspective on XAI and a Conceptual Model Guiding
Interdisciplinary XAI Research
- Title(参考訳): 説明可能な人工知能(XAI)から何が欲しいですか?
--XAIの利害関係者と学際的XAI研究を指導する概念モデル
- Authors: Markus Langer, Daniel Oster, Timo Speith, Holger Hermanns, Lena
K\"astner, Eva Schmidt, Andreas Sesing, Kevin Baum
- Abstract要約: 説明可能性アプローチの主な目的は、人工システムに関する特定の関心、目標、期待、ニーズ、および要求を満たすことです。
ステークホルダーのデシデラタを満たすという目標を達成するための説明可能性アプローチがどうあるべきかは、しばしば不明である。
- 参考スコア(独自算出の注目度): 0.8707090176854576
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Previous research in Explainable Artificial Intelligence (XAI) suggests that
a main aim of explainability approaches is to satisfy specific interests,
goals, expectations, needs, and demands regarding artificial systems (we call
these stakeholders' desiderata) in a variety of contexts. However, the
literature on XAI is vast, spreads out across multiple largely disconnected
disciplines, and it often remains unclear how explainability approaches are
supposed to achieve the goal of satisfying stakeholders' desiderata. This paper
discusses the main classes of stakeholders calling for explainability of
artificial systems and reviews their desiderata. We provide a model that
explicitly spells out the main concepts and relations necessary to consider and
investigate when evaluating, adjusting, choosing, and developing explainability
approaches that aim to satisfy stakeholders' desiderata. This model can serve
researchers from the variety of different disciplines involved in XAI as a
common ground. It emphasizes where there is interdisciplinary potential in the
evaluation and the development of explainability approaches.
- Abstract(参考訳): 説明可能な人工知能(XAI)の以前の研究は、説明可能性アプローチの主な目的は、さまざまな文脈において人工システムに関する特定の関心、目標、期待、ニーズ、要求を満たすことであることを示唆している。
しかし、XAIに関する文献は広く、主に不連結な複数の分野に広がっており、ステークホルダーのデシデラタを満たすという目標を達成するための説明可能性のアプローチがどうあるべきかは定かではない。
本稿では,人工システムの説明可能性を求める利害関係者の主要なクラスについて論じ,デシダータをレビューする。
ステークホルダーのデシデラタを満足することを目的とした説明可能性アプローチの評価、調整、選択、開発において、考慮し、調査するために必要な主な概念と関係を明示的に記述するモデルを提供する。
このモデルは、XAIにまつわる様々な分野の研究者に共通基盤として役立てることができる。
それは、評価と説明可能性のアプローチの開発に学際的な可能性があるところを強調します。
関連論文リスト
- Position Paper: Agent AI Towards a Holistic Intelligence [53.35971598180146]
エージェントAI - 大きな基盤モデルをエージェントアクションに統合する具体的システム。
本稿では,エージェント・ファウンデーション・モデル(エージェント・ファウンデーション・モデル)を提案する。
論文 参考訳(メタデータ) (2024-02-28T16:09:56Z) - Explainable artificial intelligence approaches for brain-computer
interfaces: a review and design space [6.786321327136925]
本稿では、Brain-Computer Interfacesに適用された説明可能な人工知能技術の統合的な視点について述べる。
Brain-Computer Interfacesは、予測モデルを使用して、様々なハイテイクアプリケーションのために脳信号を解釈する。
BCI文学におけるXAIの統合的な視点は欠如している。
論文 参考訳(メタデータ) (2023-12-20T13:56:31Z) - Predictable Artificial Intelligence [67.79118050651908]
予測可能性を達成することは、AIエコシステムの信頼、責任、コントロール、アライメント、安全性を促進するために不可欠である、と私たちは主張する。
本稿では,予測可能なAIに関する疑問,仮説,課題を解明することを目的とする。
論文 参考訳(メタデータ) (2023-10-09T21:36:21Z) - A New Perspective on Evaluation Methods for Explainable Artificial
Intelligence (XAI) [0.0]
我々は、リソースの可用性、ドメインの特徴、リスクの考慮を組み込んだ、曖昧な方法でアプローチするのが最善である、と論じる。
この研究は、AIのための要求工学の分野を前進させることを目的としている。
論文 参考訳(メタデータ) (2023-07-26T15:15:44Z) - Who wants what and how: a Mapping Function for Explainable Artificial
Intelligence [0.0]
本研究の目的は、既存のXAI研究のレビューを行い、XAI手法の分類を提示することである。
この研究は、XAIユーザを適切な方法で接続し、現在のXAIアプローチと望ましい特性を関連付けることを目的とする。
論文 参考訳(メタデータ) (2023-02-07T01:06:38Z) - Explainable Artificial Intelligence: Precepts, Methods, and
Opportunities for Research in Construction [1.2622634782102324]
我々は,建設におけるその可能性に対する意識を高めるために,XAIの物語的レビューを提供する。
利害関係者のデシダラタとデータと情報融合に焦点を当てた将来のXAI研究の機会を特定し,議論する。
論文 参考訳(メタデータ) (2022-11-12T05:47:42Z) - Building Bridges: Generative Artworks to Explore AI Ethics [56.058588908294446]
近年,人工知能(AI)技術が社会に与える影響の理解と緩和に重点が置かれている。
倫理的AIシステムの設計における重要な課題は、AIパイプラインには複数の利害関係者があり、それぞれがそれぞれ独自の制約と関心を持っていることだ。
このポジションペーパーは、生成的アートワークが、アクセス可能で強力な教育ツールとして機能することで、この役割を果たすことができる可能性のいくつかを概説する。
論文 参考訳(メタデータ) (2021-06-25T22:31:55Z) - Counterfactual Explanations as Interventions in Latent Space [62.997667081978825]
反現実的な説明は、望ましい結果を達成するために変更が必要な機能のセットをエンドユーザに提供することを目的としています。
現在のアプローチでは、提案された説明を達成するために必要な行動の実現可能性を考慮することはめったにない。
本稿では,非現実的説明を生成する手法として,潜時空間における干渉としての対実的説明(CEILS)を提案する。
論文 参考訳(メタデータ) (2021-06-14T20:48:48Z) - An interdisciplinary conceptual study of Artificial Intelligence (AI)
for helping benefit-risk assessment practices: Towards a comprehensive
qualification matrix of AI programs and devices (pre-print 2020) [55.41644538483948]
本稿では,インテリジェンスの概念に対処するさまざまな分野の既存の概念を包括的に分析する。
目的は、AIシステムを評価するための共有概念や相違点を特定することである。
論文 参考訳(メタデータ) (2021-05-07T12:01:31Z) - A general framework for scientifically inspired explanations in AI [76.48625630211943]
我々は、AIシステムの説明を実装可能な一般的なフレームワークの理論的基盤として、科学的説明の構造の概念をインスタンス化する。
このフレームワークは、AIシステムの"メンタルモデル"を構築するためのツールを提供することを目的としている。
論文 参考訳(メタデータ) (2020-03-02T10:32:21Z) - The Pragmatic Turn in Explainable Artificial Intelligence (XAI) [0.0]
私は、AIにおける説明可能なモデルと解釈可能な決定の探索は、AIにおける理解の実践的で自然主義的な説明を提供するというより広いプロジェクトの観点から、再編成されなければならないと論じます。
解釈モデルや近似モデルは、機械学習モデルの客観的理解に最適な方法を提供するだけでなく、ポストホックな解釈可能性を実現するために必要な条件でもあると結論付けます。
論文 参考訳(メタデータ) (2020-02-22T01:40:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。