論文の概要: What Do We Want From Explainable Artificial Intelligence (XAI)? -- A
Stakeholder Perspective on XAI and a Conceptual Model Guiding
Interdisciplinary XAI Research
- arxiv url: http://arxiv.org/abs/2102.07817v1
- Date: Mon, 15 Feb 2021 19:54:33 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-17 14:58:53.128971
- Title: What Do We Want From Explainable Artificial Intelligence (XAI)? -- A
Stakeholder Perspective on XAI and a Conceptual Model Guiding
Interdisciplinary XAI Research
- Title(参考訳): 説明可能な人工知能(XAI)から何が欲しいですか?
--XAIの利害関係者と学際的XAI研究を指導する概念モデル
- Authors: Markus Langer, Daniel Oster, Timo Speith, Holger Hermanns, Lena
K\"astner, Eva Schmidt, Andreas Sesing, Kevin Baum
- Abstract要約: 説明可能性アプローチの主な目的は、人工システムに関する特定の関心、目標、期待、ニーズ、および要求を満たすことです。
ステークホルダーのデシデラタを満たすという目標を達成するための説明可能性アプローチがどうあるべきかは、しばしば不明である。
- 参考スコア(独自算出の注目度): 0.8707090176854576
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Previous research in Explainable Artificial Intelligence (XAI) suggests that
a main aim of explainability approaches is to satisfy specific interests,
goals, expectations, needs, and demands regarding artificial systems (we call
these stakeholders' desiderata) in a variety of contexts. However, the
literature on XAI is vast, spreads out across multiple largely disconnected
disciplines, and it often remains unclear how explainability approaches are
supposed to achieve the goal of satisfying stakeholders' desiderata. This paper
discusses the main classes of stakeholders calling for explainability of
artificial systems and reviews their desiderata. We provide a model that
explicitly spells out the main concepts and relations necessary to consider and
investigate when evaluating, adjusting, choosing, and developing explainability
approaches that aim to satisfy stakeholders' desiderata. This model can serve
researchers from the variety of different disciplines involved in XAI as a
common ground. It emphasizes where there is interdisciplinary potential in the
evaluation and the development of explainability approaches.
- Abstract(参考訳): 説明可能な人工知能(XAI)の以前の研究は、説明可能性アプローチの主な目的は、さまざまな文脈において人工システムに関する特定の関心、目標、期待、ニーズ、要求を満たすことであることを示唆している。
しかし、XAIに関する文献は広く、主に不連結な複数の分野に広がっており、ステークホルダーのデシデラタを満たすという目標を達成するための説明可能性のアプローチがどうあるべきかは定かではない。
本稿では,人工システムの説明可能性を求める利害関係者の主要なクラスについて論じ,デシダータをレビューする。
ステークホルダーのデシデラタを満足することを目的とした説明可能性アプローチの評価、調整、選択、開発において、考慮し、調査するために必要な主な概念と関係を明示的に記述するモデルを提供する。
このモデルは、XAIにまつわる様々な分野の研究者に共通基盤として役立てることができる。
それは、評価と説明可能性のアプローチの開発に学際的な可能性があるところを強調します。
関連論文リスト
- Explainable Artificial Intelligence: A Survey of Needs, Techniques, Applications, and Future Direction [5.417632175667161]
説明可能な人工知能(XAI)は、これらのモデルがどのように意思決定や予測を行うかを説明することによって、課題に対処する。
既存の研究では、XAIの基本概念、その一般的原理、およびXAI技術の範囲について検討されている。
本稿では、共通用語と定義、XAIの必要性、XAIの受益者の必要性、XAI手法の分類、および異なる応用分野におけるXAI手法の適用に関する総合的な文献レビューを提供する。
論文 参考訳(メタデータ) (2024-08-30T21:42:17Z) - Interdisciplinary Expertise to Advance Equitable Explainable AI [3.4195896673488395]
本稿では、説明可能なAI(XAI)に焦点を当て、学際的専門家パネルレビューのためのフレームワークについて述べる。
我々は、より正確で公平な解釈を生み出すための学際専門家パネルの重要性を強調した。
論文 参考訳(メタデータ) (2024-05-29T17:45:38Z) - Position Paper: Agent AI Towards a Holistic Intelligence [53.35971598180146]
エージェントAI - 大きな基盤モデルをエージェントアクションに統合する具体的システム。
本稿では,エージェント・ファウンデーション・モデル(エージェント・ファウンデーション・モデル)を提案する。
論文 参考訳(メタデータ) (2024-02-28T16:09:56Z) - Explainable artificial intelligence approaches for brain-computer
interfaces: a review and design space [6.786321327136925]
本稿では、Brain-Computer Interfacesに適用された説明可能な人工知能技術の統合的な視点について述べる。
Brain-Computer Interfacesは、予測モデルを使用して、様々なハイテイクアプリケーションのために脳信号を解釈する。
BCI文学におけるXAIの統合的な視点は欠如している。
論文 参考訳(メタデータ) (2023-12-20T13:56:31Z) - A Critical Survey on Fairness Benefits of Explainable AI [10.81142163495028]
我々は,XAIの公正性に関する175の科学的論文から,7つの考古学的主張を抽出した。
クレームは曖昧で単純化され,規範的根拠が欠如している場合や,XAIの実際の能力に不十分な場合が多いことに気付きます。
我々は、XAIを倫理的パナセアではなく、アルゴリズム的公正性の多次元社会技術的課題にアプローチするための多くのツールの1つとして考えることを提案する。
論文 参考訳(メタデータ) (2023-10-15T08:17:45Z) - Predictable Artificial Intelligence [77.1127726638209]
本稿では予測可能なAIのアイデアと課題を紹介する。
それは、現在および将来のAIエコシステムの重要な妥当性指標を予測できる方法を探る。
予測可能性を達成することは、AIエコシステムの信頼、責任、コントロール、アライメント、安全性を促進するために不可欠である、と私たちは主張する。
論文 参考訳(メタデータ) (2023-10-09T21:36:21Z) - A New Perspective on Evaluation Methods for Explainable Artificial
Intelligence (XAI) [0.0]
我々は、リソースの可用性、ドメインの特徴、リスクの考慮を組み込んだ、曖昧な方法でアプローチするのが最善である、と論じる。
この研究は、AIのための要求工学の分野を前進させることを目的としている。
論文 参考訳(メタデータ) (2023-07-26T15:15:44Z) - Building Bridges: Generative Artworks to Explore AI Ethics [56.058588908294446]
近年,人工知能(AI)技術が社会に与える影響の理解と緩和に重点が置かれている。
倫理的AIシステムの設計における重要な課題は、AIパイプラインには複数の利害関係者があり、それぞれがそれぞれ独自の制約と関心を持っていることだ。
このポジションペーパーは、生成的アートワークが、アクセス可能で強力な教育ツールとして機能することで、この役割を果たすことができる可能性のいくつかを概説する。
論文 参考訳(メタデータ) (2021-06-25T22:31:55Z) - Counterfactual Explanations as Interventions in Latent Space [62.997667081978825]
反現実的な説明は、望ましい結果を達成するために変更が必要な機能のセットをエンドユーザに提供することを目的としています。
現在のアプローチでは、提案された説明を達成するために必要な行動の実現可能性を考慮することはめったにない。
本稿では,非現実的説明を生成する手法として,潜時空間における干渉としての対実的説明(CEILS)を提案する。
論文 参考訳(メタデータ) (2021-06-14T20:48:48Z) - An interdisciplinary conceptual study of Artificial Intelligence (AI)
for helping benefit-risk assessment practices: Towards a comprehensive
qualification matrix of AI programs and devices (pre-print 2020) [55.41644538483948]
本稿では,インテリジェンスの概念に対処するさまざまな分野の既存の概念を包括的に分析する。
目的は、AIシステムを評価するための共有概念や相違点を特定することである。
論文 参考訳(メタデータ) (2021-05-07T12:01:31Z) - A general framework for scientifically inspired explanations in AI [76.48625630211943]
我々は、AIシステムの説明を実装可能な一般的なフレームワークの理論的基盤として、科学的説明の構造の概念をインスタンス化する。
このフレームワークは、AIシステムの"メンタルモデル"を構築するためのツールを提供することを目的としている。
論文 参考訳(メタデータ) (2020-03-02T10:32:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。