論文の概要: What Does Evaluation of Explainable Artificial Intelligence Actually Tell Us? A Case for Compositional and Contextual Validation of XAI Building Blocks
- arxiv url: http://arxiv.org/abs/2403.12730v1
- Date: Tue, 19 Mar 2024 13:45:34 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-20 14:03:59.012660
- Title: What Does Evaluation of Explainable Artificial Intelligence Actually Tell Us? A Case for Compositional and Contextual Validation of XAI Building Blocks
- Title(参考訳): 説明可能な人工知能の評価とは何か? XAIビルディングブロックの構成的・文脈的検証の事例
- Authors: Kacper Sokol, Julia E. Vogt,
- Abstract要約: 本稿では,説明可能な人工知能システムのためのきめ細かい検証フレームワークを提案する。
技術的ビルディングブロック,ユーザによる説明的成果物,ソーシャルコミュニケーションプロトコルといった,モジュール構造の本質を認識します。
- 参考スコア(独自算出の注目度): 16.795332276080888
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Despite significant progress, evaluation of explainable artificial intelligence remains elusive and challenging. In this paper we propose a fine-grained validation framework that is not overly reliant on any one facet of these sociotechnical systems, and that recognises their inherent modular structure: technical building blocks, user-facing explanatory artefacts and social communication protocols. While we concur that user studies are invaluable in assessing the quality and effectiveness of explanation presentation and delivery strategies from the explainees' perspective in a particular deployment context, the underlying explanation generation mechanisms require a separate, predominantly algorithmic validation strategy that accounts for the technical and human-centred desiderata of their (numerical) outputs. Such a comprehensive sociotechnical utility-based evaluation framework could allow to systematically reason about the properties and downstream influence of different building blocks from which explainable artificial intelligence systems are composed -- accounting for a diverse range of their engineering and social aspects -- in view of the anticipated use case.
- Abstract(参考訳): かなりの進歩にもかかわらず、説明可能な人工知能の評価は解明され、困難なままである。
本稿では、これらの社会技術システムのいかなる面にも依存せず、その固有のモジュラー構造(技術的構成要素、ユーザによる説明的成果物、社会的コミュニケーションプロトコル)を認識する、きめ細かい検証フレームワークを提案する。
ユーザスタディは、特定のデプロイメントコンテキストにおける説明者の視点から、説明プレゼンテーションとデリバリ戦略の品質と効果を評価する上で有用であると判断する一方で、基礎となる説明生成メカニズムには、(数値的な)出力の技術的および人間中心のデシラタを考慮に入れた、独立したアルゴリズムによる検証戦略が必要である。
このような総合的な社会技術的ユーティリティーベースの評価フレームワークは、予想されるユースケースの観点から、説明可能な人工知能システムを構成するさまざまなビルディングブロックの特性と下流の影響を体系的に推論することができる。
関連論文リスト
- Predictable Artificial Intelligence [77.1127726638209]
本稿では予測可能なAIのアイデアと課題を紹介する。
それは、現在および将来のAIエコシステムの重要な妥当性指標を予測できる方法を探る。
予測可能性を達成することは、AIエコシステムの信頼、責任、コントロール、アライメント、安全性を促進するために不可欠である、と私たちは主張する。
論文 参考訳(メタデータ) (2023-10-09T21:36:21Z) - Designing explainable artificial intelligence with active inference: A
framework for transparent introspection and decision-making [0.0]
我々は、アクティブ推論がどのようにして説明可能なAIシステムの設計に活用できるかについて議論する。
能動推論を用いた説明可能なAIシステムのためのアーキテクチャを提案する。
論文 参考訳(メタデータ) (2023-06-06T21:38:09Z) - Helpful, Misleading or Confusing: How Humans Perceive Fundamental
Building Blocks of Artificial Intelligence Explanations [11.667611038005552]
我々は、洗練された予測アルゴリズムから一歩引いて、単純な意思決定モデルの説明可能性について検討する。
我々は、人々がそれぞれの表現の理解性をどう感じているかを評価することを目的とする。
これにより、さまざまな利害関係者が、より精巧な人工知能の説明が構築される基本的な概念の無知性を判断することができる。
論文 参考訳(メタデータ) (2023-03-02T03:15:35Z) - Towards Human Cognition Level-based Experiment Design for Counterfactual
Explanations (XAI) [68.8204255655161]
XAI研究の重点は、より理解を深めるために、より実践的な説明アプローチに変わったようだ。
認知科学研究がXAIの進歩に大きく影響を与える可能性のある領域は、ユーザの知識とフィードバックを評価することである。
本研究では,異なる認知レベルの理解に基づく説明の生成と評価を実験する枠組みを提案する。
論文 参考訳(メタデータ) (2022-10-31T19:20:22Z) - Alternative models: Critical examination of disability definitions in
the development of artificial intelligence technologies [6.9884176767901005]
本稿では、障害レンズを用いてAIデータ分析技術を批判的に検証するためのフレームワークを提案する。
障害の概念モデルとして,医療モデル,社会モデル,関係モデルについて考察する。
これらのモデルで設計されたAI技術は、互いに互換性がなく矛盾するほど大きく異なることを示す。
論文 参考訳(メタデータ) (2022-06-16T16:41:23Z) - Counterfactual Explanations as Interventions in Latent Space [62.997667081978825]
反現実的な説明は、望ましい結果を達成するために変更が必要な機能のセットをエンドユーザに提供することを目的としています。
現在のアプローチでは、提案された説明を達成するために必要な行動の実現可能性を考慮することはめったにない。
本稿では,非現実的説明を生成する手法として,潜時空間における干渉としての対実的説明(CEILS)を提案する。
論文 参考訳(メタデータ) (2021-06-14T20:48:48Z) - A Diagnostic Study of Explainability Techniques for Text Classification [52.879658637466605]
既存の説明可能性技術を評価するための診断特性のリストを作成する。
そこで本研究では, モデルの性能と有理性との整合性の関係を明らかにするために, 説明可能性手法によって割り当てられた有理性スコアと有理性入力領域の人間のアノテーションを比較した。
論文 参考訳(メタデータ) (2020-09-25T12:01:53Z) - Neuro-symbolic Architectures for Context Understanding [59.899606495602406]
本稿では,データ駆動型アプローチと知識駆動型アプローチの強みを組み合わせたフレームワークとして,ハイブリッドAI手法を提案する。
具体的には、知識ベースを用いて深層ニューラルネットワークの学習過程を導く方法として、ニューロシンボリズムの概念を継承する。
論文 参考訳(メタデータ) (2020-03-09T15:04:07Z) - A general framework for scientifically inspired explanations in AI [76.48625630211943]
我々は、AIシステムの説明を実装可能な一般的なフレームワークの理論的基盤として、科学的説明の構造の概念をインスタンス化する。
このフレームワークは、AIシステムの"メンタルモデル"を構築するためのツールを提供することを目的としている。
論文 参考訳(メタデータ) (2020-03-02T10:32:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。