論文の概要: The future of human-centric eXplainable Artificial Intelligence (XAI) is
not post-hoc explanations
- arxiv url: http://arxiv.org/abs/2307.00364v1
- Date: Sat, 1 Jul 2023 15:24:47 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-05 16:22:29.535567
- Title: The future of human-centric eXplainable Artificial Intelligence (XAI) is
not post-hoc explanations
- Title(参考訳): 人中心型eXplainable Artificial Intelligence(XAI)の未来は、ポストホックな説明ではない
- Authors: Vinitra Swamy, Jibril Frej, Tanja K\"aser
- Abstract要約: 人間中心のXAIにおける現在のアプローチは、単一の説明器に依存する傾向がある。
我々は、ポストホックな説明可能性から解釈可能なニューラルネットワークアーキテクチャの設計に移行することを提案する。
- 参考スコア(独自算出の注目度): 0.6445605125467573
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Explainable Artificial Intelligence (XAI) plays a crucial role in enabling
human understanding and trust in deep learning systems, often defined as
determining which features are most important to a model's prediction. As
models get larger, more ubiquitous, and pervasive in aspects of daily life,
explainability is necessary to avoid or minimize adverse effects of model
mistakes. Unfortunately, current approaches in human-centric XAI (e.g.
predictive tasks in healthcare, education, or personalized ads) tend to rely on
a single explainer. This is a particularly concerning trend when considering
that recent work has identified systematic disagreement in explainability
methods when applied to the same points and underlying black-box models. In
this paper, we therefore present a call for action to address the limitations
of current state-of-the-art explainers. We propose to shift from post-hoc
explainability to designing interpretable neural network architectures; moving
away from approximation techniques in human-centric and high impact
applications. We identify five needs of human-centric XAI (real-time, accurate,
actionable, human-interpretable, and consistent) and propose two schemes for
interpretable-by-design neural network workflows (adaptive routing for
interpretable conditional computation and diagnostic benchmarks for iterative
model learning). We postulate that the future of human-centric XAI is neither
in explaining black-boxes nor in reverting to traditional, interpretable
models, but in neural networks that are intrinsically interpretable.
- Abstract(参考訳): 説明可能な人工知能(XAI)は、ディープラーニングシステムに対する人間の理解と信頼を可能にする上で重要な役割を果たす。
モデルがより大きく、よりユビキタスになり、日常生活の側面に広まるにつれて、モデルミスの悪影響を回避または最小化するために説明可能性が必要である。
残念ながら、人間中心のxaiの現在のアプローチ(医療、教育、パーソナライズされた広告の予測タスクなど)は、単一の説明者に依存する傾向がある。
これは、最近の研究で同じ点と下層のブラックボックスモデルに適用された場合、説明可能性法における体系的な不一致が特定された場合の傾向に特に関係している。
そこで本稿では,現状技術解説者の限界に対処するための行動を呼びかける。
本稿では,人間中心・高影響アプリケーションにおける近似手法から脱却する,解釈可能なニューラルネットワークアーキテクチャの設計へのポストホックな説明可能性への移行を提案する。
人間中心のxai(リアルタイム、正確、動作可能、人間解釈可能、一貫性)の5つのニーズを特定し、ニューラルネットワークワークフロー(解釈可能な条件付き計算のための適応ルーティングと反復モデル学習のための診断ベンチマーク)の2つのスキームを提案する。
我々は、人間中心のXAIの未来はブラックボックスの説明や従来の解釈可能なモデルへの回帰ではなく、本質的に解釈可能なニューラルネットワークにあると仮定する。
関連論文リスト
- Explaining Explainability: Towards Deeper Actionable Insights into Deep
Learning through Second-order Explainability [70.60433013657693]
2階説明可能なAI(SOXAI)は、最近インスタンスレベルからデータセットレベルまで説明可能なAI(XAI)を拡張するために提案されている。
そこで本研究では,SOXAIの動作可能な洞察に基づくトレーニングセットから無関係な概念を除外することで,モデルの性能を向上させることができることを示す。
論文 参考訳(メタデータ) (2023-06-14T23:24:01Z) - Learning Theory of Mind via Dynamic Traits Attribution [59.9781556714202]
本稿では,過去のトラジェクトリからアクターの潜在特性ベクトルを生成するニューラルToMアーキテクチャを提案する。
この特性ベクトルは、予測ニューラルネットワークの高速重み付けスキームを介して予測機構を乗法的に変調する。
実験により,高速重量はエージェントの特性をモデル化し,マインドリーディング能力を向上させるために優れた誘導バイアスを与えることが示された。
論文 参考訳(メタデータ) (2022-04-17T11:21:18Z) - CX-ToM: Counterfactual Explanations with Theory-of-Mind for Enhancing
Human Trust in Image Recognition Models [84.32751938563426]
我々は、深層畳み込みニューラルネットワーク(CNN)による決定を説明するための、新しい説明可能なAI(XAI)フレームワークを提案する。
単発応答として説明を生成するXAIの現在の手法とは対照的に,我々は反復的な通信プロセスとして説明を行う。
本フレームワークは,機械の心と人間の心の相違を媒介し,対話における説明文のシーケンスを生成する。
論文 参考訳(メタデータ) (2021-09-03T09:46:20Z) - Deep Interpretable Models of Theory of Mind For Human-Agent Teaming [0.7734726150561086]
我々は、他の観測対象の意図をモデル化するための解釈可能なモジュラー・ニューラル・フレームワークを開発する。
Minecraftの検索および救助タスクで、人間の参加者のデータに関する実験を行い、アプローチの有効性を実証します。
論文 参考訳(メタデータ) (2021-04-07T06:18:58Z) - DAX: Deep Argumentative eXplanation for Neural Networks [16.02942412130146]
本稿では,計算的議論を活用し,内部動作の透明性を提供する手法を提案する。
3つのDAXインスタンス化(様々なニューラルアーキテクチャやタスク)を定義し、安定性、計算コスト、深さの重要性を実証的に評価する。
また、テキスト分類モデルのためのDAXを用いた人間実験を行い、人間に理解でき、判断に沿うとともに、ユーザ受け入れの観点からは競合し、議論的な精神をもった既存のXAIへのアプローチを示す。
論文 参考訳(メタデータ) (2020-12-10T15:55:09Z) - Explainability in Deep Reinforcement Learning [68.8204255655161]
説明可能な強化学習(XRL)の実現に向けての最近の成果を概観する。
エージェントの振る舞いを正当化し、説明することが不可欠である重要な状況において、RLモデルのより良い説明可能性と解釈性は、まだブラックボックスと見なされているものの内部動作に関する科学的洞察を得るのに役立つ。
論文 参考訳(メタデータ) (2020-08-15T10:11:42Z) - Machine Common Sense [77.34726150561087]
機械の常識は、人工知能(AI)において広範で潜在的に無拘束な問題のままである
本稿では、対人インタラクションのようなドメインに焦点を当てたコモンセンス推論のモデル化の側面について論じる。
論文 参考訳(メタデータ) (2020-06-15T13:59:47Z) - A general framework for scientifically inspired explanations in AI [76.48625630211943]
我々は、AIシステムの説明を実装可能な一般的なフレームワークの理論的基盤として、科学的説明の構造の概念をインスタンス化する。
このフレームワークは、AIシステムの"メンタルモデル"を構築するためのツールを提供することを目的としている。
論文 参考訳(メタデータ) (2020-03-02T10:32:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。