論文の概要: The future of human-centric eXplainable Artificial Intelligence (XAI) is
not post-hoc explanations
- arxiv url: http://arxiv.org/abs/2307.00364v1
- Date: Sat, 1 Jul 2023 15:24:47 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-05 16:22:29.535567
- Title: The future of human-centric eXplainable Artificial Intelligence (XAI) is
not post-hoc explanations
- Title(参考訳): 人中心型eXplainable Artificial Intelligence(XAI)の未来は、ポストホックな説明ではない
- Authors: Vinitra Swamy, Jibril Frej, Tanja K\"aser
- Abstract要約: 人間中心のXAIにおける現在のアプローチは、単一の説明器に依存する傾向がある。
我々は、ポストホックな説明可能性から解釈可能なニューラルネットワークアーキテクチャの設計に移行することを提案する。
- 参考スコア(独自算出の注目度): 0.6445605125467573
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Explainable Artificial Intelligence (XAI) plays a crucial role in enabling
human understanding and trust in deep learning systems, often defined as
determining which features are most important to a model's prediction. As
models get larger, more ubiquitous, and pervasive in aspects of daily life,
explainability is necessary to avoid or minimize adverse effects of model
mistakes. Unfortunately, current approaches in human-centric XAI (e.g.
predictive tasks in healthcare, education, or personalized ads) tend to rely on
a single explainer. This is a particularly concerning trend when considering
that recent work has identified systematic disagreement in explainability
methods when applied to the same points and underlying black-box models. In
this paper, we therefore present a call for action to address the limitations
of current state-of-the-art explainers. We propose to shift from post-hoc
explainability to designing interpretable neural network architectures; moving
away from approximation techniques in human-centric and high impact
applications. We identify five needs of human-centric XAI (real-time, accurate,
actionable, human-interpretable, and consistent) and propose two schemes for
interpretable-by-design neural network workflows (adaptive routing for
interpretable conditional computation and diagnostic benchmarks for iterative
model learning). We postulate that the future of human-centric XAI is neither
in explaining black-boxes nor in reverting to traditional, interpretable
models, but in neural networks that are intrinsically interpretable.
- Abstract(参考訳): 説明可能な人工知能(XAI)は、ディープラーニングシステムに対する人間の理解と信頼を可能にする上で重要な役割を果たす。
モデルがより大きく、よりユビキタスになり、日常生活の側面に広まるにつれて、モデルミスの悪影響を回避または最小化するために説明可能性が必要である。
残念ながら、人間中心のxaiの現在のアプローチ(医療、教育、パーソナライズされた広告の予測タスクなど)は、単一の説明者に依存する傾向がある。
これは、最近の研究で同じ点と下層のブラックボックスモデルに適用された場合、説明可能性法における体系的な不一致が特定された場合の傾向に特に関係している。
そこで本稿では,現状技術解説者の限界に対処するための行動を呼びかける。
本稿では,人間中心・高影響アプリケーションにおける近似手法から脱却する,解釈可能なニューラルネットワークアーキテクチャの設計へのポストホックな説明可能性への移行を提案する。
人間中心のxai(リアルタイム、正確、動作可能、人間解釈可能、一貫性)の5つのニーズを特定し、ニューラルネットワークワークフロー(解釈可能な条件付き計算のための適応ルーティングと反復モデル学習のための診断ベンチマーク)の2つのスキームを提案する。
我々は、人間中心のXAIの未来はブラックボックスの説明や従来の解釈可能なモデルへの回帰ではなく、本質的に解釈可能なニューラルネットワークにあると仮定する。
関連論文リスト
- InterpretCC: Conditional Computation for Inherently Interpretable Neural
Networks [33.26876799710216]
本稿では,人間中心の解釈可能性を保証する,解釈可能なニューラルネットワークのファミリであるInterpretCCを提案する。
我々は、このアイデアを解釈可能なミックス・オブ・エキスパート・モデルに拡張し、人間が興味を持つトピックを指定できるようにします。
論文 参考訳(メタデータ) (2024-02-05T11:55:50Z) - Brain-Inspired Computational Intelligence via Predictive Coding [89.6335791546526]
予測符号化(PC)は、マシンインテリジェンスタスクにおいて有望なパフォーマンスを示している。
PCは様々な脳領域で情報処理をモデル化することができ、認知制御やロボティクスで使用することができる。
論文 参考訳(メタデータ) (2023-08-15T16:37:16Z) - Explaining Explainability: Towards Deeper Actionable Insights into Deep
Learning through Second-order Explainability [70.60433013657693]
2階説明可能なAI(SOXAI)は、最近インスタンスレベルからデータセットレベルまで説明可能なAI(XAI)を拡張するために提案されている。
そこで本研究では,SOXAIの動作可能な洞察に基づくトレーニングセットから無関係な概念を除外することで,モデルの性能を向上させることができることを示す。
論文 参考訳(メタデータ) (2023-06-14T23:24:01Z) - Interpretable Self-Aware Neural Networks for Robust Trajectory
Prediction [50.79827516897913]
本稿では,意味概念間で不確実性を分散する軌道予測のための解釈可能なパラダイムを提案する。
実世界の自動運転データに対する我々のアプローチを検証し、最先端のベースラインよりも優れた性能を示す。
論文 参考訳(メタデータ) (2022-11-16T06:28:20Z) - Learning Theory of Mind via Dynamic Traits Attribution [59.9781556714202]
本稿では,過去のトラジェクトリからアクターの潜在特性ベクトルを生成するニューラルToMアーキテクチャを提案する。
この特性ベクトルは、予測ニューラルネットワークの高速重み付けスキームを介して予測機構を乗法的に変調する。
実験により,高速重量はエージェントの特性をモデル化し,マインドリーディング能力を向上させるために優れた誘導バイアスを与えることが示された。
論文 参考訳(メタデータ) (2022-04-17T11:21:18Z) - Machine Explanations and Human Understanding [31.047297225560566]
説明は、機械学習モデルの人間の理解を改善すると仮定される。
実験的な研究で 混ざった結果も 否定的な結果も出ています
人間の直観が人間の理解にどのような役割を果たしているかを示す。
論文 参考訳(メタデータ) (2022-02-08T19:00:38Z) - CX-ToM: Counterfactual Explanations with Theory-of-Mind for Enhancing
Human Trust in Image Recognition Models [84.32751938563426]
我々は、深層畳み込みニューラルネットワーク(CNN)による決定を説明するための、新しい説明可能なAI(XAI)フレームワークを提案する。
単発応答として説明を生成するXAIの現在の手法とは対照的に,我々は反復的な通信プロセスとして説明を行う。
本フレームワークは,機械の心と人間の心の相違を媒介し,対話における説明文のシーケンスを生成する。
論文 参考訳(メタデータ) (2021-09-03T09:46:20Z) - Deep Interpretable Models of Theory of Mind For Human-Agent Teaming [0.7734726150561086]
我々は、他の観測対象の意図をモデル化するための解釈可能なモジュラー・ニューラル・フレームワークを開発する。
Minecraftの検索および救助タスクで、人間の参加者のデータに関する実験を行い、アプローチの有効性を実証します。
論文 参考訳(メタデータ) (2021-04-07T06:18:58Z) - Enhancing Human-Machine Teaming for Medical Prognosis Through Neural
Ordinary Differential Equations (NODEs) [0.0]
医学的診断における機械学習の可能性を完全に実現するための重要な障壁は、テクノロジーの受容である。
説明可能なAI(XAI)を作成するための最近の取り組みは、いくつかのMLモデルの解釈可能性を改善するために進歩している。
本稿では,人間の理解を高め,受容性を促進する新しいMLアーキテクチャを提案する。
論文 参考訳(メタデータ) (2021-02-08T10:52:23Z) - Explainability in Deep Reinforcement Learning [68.8204255655161]
説明可能な強化学習(XRL)の実現に向けての最近の成果を概観する。
エージェントの振る舞いを正当化し、説明することが不可欠である重要な状況において、RLモデルのより良い説明可能性と解釈性は、まだブラックボックスと見なされているものの内部動作に関する科学的洞察を得るのに役立つ。
論文 参考訳(メタデータ) (2020-08-15T10:11:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。