論文の概要: The future of human-centric eXplainable Artificial Intelligence (XAI) is not post-hoc explanations
- arxiv url: http://arxiv.org/abs/2307.00364v2
- Date: Tue, 28 May 2024 15:14:16 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-30 04:36:37.230268
- Title: The future of human-centric eXplainable Artificial Intelligence (XAI) is not post-hoc explanations
- Title(参考訳): 人中心型eXplainable Artificial Intelligence(XAI)の未来は、ポストホックな説明ではない
- Authors: Vinitra Swamy, Jibril Frej, Tanja Käser,
- Abstract要約: 本稿では、ポストホックな説明可能性から解釈可能なニューラルネットワークアーキテクチャの設計へのシフトを提案する。
我々は、人間中心型XAIの5つのニーズを特定し、ニューラルネットワークの解釈と設計のための2つのスキームを提案する。
- 参考スコア(独自算出の注目度): 3.7673721058583123
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Explainable Artificial Intelligence (XAI) plays a crucial role in enabling human understanding and trust in deep learning systems. As models get larger, more ubiquitous, and pervasive in aspects of daily life, explainability is necessary to minimize adverse effects of model mistakes. Unfortunately, current approaches in human-centric XAI (e.g. predictive tasks in healthcare, education, or personalized ads) tend to rely on a single post-hoc explainer, whereas recent work has identified systematic disagreement between post-hoc explainers when applied to the same instances of underlying black-box models. In this paper, we therefore present a call for action to address the limitations of current state-of-the-art explainers. We propose a shift from post-hoc explainability to designing interpretable neural network architectures. We identify five needs of human-centric XAI (real-time, accurate, actionable, human-interpretable, and consistent) and propose two schemes for interpretable-by-design neural network workflows (adaptive routing with InterpretCC and temporal diagnostics with I2MD). We postulate that the future of human-centric XAI is neither in explaining black-boxes nor in reverting to traditional, interpretable models, but in neural networks that are intrinsically interpretable.
- Abstract(参考訳): 説明可能な人工知能(XAI)は、深層学習システムに対する人間の理解と信頼を可能にする上で重要な役割を担っている。
モデルがより大きく、よりユビキタスになり、日常的な側面で広く普及するにつれて、モデルミスの悪影響を最小限に抑えるために説明可能性が必要である。
残念なことに、人間中心のXAI(例えば医療、教育、パーソナライズされた広告の予測タスク)における現在のアプローチは、単一のポストホックの説明器に依存する傾向にある。
そこで本稿では,現状技術解説者の限界に対処するための行動を呼びかける。
本稿では、ポストホックな説明可能性から解釈可能なニューラルネットワークアーキテクチャの設計へのシフトを提案する。
我々は、人間中心XAI(リアルタイム、正確、行動可能、人間解釈可能、一貫性)の5つのニーズを特定し、解釈可能なニューラルネットワークワークフロー(InterpretCCによる適応ルーティングとI2MDによる時間的診断)の2つのスキームを提案する。
我々は、人間中心のXAIの未来は、ブラックボックスの説明や従来の解釈可能なモデルへの回帰ではなく、本質的に解釈可能なニューラルネットワークにあると仮定する。
関連論文リスト
- Explaining Explainability: Towards Deeper Actionable Insights into Deep
Learning through Second-order Explainability [70.60433013657693]
2階説明可能なAI(SOXAI)は、最近インスタンスレベルからデータセットレベルまで説明可能なAI(XAI)を拡張するために提案されている。
そこで本研究では,SOXAIの動作可能な洞察に基づくトレーニングセットから無関係な概念を除外することで,モデルの性能を向上させることができることを示す。
論文 参考訳(メタデータ) (2023-06-14T23:24:01Z) - Learning Theory of Mind via Dynamic Traits Attribution [59.9781556714202]
本稿では,過去のトラジェクトリからアクターの潜在特性ベクトルを生成するニューラルToMアーキテクチャを提案する。
この特性ベクトルは、予測ニューラルネットワークの高速重み付けスキームを介して予測機構を乗法的に変調する。
実験により,高速重量はエージェントの特性をモデル化し,マインドリーディング能力を向上させるために優れた誘導バイアスを与えることが示された。
論文 参考訳(メタデータ) (2022-04-17T11:21:18Z) - CX-ToM: Counterfactual Explanations with Theory-of-Mind for Enhancing
Human Trust in Image Recognition Models [84.32751938563426]
我々は、深層畳み込みニューラルネットワーク(CNN)による決定を説明するための、新しい説明可能なAI(XAI)フレームワークを提案する。
単発応答として説明を生成するXAIの現在の手法とは対照的に,我々は反復的な通信プロセスとして説明を行う。
本フレームワークは,機械の心と人間の心の相違を媒介し,対話における説明文のシーケンスを生成する。
論文 参考訳(メタデータ) (2021-09-03T09:46:20Z) - Deep Interpretable Models of Theory of Mind For Human-Agent Teaming [0.7734726150561086]
我々は、他の観測対象の意図をモデル化するための解釈可能なモジュラー・ニューラル・フレームワークを開発する。
Minecraftの検索および救助タスクで、人間の参加者のデータに関する実験を行い、アプローチの有効性を実証します。
論文 参考訳(メタデータ) (2021-04-07T06:18:58Z) - DAX: Deep Argumentative eXplanation for Neural Networks [16.02942412130146]
本稿では,計算的議論を活用し,内部動作の透明性を提供する手法を提案する。
3つのDAXインスタンス化(様々なニューラルアーキテクチャやタスク)を定義し、安定性、計算コスト、深さの重要性を実証的に評価する。
また、テキスト分類モデルのためのDAXを用いた人間実験を行い、人間に理解でき、判断に沿うとともに、ユーザ受け入れの観点からは競合し、議論的な精神をもった既存のXAIへのアプローチを示す。
論文 参考訳(メタデータ) (2020-12-10T15:55:09Z) - Explainability in Deep Reinforcement Learning [68.8204255655161]
説明可能な強化学習(XRL)の実現に向けての最近の成果を概観する。
エージェントの振る舞いを正当化し、説明することが不可欠である重要な状況において、RLモデルのより良い説明可能性と解釈性は、まだブラックボックスと見なされているものの内部動作に関する科学的洞察を得るのに役立つ。
論文 参考訳(メタデータ) (2020-08-15T10:11:42Z) - Machine Common Sense [77.34726150561087]
機械の常識は、人工知能(AI)において広範で潜在的に無拘束な問題のままである
本稿では、対人インタラクションのようなドメインに焦点を当てたコモンセンス推論のモデル化の側面について論じる。
論文 参考訳(メタデータ) (2020-06-15T13:59:47Z) - A general framework for scientifically inspired explanations in AI [76.48625630211943]
我々は、AIシステムの説明を実装可能な一般的なフレームワークの理論的基盤として、科学的説明の構造の概念をインスタンス化する。
このフレームワークは、AIシステムの"メンタルモデル"を構築するためのツールを提供することを目的としている。
論文 参考訳(メタデータ) (2020-03-02T10:32:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。