論文の概要: CX-ToM: Counterfactual Explanations with Theory-of-Mind for Enhancing
Human Trust in Image Recognition Models
- arxiv url: http://arxiv.org/abs/2109.01401v2
- Date: Mon, 6 Sep 2021 07:00:34 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-07 12:35:20.235218
- Title: CX-ToM: Counterfactual Explanations with Theory-of-Mind for Enhancing
Human Trust in Image Recognition Models
- Title(参考訳): CX-ToM:画像認識モデルにおける人間信頼の促進のための人間理論による事実説明
- Authors: Arjun R. Akula, Keze Wang, Changsong Liu, Sari Saba-Sadiya, Hongjing
Lu, Sinisa Todorovic, Joyce Chai, and Song-Chun Zhu
- Abstract要約: 我々は、深層畳み込みニューラルネットワーク(CNN)による決定を説明するための、新しい説明可能なAI(XAI)フレームワークを提案する。
単発応答として説明を生成するXAIの現在の手法とは対照的に,我々は反復的な通信プロセスとして説明を行う。
本フレームワークは,機械の心と人間の心の相違を媒介し,対話における説明文のシーケンスを生成する。
- 参考スコア(独自算出の注目度): 84.32751938563426
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We propose CX-ToM, short for counterfactual explanations with theory-of mind,
a new explainable AI (XAI) framework for explaining decisions made by a deep
convolutional neural network (CNN). In contrast to the current methods in XAI
that generate explanations as a single shot response, we pose explanation as an
iterative communication process, i.e. dialog, between the machine and human
user. More concretely, our CX-ToM framework generates sequence of explanations
in a dialog by mediating the differences between the minds of machine and human
user. To do this, we use Theory of Mind (ToM) which helps us in explicitly
modeling human's intention, machine's mind as inferred by the human as well as
human's mind as inferred by the machine. Moreover, most state-of-the-art XAI
frameworks provide attention (or heat map) based explanations. In our work, we
show that these attention based explanations are not sufficient for increasing
human trust in the underlying CNN model. In CX-ToM, we instead use
counterfactual explanations called fault-lines which we define as follows:
given an input image I for which a CNN classification model M predicts class
c_pred, a fault-line identifies the minimal semantic-level features (e.g.,
stripes on zebra, pointed ears of dog), referred to as explainable concepts,
that need to be added to or deleted from I in order to alter the classification
category of I by M to another specified class c_alt. We argue that, due to the
iterative, conceptual and counterfactual nature of CX-ToM explanations, our
framework is practical and more natural for both expert and non-expert users to
understand the internal workings of complex deep learning models. Extensive
quantitative and qualitative experiments verify our hypotheses, demonstrating
that our CX-ToM significantly outperforms the state-of-the-art explainable AI
models.
- Abstract(参考訳): 我々は,CX-ToMを提案する。CX-ToMは,深層畳み込みニューラルネットワーク(CNN)による決定を記述するための,新たな説明可能なAI(XAI)フレームワークである。
単発応答として説明を生成するXAIの現在の手法とは対照的に,我々は反復的な通信プロセスとして説明を行う。
ダイアログ マシンと人間のユーザーの間で
より具体的には、我々のCX-ToMフレームワークは、機械と人間の心の相違を媒介し、ダイアログ中の一連の説明を生成する。
そのために、人間の意図、機械が推論する機械の心、そして機械によって推論される人間の心を明示的にモデル化するのに役立つ、心の理論(tom)を使用します。
さらに、最先端のXAIフレームワークの多くは注意(ヒートマップ)に基づく説明を提供している。
本研究では,これらの注意に基づく説明がCNNモデルに対する人間の信頼を高めるには不十分であることを示す。
cx-tomでは、cnn分類モデルmがクラスc_predを予測する入力画像iが与えられると、説明可能な概念として説明可能な最小の意味レベルの特徴(例えばゼブラのストライプ、犬の尖った耳)が識別され、i から m の分類カテゴリを別の特定のクラス c_alt に変更するために、i から追加または削除される必要がある。
我々は,CX-ToMの説明の反復的,概念的,反実的な性質から,複雑なディープラーニングモデルの内部動作を理解するために,専門家と非専門家の双方にとって,我々のフレームワークは実用的かつ自然なものである,と論じる。
広範な定量的・定性的な実験によって仮説が検証され、cx-tomが最先端のaiモデルを大きく上回っていることが証明された。
関連論文リスト
- Reasoning with trees: interpreting CNNs using hierarchies [3.6763102409647526]
畳み込みニューラルネットワーク(CNN)の忠実かつ解釈可能な説明に階層的セグメンテーション技術を用いるフレームワークを導入する。
本手法はモデルの推論忠実性を維持するモデルに基づく階層的セグメンテーションを構築する。
実験により、我々のフレームワークであるxAiTreesが高度に解釈可能で忠実なモデル説明を提供することが示された。
論文 参考訳(メタデータ) (2024-06-19T06:45:19Z) - Less is More: Discovering Concise Network Explanations [26.126343100127936]
本稿では,人間の理解可能な視覚的説明を生成するための新しいアプローチであるDiscovering Conceptual Network Explanations (DCNE)を紹介する。
本手法は,クラス間の識別に重要な視覚的説明を自動的に見つける。
DCNEは、ニューラルネットワークの決定を人間にアクセスし、解釈できるようにするための一歩である。
論文 参考訳(メタデータ) (2024-05-24T06:10:23Z) - Evaluating the Utility of Model Explanations for Model Development [54.23538543168767]
機械学習モデル構築の実践シナリオにおいて、説明が人間の意思決定を改善するかどうかを評価する。
驚いたことに、サリエンシマップが提供されたとき、タスクが大幅に改善されたという証拠は見つからなかった。
以上の結果から,サリエンシに基づく説明における誤解の可能性と有用性について注意が必要であることが示唆された。
論文 参考訳(メタデータ) (2023-12-10T23:13:23Z) - The future of human-centric eXplainable Artificial Intelligence (XAI) is not post-hoc explanations [3.7673721058583123]
本稿では、ポストホックな説明可能性から解釈可能なニューラルネットワークアーキテクチャの設計へのシフトを提案する。
我々は、人間中心型XAIの5つのニーズを特定し、ニューラルネットワークの解釈と設計のための2つのスキームを提案する。
論文 参考訳(メタデータ) (2023-07-01T15:24:47Z) - Explaining Explainability: Towards Deeper Actionable Insights into Deep
Learning through Second-order Explainability [70.60433013657693]
2階説明可能なAI(SOXAI)は、最近インスタンスレベルからデータセットレベルまで説明可能なAI(XAI)を拡張するために提案されている。
そこで本研究では,SOXAIの動作可能な洞察に基づくトレーニングセットから無関係な概念を除外することで,モデルの性能を向上させることができることを示す。
論文 参考訳(メタデータ) (2023-06-14T23:24:01Z) - Motif-guided Time Series Counterfactual Explanations [1.1510009152620664]
本稿では,ポストホックな反事実的説明を直感的に生成する新しいモデルを提案する。
UCRリポジトリから5つの実世界の時系列データセットを用いてモデルを検証した。
論文 参考訳(メタデータ) (2022-11-08T17:56:50Z) - Learning Theory of Mind via Dynamic Traits Attribution [59.9781556714202]
本稿では,過去のトラジェクトリからアクターの潜在特性ベクトルを生成するニューラルToMアーキテクチャを提案する。
この特性ベクトルは、予測ニューラルネットワークの高速重み付けスキームを介して予測機構を乗法的に変調する。
実験により,高速重量はエージェントの特性をモデル化し,マインドリーディング能力を向上させるために優れた誘導バイアスを与えることが示された。
論文 参考訳(メタデータ) (2022-04-17T11:21:18Z) - Explanation as a process: user-centric construction of multi-level and
multi-modal explanations [0.34410212782758043]
本稿では,マルチレベルとマルチモーダルな説明を組み合わせたプロセスベースアプローチを提案する。
私たちは、解釈可能な機械学習アプローチであるインダクティブロジックプログラミングを使用して、理解可能なモデルを学びます。
論文 参考訳(メタデータ) (2021-10-07T19:26:21Z) - This is not the Texture you are looking for! Introducing Novel
Counterfactual Explanations for Non-Experts using Generative Adversarial
Learning [59.17685450892182]
反実用説明システムは、入力画像を変更して反実用推論を可能にする。
本稿では, 対向画像から画像への変換技術に基づく, 対向画像の説明を新たに生成する手法を提案する。
その結果,我々のアプローチは,2つの最先端技術システムよりも,メンタルモデル,説明満足度,信頼度,感情,自己効力に関して有意に優れた結果をもたらすことがわかった。
論文 参考訳(メタデータ) (2020-12-22T10:08:05Z) - Explainability in Deep Reinforcement Learning [68.8204255655161]
説明可能な強化学習(XRL)の実現に向けての最近の成果を概観する。
エージェントの振る舞いを正当化し、説明することが不可欠である重要な状況において、RLモデルのより良い説明可能性と解釈性は、まだブラックボックスと見なされているものの内部動作に関する科学的洞察を得るのに役立つ。
論文 参考訳(メタデータ) (2020-08-15T10:11:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。