論文の概要: Two-Stage Holistic and Contrastive Explanation of Image Classification
- arxiv url: http://arxiv.org/abs/2306.06339v1
- Date: Sat, 10 Jun 2023 04:22:13 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-13 19:33:55.030744
- Title: Two-Stage Holistic and Contrastive Explanation of Image Classification
- Title(参考訳): 画像分類の2段階的・相対的説明法
- Authors: Weiyan Xie, Xiao-Hui Li, Zhi Lin, Leonard K. M. Poon, Caleb Chen Cao,
Nevin L. Zhang
- Abstract要約: 全体的なアウトプットの説明は、人間のユーザがモデル行動の全体的な理解を得るのに役立つ。
画像分類のためのコントラスト的全出力説明法(CWOX)を提案する。
- 参考スコア(独自算出の注目度): 16.303752364521454
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: The need to explain the output of a deep neural network classifier is now
widely recognized. While previous methods typically explain a single class in
the output, we advocate explaining the whole output, which is a probability
distribution over multiple classes. A whole-output explanation can help a human
user gain an overall understanding of model behaviour instead of only one
aspect of it. It can also provide a natural framework where one can examine the
evidence used to discriminate between competing classes, and thereby obtain
contrastive explanations. In this paper, we propose a contrastive whole-output
explanation (CWOX) method for image classification, and evaluate it using
quantitative metrics and through human subject studies. The source code of CWOX
is available at https://github.com/vaynexie/CWOX.
- Abstract(参考訳): ディープニューラルネットワーク分類器の出力を説明する必要性が広く認識されている。
従来の手法では出力の1つのクラスを説明するのが一般的だが、複数のクラスにまたがる確率分布である出力全体を説明する。
全体的なアウトプットの説明は、人間のユーザがモデルの1つの側面ではなく、モデル行動の全体的な理解を得るのに役立つ。
また、競合するクラスを区別するために用いられる証拠を調べ、対照的な説明を得ることができる自然な枠組みを提供することもできる。
本稿では,画像分類のための対比的全出力弁別法(cwox)を提案し,定量的指標と対象研究を通して評価する。
CWOXのソースコードはhttps://github.com/vaynexie/CWOXで入手できる。
関連論文リスト
- Open-World Semi-Supervised Learning for Node Classification [53.07866559269709]
ノード分類のためのオープンワールド半教師付き学習(Open World SSL)は、グラフコミュニティにおいて実用的だが未探索の課題である。
オープンワールド半教師付きノード分類のためのIM Balance-AwareメソッドOpenIMAを提案する。
論文 参考訳(メタデータ) (2024-03-18T05:12:54Z) - DXAI: Explaining Classification by Image Decomposition [4.013156524547072]
我々は、分解に基づく説明可能なAI(DXAI)を用いてニューラルネットワークの分類を可視化する新しい方法を提案する。
本手法は,説明熱マップを提供する代わりに,画像のクラス非依存部分とクラス固有部分への分解を行う。
論文 参考訳(メタデータ) (2023-12-30T20:52:20Z) - What can we learn about a generated image corrupting its latent
representation? [57.1841740328509]
GANのボトルネックにおける潜在表現に基づいて画像品質を予測できるという仮説を考察する。
遅延表現を雑音で破壊し、複数の出力を生成することでこれを実現できる。
論文 参考訳(メタデータ) (2022-10-12T14:40:32Z) - Causality for Inherently Explainable Transformers: CAT-XPLAIN [16.85887568521622]
我々は、最近提案されたケースワイズ・ポストホック因果説明法を用いて、既存のトランスフォーマーアーキテクチャを本質的に説明可能にする。
我々のモデルは、与えられたインスタンスの入力空間におけるトップ$k$領域の形で、その決定に寄与する説明を提供する。
論文 参考訳(メタデータ) (2022-06-29T18:11:01Z) - Unsupervised Causal Binary Concepts Discovery with VAE for Black-box
Model Explanation [28.990604269473657]
データ X がクラス Y に分類されるのは、X textithas A, B と textitdoes が C を持っていないからである。
論文 参考訳(メタデータ) (2021-09-09T19:06:53Z) - Contrastive Explanations for Model Interpretability [77.92370750072831]
分類モデルの対照的説明を生成する手法を提案する。
本手法は潜在空間へのモデル表現の投影に基づいている。
本研究は,モデル決定のより正確できめ細かな解釈性を提供するためのラベルコントラスト的説明の能力に光を当てた。
論文 参考訳(メタデータ) (2021-03-02T00:36:45Z) - This is not the Texture you are looking for! Introducing Novel
Counterfactual Explanations for Non-Experts using Generative Adversarial
Learning [59.17685450892182]
反実用説明システムは、入力画像を変更して反実用推論を可能にする。
本稿では, 対向画像から画像への変換技術に基づく, 対向画像の説明を新たに生成する手法を提案する。
その結果,我々のアプローチは,2つの最先端技術システムよりも,メンタルモデル,説明満足度,信頼度,感情,自己効力に関して有意に優れた結果をもたらすことがわかった。
論文 参考訳(メタデータ) (2020-12-22T10:08:05Z) - Dependency Decomposition and a Reject Option for Explainable Models [4.94950858749529]
近年のディープラーニングモデルは様々な推論タスクにおいて非常によく機能する。
最近の進歩は特徴を視覚化し、入力の属性を記述する方法を提供します。
本稿では, 目的の画像分類出力に対する確率分布に関する依存性を初めて解析する。
論文 参考訳(メタデータ) (2020-12-11T17:39:33Z) - Parameterized Explainer for Graph Neural Network [49.79917262156429]
グラフニューラルネットワーク(GNN)のためのパラメータ化説明器PGExplainerを提案する。
既存の研究と比較すると、PGExplainerはより優れた一般化能力を持ち、インダクティブな設定で容易に利用することができる。
合成データセットと実生活データセットの両方の実験では、グラフ分類の説明に関するAUCの相対的な改善が24.7%まで高い競争性能を示した。
論文 参考訳(メタデータ) (2020-11-09T17:15:03Z) - Leakage-Adjusted Simulatability: Can Models Generate Non-Trivial
Explanations of Their Behavior in Natural Language? [86.60613602337246]
我々はNL説明を評価するためのリーク調整シミュラビリティ(LAS)指標を提案する。
LASは、どのように説明が直接アウトプットをリークするかを制御しながら、オブザーバがモデルのアウトプットを予測するのに役立つかを計測する。
マルチエージェントゲームとしての説明文生成を行い、ラベルリークをペナライズしながら、シミュラビリティの説明を最適化する。
論文 参考訳(メタデータ) (2020-10-08T16:59:07Z) - Explainable Image Classification with Evidence Counterfactual [0.0]
画像分類のためのモデルに依存しないインスタンスレベルの説明法としてSEDCを導入する。
ある画像に対して、SEDCは、削除された場合、分類を変更する小さなセグメントの集合を検索する。
我々は,SEDC(-T) と LRP, LIME, SHAP などの特徴重要度評価手法を比較し, 上記の重要度ランキング問題にどう対処するかを述べる。
論文 参考訳(メタデータ) (2020-04-16T08:02:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。