論文の概要: Is ProtoPNet Really Explainable? Evaluating and Improving the
Interpretability of Prototypes
- arxiv url: http://arxiv.org/abs/2212.05946v1
- Date: Mon, 12 Dec 2022 14:59:11 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-13 16:55:07.984194
- Title: Is ProtoPNet Really Explainable? Evaluating and Improving the
Interpretability of Prototypes
- Title(参考訳): ProtoPNetは本当に説明可能であるか?
プロトタイプの解釈可能性の評価と改善
- Authors: Qihan Huang, Mengqi Xue, Haofei Zhang, Jie Song, Mingli Song
- Abstract要約: 本研究は,プロトタイプによる説明の解釈可能性について定量的に評価する試みである。
本稿では,2つの評価指標,すなわち整合性スコアと頑健性安定性スコアを提案し,説明整合性クロス画像の評価を行う。
本稿では,既存のProtoPNetの解釈可能性を明らかにするために,体系的な評価実験と実質的な議論を行う。
- 参考スコア(独自算出の注目度): 32.32996622417521
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: ProtoPNet and its follow-up variants (ProtoPNets) have attracted broad
research interest for their intrinsic interpretability from prototypes and
comparable accuracy to non-interpretable counterparts. However, it has been
recently found that the interpretability of prototypes can be corrupted due to
the semantic gap between similarity in latent space and that in input space. In
this work, we make the first attempt to quantitatively evaluate the
interpretability of prototype-based explanations, rather than solely
qualitative evaluations by some visualization examples, which can be easily
misled by cherry picks. To this end, we propose two evaluation metrics, termed
consistency score and stability score, to evaluate the explanation consistency
cross images and the explanation robustness against perturbations, both of
which are essential for explanations taken into practice. Furthermore, we
propose a shallow-deep feature alignment (SDFA) module and a score aggregation
(SA) module to improve the interpretability of prototypes. We conduct
systematical evaluation experiments and substantial discussions to uncover the
interpretability of existing ProtoPNets. Experiments demonstrate that our
method achieves significantly superior performance to the state-of-the-arts,
under both the conventional qualitative evaluations and the proposed
quantitative evaluations, in both accuracy and interpretability. Codes are
available at https://github.com/hqhQAQ/EvalProtoPNet.
- Abstract(参考訳): ProtoPNetとその追従型(ProtoPNets)は、プロトタイプから固有の解釈可能性と非解釈不可能な解釈に匹敵する精度で、幅広い研究の関心を集めている。
しかし,最近になって,潜在空間における類似性と入力空間における類似性の関係から,プロトタイプの解釈性が損なわれることが判明した。
本研究は,サクラの摘み取りによって容易に誤解されるような可視化例による質的評価に留まらず,プロトタイプに基づく説明の解釈性を定量的に評価する最初の試みである。
そこで本研究では,2つの評価指標,すなわち一貫性スコアと安定性スコアを提案し,説明一貫性クロスイメージと摂動に対する説明堅牢性を評価する。
さらに,プロトタイプの解釈性を向上させるために,浅層深度特徴アライメント(SDFA)モジュールとスコアアグリゲーション(SA)モジュールを提案する。
我々は,既存のプロトネットの解釈可能性を明らかにするために,体系的な評価実験を行い,実質的な議論を行う。
実験により,従来の定性評価と定量的評価の両面において,精度と解釈性の両方において,本手法は最先端技術よりも優れた性能を示すことが示された。
コードはhttps://github.com/hqhQAQ/EvalProtoPNetで入手できる。
関連論文リスト
- Enhanced Prototypical Part Network (EPPNet) For Explainable Image Classification Via Prototypes [16.528373143163275]
画像分類のためのEPPNet(Enhanced Prototypeal Part Network)を導入する。
EPPNetは、分類結果を説明するために使用可能な関連するプロトタイプを発見しながら、強力なパフォーマンスを実現している。
CUB-200-2011 データセットによる評価の結果,EPPNet は最先端の xAI ベースの手法よりも優れていた。
論文 参考訳(メタデータ) (2024-08-08T17:26:56Z) - Improving Network Interpretability via Explanation Consistency Evaluation [56.14036428778861]
本稿では、より説明可能なアクティベーションヒートマップを取得し、同時にモデル性能を向上させるフレームワークを提案する。
具体的には、モデル学習において、トレーニングサンプルを適応的に重み付けするために、新しいメトリクス、すなわち説明整合性を導入する。
そこで,本フレームワークは,これらのトレーニングサンプルに深い注意を払ってモデル学習を促進する。
論文 参考訳(メタデータ) (2024-08-08T17:20:08Z) - Unifying Feature and Cost Aggregation with Transformers for Semantic and Visual Correspondence [51.54175067684008]
本稿では,高密度マッチングタスク用に設計されたTransformerベースの積分機能とコスト集約ネットワークを提案する。
まず, 特徴集約とコスト集約が異なる特徴を示し, 双方の集約プロセスの司法的利用から生じる実質的な利益の可能性を明らかにした。
本フレームワークは意味マッチングのための標準ベンチマークで評価され,また幾何マッチングにも適用された。
論文 参考訳(メタデータ) (2024-03-17T07:02:55Z) - InterpretCC: Intrinsic User-Centric Interpretability through Global Mixture of Experts [31.738009841932374]
ニューラルネットワークの解釈性は、3つの重要な要件間のトレードオフである。
本稿では,人間中心の解釈可能性を保証する,解釈可能なニューラルネットワークのファミリであるInterpretCCを提案する。
論文 参考訳(メタデータ) (2024-02-05T11:55:50Z) - Decom--CAM: Tell Me What You See, In Details! Feature-Level Interpretation via Decomposition Class Activation Map [23.71680014689873]
クラスアクティベーションマップ(CAM)は、オブジェクトの位置をハイライトすることで深層モデルの予測を解釈するために広く使われている。
本稿では,分解クラス活性化マップ(Decom-CAM)と呼ばれる2段階の解釈可能性を提案する。
実験の結果,提案したDecom-CAMは最先端の手法よりも優れていた。
論文 参考訳(メタデータ) (2023-05-27T14:33:01Z) - A Fine-grained Interpretability Evaluation Benchmark for Neural NLP [44.08113828762984]
このベンチマークでは、感情分析、テキスト類似性、読解の3つのNLPタスクをカバーしている。
十分にコンパクトで包括的に注釈付けされたトークンレベルの合理性を提供します。
3つのサリエンシ手法を用いた3つの典型的なモデルについて実験を行い、その強度と弱さを解釈可能性の観点から明らかにした。
論文 参考訳(メタデータ) (2022-05-23T07:37:04Z) - Attentional Prototype Inference for Few-Shot Segmentation [128.45753577331422]
数発のセグメンテーションのための確率的潜在変数フレームワークである注意型プロトタイプ推論(API)を提案する。
我々は各オブジェクトカテゴリのプロトタイプを表現するためにグローバル潜在変数を定義し、確率分布としてモデル化する。
我々は4つのベンチマークで広範な実験を行い、提案手法は最先端のプロトタイプベースの手法よりも、少なくとも競争力があり、しばしば優れた性能が得られる。
論文 参考訳(メタデータ) (2021-05-14T06:58:44Z) - Toward Scalable and Unified Example-based Explanation and Outlier
Detection [128.23117182137418]
我々は,試行錯誤の予測に例ベースの説明を与えることのできる,プロトタイプベースの学生ネットワークのより広範な採用を論じる。
類似カーネル以外のプロトタイプベースのネットワークは,分類精度を損なうことなく,有意義な説明と有望な外乱検出結果が得られることを示す。
論文 参考訳(メタデータ) (2020-11-11T05:58:17Z) - P2ExNet: Patch-based Prototype Explanation Network [5.557646286040063]
人間の認知に触発された説明可能な推論過程を本質的に利用するために設計された,解釈可能な新しいネットワークスキームを提案する。
P2ExNetは、本質的には理解可能でトレース可能な決定を提供するが、それと比較すると、同等のパフォーマンスに達する。
論文 参考訳(メタデータ) (2020-05-05T08:45:43Z) - Obtaining Faithful Interpretations from Compositional Neural Networks [72.41100663462191]
NLVR2およびDROPデータセット上でNMNの中間出力を評価する。
中間出力は期待出力と異なり,ネットワーク構造がモデル動作の忠実な説明を提供していないことを示す。
論文 参考訳(メタデータ) (2020-05-02T06:50:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。