論文の概要: Evaluation and Improvement of Interpretability for Self-Explainable
Part-Prototype Networks
- arxiv url: http://arxiv.org/abs/2212.05946v3
- Date: Wed, 25 Oct 2023 12:27:47 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-28 06:04:34.827901
- Title: Evaluation and Improvement of Interpretability for Self-Explainable
Part-Prototype Networks
- Title(参考訳): 自己説明可能な部分型ネットワークの解釈可能性の評価と改善
- Authors: Qihan Huang, Mengqi Xue, Wenqi Huang, Haofei Zhang, Jie Song,
Yongcheng Jing, Mingli Song
- Abstract要約: パートプロトタイプネットワークは、固有の解釈可能性と非解釈可能ネットワークと同等の精度で、幅広い研究の関心を集めている。
本研究は,パートプロトタイプネットワークの解釈可能性について定量的かつ客観的に評価する試みである。
本研究では, 浅層深度特徴アライメントモジュールとスコアアグリゲーションモジュールを備えた高精細な部分プロトタイプネットワークを提案し, プロトタイプの解釈性を向上させる。
- 参考スコア(独自算出の注目度): 43.821442711496154
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Part-prototype networks (e.g., ProtoPNet, ProtoTree, and ProtoPool) have
attracted broad research interest for their intrinsic interpretability and
comparable accuracy to non-interpretable counterparts. However, recent works
find that the interpretability from prototypes is fragile, due to the semantic
gap between the similarities in the feature space and that in the input space.
In this work, we strive to address this challenge by making the first attempt
to quantitatively and objectively evaluate the interpretability of the
part-prototype networks. Specifically, we propose two evaluation metrics,
termed as consistency score and stability score, to evaluate the explanation
consistency across images and the explanation robustness against perturbations,
respectively, both of which are essential for explanations taken into practice.
Furthermore, we propose an elaborated part-prototype network with a
shallow-deep feature alignment (SDFA) module and a score aggregation (SA)
module to improve the interpretability of prototypes. We conduct systematical
evaluation experiments and provide substantial discussions to uncover the
interpretability of existing part-prototype networks. Experiments on three
benchmarks across nine architectures demonstrate that our model achieves
significantly superior performance to the state of the art, in both the
accuracy and interpretability. Our code is available at
https://github.com/hqhQAQ/EvalProtoPNet.
- Abstract(参考訳): 部分プロトタイプネットワーク(例えば、protopnet、prototree、protopool)は、内在的な解釈可能性と非解釈可能なネットワークと同等の精度で幅広い研究の関心を集めている。
しかし、最近の研究で、プロトタイプからの解釈性は、特徴空間の類似性と入力空間の類似性との間の意味的ギャップのため、脆弱であることが判明した。
本研究では,パートプロトタイプネットワークの解釈可能性を定量的かつ客観的に評価する最初の試みを行うことにより,この問題に対処する。
具体的には,画像間の説明整合性と摂動に対する説明ロバスト性を評価するために,一貫性スコアと安定性スコアという2つの評価指標を提案する。
さらに,shresh-deep feature alignment (sdfa) モジュールとスコアアグリゲーション (sa) モジュールを備えた,プロトタイプの解釈性を向上させるための,詳細な部分プロトタイプネットワークを提案する。
我々は,既存の部分プロトタイプネットワークの解釈可能性を明らかにするために,系統評価実験を行い,実質的な議論を行う。
9つのアーキテクチャにまたがる3つのベンチマーク実験により、我々のモデルは精度と解釈可能性の両方において、最先端の技術を実現できることを示した。
私たちのコードはhttps://github.com/hqhqaq/evalprotopnetで利用可能です。
関連論文リスト
- Enhanced Prototypical Part Network (EPPNet) For Explainable Image Classification Via Prototypes [16.528373143163275]
画像分類のためのEPPNet(Enhanced Prototypeal Part Network)を導入する。
EPPNetは、分類結果を説明するために使用可能な関連するプロトタイプを発見しながら、強力なパフォーマンスを実現している。
CUB-200-2011 データセットによる評価の結果,EPPNet は最先端の xAI ベースの手法よりも優れていた。
論文 参考訳(メタデータ) (2024-08-08T17:26:56Z) - Improving Network Interpretability via Explanation Consistency Evaluation [56.14036428778861]
本稿では、より説明可能なアクティベーションヒートマップを取得し、同時にモデル性能を向上させるフレームワークを提案する。
具体的には、モデル学習において、トレーニングサンプルを適応的に重み付けするために、新しいメトリクス、すなわち説明整合性を導入する。
そこで,本フレームワークは,これらのトレーニングサンプルに深い注意を払ってモデル学習を促進する。
論文 参考訳(メタデータ) (2024-08-08T17:20:08Z) - Unifying Feature and Cost Aggregation with Transformers for Semantic and Visual Correspondence [51.54175067684008]
本稿では,高密度マッチングタスク用に設計されたTransformerベースの積分機能とコスト集約ネットワークを提案する。
まず, 特徴集約とコスト集約が異なる特徴を示し, 双方の集約プロセスの司法的利用から生じる実質的な利益の可能性を明らかにした。
本フレームワークは意味マッチングのための標準ベンチマークで評価され,また幾何マッチングにも適用された。
論文 参考訳(メタデータ) (2024-03-17T07:02:55Z) - InterpretCC: Intrinsic User-Centric Interpretability through Global Mixture of Experts [31.738009841932374]
ニューラルネットワークの解釈性は、3つの重要な要件間のトレードオフである。
本稿では,人間中心の解釈可能性を保証する,解釈可能なニューラルネットワークのファミリであるInterpretCCを提案する。
論文 参考訳(メタデータ) (2024-02-05T11:55:50Z) - Decom--CAM: Tell Me What You See, In Details! Feature-Level Interpretation via Decomposition Class Activation Map [23.71680014689873]
クラスアクティベーションマップ(CAM)は、オブジェクトの位置をハイライトすることで深層モデルの予測を解釈するために広く使われている。
本稿では,分解クラス活性化マップ(Decom-CAM)と呼ばれる2段階の解釈可能性を提案する。
実験の結果,提案したDecom-CAMは最先端の手法よりも優れていた。
論文 参考訳(メタデータ) (2023-05-27T14:33:01Z) - A Fine-grained Interpretability Evaluation Benchmark for Neural NLP [44.08113828762984]
このベンチマークでは、感情分析、テキスト類似性、読解の3つのNLPタスクをカバーしている。
十分にコンパクトで包括的に注釈付けされたトークンレベルの合理性を提供します。
3つのサリエンシ手法を用いた3つの典型的なモデルについて実験を行い、その強度と弱さを解釈可能性の観点から明らかにした。
論文 参考訳(メタデータ) (2022-05-23T07:37:04Z) - Attentional Prototype Inference for Few-Shot Segmentation [128.45753577331422]
数発のセグメンテーションのための確率的潜在変数フレームワークである注意型プロトタイプ推論(API)を提案する。
我々は各オブジェクトカテゴリのプロトタイプを表現するためにグローバル潜在変数を定義し、確率分布としてモデル化する。
我々は4つのベンチマークで広範な実験を行い、提案手法は最先端のプロトタイプベースの手法よりも、少なくとも競争力があり、しばしば優れた性能が得られる。
論文 参考訳(メタデータ) (2021-05-14T06:58:44Z) - Toward Scalable and Unified Example-based Explanation and Outlier
Detection [128.23117182137418]
我々は,試行錯誤の予測に例ベースの説明を与えることのできる,プロトタイプベースの学生ネットワークのより広範な採用を論じる。
類似カーネル以外のプロトタイプベースのネットワークは,分類精度を損なうことなく,有意義な説明と有望な外乱検出結果が得られることを示す。
論文 参考訳(メタデータ) (2020-11-11T05:58:17Z) - P2ExNet: Patch-based Prototype Explanation Network [5.557646286040063]
人間の認知に触発された説明可能な推論過程を本質的に利用するために設計された,解釈可能な新しいネットワークスキームを提案する。
P2ExNetは、本質的には理解可能でトレース可能な決定を提供するが、それと比較すると、同等のパフォーマンスに達する。
論文 参考訳(メタデータ) (2020-05-05T08:45:43Z) - Obtaining Faithful Interpretations from Compositional Neural Networks [72.41100663462191]
NLVR2およびDROPデータセット上でNMNの中間出力を評価する。
中間出力は期待出力と異なり,ネットワーク構造がモデル動作の忠実な説明を提供していないことを示す。
論文 参考訳(メタデータ) (2020-05-02T06:50:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。