論文の概要: Towards Fine-Grained Interpretability: Counterfactual Explanations for Misclassification with Saliency Partition
- arxiv url: http://arxiv.org/abs/2511.07974v1
- Date: Wed, 12 Nov 2025 01:31:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-12 20:17:03.573913
- Title: Towards Fine-Grained Interpretability: Counterfactual Explanations for Misclassification with Saliency Partition
- Title(参考訳): 微粒化解釈可能性に向けて--相性分割による誤分類の非現実的説明
- Authors: Lintong Zhang, Kang Yin, Seong-Whan Lee,
- Abstract要約: 本稿では,オブジェクトレベルと部分レベルの両方の解釈可能性を生成する,ファクトファクトファクトの詳細な説明フレームワークを提案する。
本手法は, 類似性を定量化し, 成分の重み付けを行うことにより, 非生成的な説明可能な反事実を与える。
- 参考スコア(独自算出の注目度): 50.68751788132789
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Attribution-based explanation techniques capture key patterns to enhance visual interpretability; however, these patterns often lack the granularity needed for insight in fine-grained tasks, particularly in cases of model misclassification, where explanations may be insufficiently detailed. To address this limitation, we propose a fine-grained counterfactual explanation framework that generates both object-level and part-level interpretability, addressing two fundamental questions: (1) which fine-grained features contribute to model misclassification, and (2) where dominant local features influence counterfactual adjustments. Our approach yields explainable counterfactuals in a non-generative manner by quantifying similarity and weighting component contributions within regions of interest between correctly classified and misclassified samples. Furthermore, we introduce a saliency partition module grounded in Shapley value contributions, isolating features with region-specific relevance. Extensive experiments demonstrate the superiority of our approach in capturing more granular, intuitively meaningful regions, surpassing fine-grained methods.
- Abstract(参考訳): 属性に基づく説明手法は、視覚的解釈可能性を高めるために重要なパターンをキャプチャするが、これらのパターンは、特に説明が不十分なモデル誤分類の場合において、細粒度タスクの洞察に必要な粒度を欠くことが多い。
この制限に対処するために, 対象レベルと部分レベルの両方の解釈可能性を生成する, 微粒化された特徴がモデルミス分類に寄与する, 2) 局所的な特徴が反ファクト的調整に影響を与える, という2つの基本的な問題に対処する, きめ細かな反ファクト的説明フレームワークを提案する。
提案手法は、類似性を定量化し、正しく分類されたサンプルと誤分類されたサンプルの間の関心領域における成分の寄与を重み付けすることにより、非生成的な説明可能な反事実を与える。
さらに、Shapley値のコントリビューションに基づいて、地域固有の関連性を持つ特徴を分離するサリエンシ分割モジュールを導入する。
広範にわたる実験は、より粒度が高く直感的に意味のある領域を捉え、きめ細かい方法を超えるアプローチの優位性を実証している。
関連論文リスト
- Superclass-Guided Representation Disentanglement for Spurious Correlation Mitigation [16.791911185682256]
本稿では,クラスラベルに固有の意味構造を利用して,突発的特徴への依存を減らす手法を提案する。
我々のモデルは、事前学習された視覚言語モデルによって誘導される勾配に基づく注意力を用いて、超クラス関連と無関係の特徴を解き放つ。
提案手法は, ソースサンプルにアノテートすることなく, より複雑なスプリアス相関に頑健性を実現する。
論文 参考訳(メタデータ) (2025-08-12T02:16:04Z) - LIRA: Inferring Segmentation in Large Multi-modal Models with Local Interleaved Region Assistance [54.683384204063934]
大規模マルチモーダルモデル(LMM)は不正確なセグメンテーションと幻覚的理解に苦しむ。
視覚的理解とセグメンテーションの相補的関係を生かしたフレームワークであるLIRAを提案する。
LIRAはセグメンテーションと理解タスクの両方で最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2025-07-08T07:46:26Z) - Explaining the Unexplained: Revealing Hidden Correlations for Better Interpretability [1.8274323268621635]
Real Explainer(RealExp)は、Shapley値を個々の特徴と特徴相関の重要度に分解する、解釈可能性の手法である。
RealExpは、個々の特徴とそれらの相互作用を正確に定量化することで、解釈可能性を高める。
論文 参考訳(メタデータ) (2024-12-02T10:50:50Z) - Prospector Heads: Generalized Feature Attribution for Large Models & Data [82.02696069543454]
本稿では,説明に基づく帰属手法の効率的かつ解釈可能な代替手段であるプロスペクタヘッドを紹介する。
入力データにおけるクラス固有のパターンの解釈と発見を、プロファイラヘッドがいかに改善できるかを実証する。
論文 参考訳(メタデータ) (2024-02-18T23:01:28Z) - Variational Disentanglement for Domain Generalization [68.85458536180437]
本稿では,変分拡散ネットワーク(VDN)という効果的なフレームワークを提供することにより,領域一般化の課題に取り組むことを提案する。
VDNは、ドメイン固有の機能とタスク固有の機能を切り離し、タスク固有のフィーチャは、見えないが関連するテストデータにより良い一般化が期待できる。
論文 参考訳(メタデータ) (2021-09-13T09:55:32Z) - Explaining a Series of Models by Propagating Local Feature Attributions [9.66840768820136]
複数の機械学習モデルを含むパイプラインは、多くの領域でパフォーマンスが向上するが、理解が難しい。
Shapley値への接続に基づいて、モデルの複雑なパイプラインを通じてローカル機能属性を伝播させるフレームワークを紹介します。
本フレームワークにより,アルツハイマー病および乳癌の組織学的診断における遺伝子発現特徴群に基づく高次結論の導出が可能となった。
論文 参考訳(メタデータ) (2021-04-30T22:20:58Z) - Refining Neural Networks with Compositional Explanations [31.84868477264624]
本稿では,モデルの失敗事例に関する人為的な構成説明を収集し,学習モデルの改良を提案する。
提案手法が2つのテキスト分類タスクに有効であることを示す。
論文 参考訳(メタデータ) (2021-03-18T17:48:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。