論文の概要: Looking in the mirror: A faithful counterfactual explanation method for interpreting deep image classification models
- arxiv url: http://arxiv.org/abs/2509.16822v1
- Date: Sat, 20 Sep 2025 22:21:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-23 18:58:15.993216
- Title: Looking in the mirror: A faithful counterfactual explanation method for interpreting deep image classification models
- Title(参考訳): 鏡をみる:深部画像分類モデル解釈のための忠実な反実的説明法
- Authors: Townim Faisal Chowdhury, Vu Minh Hieu Phan, Kewen Liao, Nanyu Dong, Minh-Son To, Anton Hengel, Johan Verjans, Zhibin Liao,
- Abstract要約: Mirror-CFEは、分類器の特徴空間で直接操作することで忠実な反事実的説明を生成する。
ミラーCFEは、最先端の説明手法と比較して入力類似性を保ちながら、有効性を向上する。
- 参考スコア(独自算出の注目度): 6.848183976353123
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Counterfactual explanations (CFE) for deep image classifiers aim to reveal how minimal input changes lead to different model decisions, providing critical insights for model interpretation and improvement. However, existing CFE methods often rely on additional image encoders and generative models to create plausible images, neglecting the classifier's own feature space and decision boundaries. As such, they do not explain the intrinsic feature space and decision boundaries learned by the classifier. To address this limitation, we propose Mirror-CFE, a novel method that generates faithful counterfactual explanations by operating directly in the classifier's feature space, treating decision boundaries as mirrors that ``reflect'' feature representations in the mirror. Mirror-CFE learns a mapping function from feature space to image space while preserving distance relationships, enabling smooth transitions between source images and their counterfactuals. Through extensive experiments on four image datasets, we demonstrate that Mirror-CFE achieves superior performance in validity while maintaining input resemblance compared to state-of-the-art explanation methods. Finally, mirror-CFE provides interpretable visualization of the classifier's decision process by generating step-wise transitions that reveal how features evolve as classification confidence changes.
- Abstract(参考訳): ディープイメージ分類器に対する対実的説明(CFE)は、入力変更の最小化がモデル決定にどう影響するかを明らかにすることを目的としており、モデルの解釈と改善に対する重要な洞察を提供する。
しかし、既存のCFE法は、しばしば画像エンコーダと生成モデルに頼り、分類器自身の特徴空間と決定境界を無視して、可塑性画像を生成する。
そのため、本質的な特徴空間と分類器によって学習された決定境界を説明できない。
この制限に対処するため,鏡における'reflect'特徴表現のミラーとして,分類者の特徴空間を直接操作し,決定境界を扱い,忠実な反実的説明を生成する新しい手法であるMirror-CFEを提案する。
Mirror-CFEは距離関係を保ちながら特徴空間から画像空間へのマッピング関数を学習し、ソース画像とその反事実間のスムーズな遷移を可能にする。
4つの画像データセットに関する広範な実験を通して、ミラーCFEは、最先端の説明手法と比較して入力類似性を保ちながら、精度に優れた性能を発揮することを示した。
最後に、ミラーCFEは、分類信頼度の変化に伴って機能がどのように進化するかを示すステップワイズ遷移を生成することによって、分類者の決定過程の解釈可能な可視化を提供する。
関連論文リスト
- HAMLET-FFD: Hierarchical Adaptive Multi-modal Learning Embeddings Transformation for Face Forgery Detection [6.060036926093259]
HAMLET-FFDは顔偽造検出のためのクロスドメイン一般化フレームワークである。
視覚的証拠と概念的手がかりを統合し、専門家の法医学的分析をエミュレートする。
HAMLET-FFDは設計上、外部プラグインとして機能する全ての事前訓練されたパラメータを凍結する。
論文 参考訳(メタデータ) (2025-07-28T15:09:52Z) - Contrastive Learning with Diffusion Features for Weakly Supervised Medical Image Segmentation [12.530950480385554]
条件拡散モデル (CDM) は, セグメンテーションマスク生成の代替手段として用いられている。
拡散特徴量を用いたコントラスト学習(CLDF)を導入し,凍結したCDMからセグメンテーションのための低次元埋め込み空間へ拡散特徴量をマッピングするために画素デコーダを訓練する。
論文 参考訳(メタデータ) (2025-06-30T01:43:50Z) - From Visual Explanations to Counterfactual Explanations with Latent Diffusion [11.433402357922414]
本稿では,近年の顕著な研究における2つの課題に対処するための新しいアプローチを提案する。
まず、ターゲットクラスの"概念"と元のクラスを区別するために、どの特定の反事実的特徴が重要かを決定する。
第二に、非ロバスト分類器に対して、対向的に堅牢なモデルのサポートに頼ることなく、重要な説明を提供する。
論文 参考訳(メタデータ) (2025-04-12T13:04:00Z) - Semi-supervised Semantic Segmentation with Multi-Constraint Consistency Learning [81.02648336552421]
本稿では,エンコーダとデコーダの段階的拡張を容易にするためのマルチ制約一貫性学習手法を提案する。
自己適応型特徴マスキングとノイズ注入は、デコーダの堅牢な学習のための特徴を摂動させるために、インスタンス固有の方法で設計されている。
Pascal VOC2012およびCityscapesデータセットの実験結果から,提案したMCCLが新たな最先端性能を実現することを示す。
論文 参考訳(メタデータ) (2025-03-23T03:21:33Z) - Intuitionistic Fuzzy Cognitive Maps for Interpretable Image Classification [2.130156029408832]
本稿では,新しいフレームワーク,Interpretable Intuitionistic Fuzzy Cognitive Maps(I2FCMs)を紹介する。
直観主義的なFCMは、その出力の質を評価するためのメカニズムを提供する。
提案されたI2FCMフレームワークは、CNNを含むDLモデルに適用でき、解釈可能である。
論文 参考訳(メタデータ) (2024-08-07T12:58:39Z) - Cross-Image Attention for Zero-Shot Appearance Transfer [68.43651329067393]
画像間の意味的対応を暗黙的に確立するクロスイメージアテンション機構を導入する。
ノイズの多い潜在コードを操作する3つのメカニズムと、デノナイジングプロセスを通してモデルの内部表現を利用する。
実験により,本手法は多種多様な対象カテゴリに対して有効であり,形状,大きさ,視点の変動に頑健であることが示された。
論文 参考訳(メタデータ) (2023-11-06T18:33:24Z) - Reflection Invariance Learning for Few-shot Semantic Segmentation [53.20466630330429]
Few-shot semantic segmentation (FSS) は、いくつかのアノテーション付きサポートイメージを持つクエリイメージにおいて、目に見えないクラスのオブジェクトをセグメントすることを目的としている。
本稿では,マルチビューマッチング方式でリフレクション不変性をマイニングするための,新しい数ショットセグメンテーションフレームワークを提案する。
PASCAL-$5textiti$とCOCO-$20textiti$データセットの実験は、我々のアプローチの有効性を実証している。
論文 参考訳(メタデータ) (2023-06-01T15:14:58Z) - Learning Efficient Coding of Natural Images with Maximum Manifold
Capacity Representations [4.666056064419346]
効率的な符号化仮説は、感覚系の応答特性が入力の統計に適応していることを提案する。
エレガントではあるものの、情報理論の特性は実際的な設定や最適化の目的関数として使うのが難しいことで知られている。
ここでは、多様体の容量を直接最適化し、最大多様体容量表現(MMCR)が得られるという仮定を概説する。
論文 参考訳(メタデータ) (2023-03-06T17:26:30Z) - Diffusion Visual Counterfactual Explanations [51.077318228247925]
VCE(Visual Counterfactual Explanations)は、画像の決定を理解するための重要なツールである。
VCEの生成に対する現在のアプローチは、逆向きに堅牢なモデルに制限されており、しばしば非現実的なアーティファクトを含んでいる。
本稿では、任意のイメージネット分類器に対して、視覚拡散対実説明(DVCE)を生成することでこれを克服する。
論文 参考訳(メタデータ) (2022-10-21T09:35:47Z) - Sparse Visual Counterfactual Explanations in Image Space [50.768119964318494]
画像空間における視覚的対実的説明のための新しいモデルを提案する。
我々は、ImageNetデータセットの急激な特徴により、ImageNet分類器の望ましくない動作を検出するために使用できることを示す。
論文 参考訳(メタデータ) (2022-05-16T20:23:11Z) - Self-supervised Equivariant Attention Mechanism for Weakly Supervised
Semantic Segmentation [93.83369981759996]
本稿では,自己監督同変注意機構(SEAM)を提案する。
本手法は,完全教師付きセマンティックセグメンテーションにおいて,同値が暗黙の制約であることを示す。
本稿では,ネットワーク学習のための自己スーパービジョンを提供するために,様々な変換画像から予測されたCAMの整合性正則化を提案する。
論文 参考訳(メタデータ) (2020-04-09T14:57:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。