論文の概要: Causal Identification of Sufficient, Contrastive and Complete Feature Sets in Image Classification
- arxiv url: http://arxiv.org/abs/2507.23497v1
- Date: Thu, 31 Jul 2025 12:33:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-01 17:19:09.735145
- Title: Causal Identification of Sufficient, Contrastive and Complete Feature Sets in Image Classification
- Title(参考訳): 画像分類における十分・矛盾・完全特徴集合の因果同定
- Authors: David A Kelly, Hana Chockler,
- Abstract要約: 因果的説明は論理に基づくものと同じ形式的特性を保ちながら、ブラックボックスのアルゴリズムにも適用可能であることを示す。
信頼性を意識して説明の定義を強化し、完全な因果説明を導入する。
我々のアルゴリズムは効率よく計算可能であり、ResNet50モデルで画像あたり平均6秒を計算して、あらゆる種類の説明を計算します。
- 参考スコア(独自算出の注目度): 6.338178373376447
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Existing algorithms for explaining the outputs of image classifiers are based on a variety of approaches and produce explanations that lack formal rigor. On the other hand, logic-based explanations are formally and rigorously defined but their computability relies on strict assumptions about the model that do not hold on image classifiers. In this paper, we show that causal explanations, in addition to being formally and rigorously defined, enjoy the same formal properties as logic-based ones, while still lending themselves to black-box algorithms and being a natural fit for image classifiers. We prove formal properties of causal explanations and introduce contrastive causal explanations for image classifiers. Moreover, we augment the definition of explanation with confidence awareness and introduce complete causal explanations: explanations that are classified with exactly the same confidence as the original image. We implement our definitions, and our experimental results demonstrate that different models have different patterns of sufficiency, contrastiveness, and completeness. Our algorithms are efficiently computable, taking on average 6s per image on a ResNet50 model to compute all types of explanations, and are totally black-box, needing no knowledge of the model, no access to model internals, no access to gradient, nor requiring any properties, such as monotonicity, of the model.
- Abstract(参考訳): 画像分類器の出力を説明する既存のアルゴリズムは、様々なアプローチに基づいており、形式的な厳密さを欠いた説明を生成する。
一方、論理に基づく説明は形式的かつ厳密に定義されているが、それらの計算性は、画像分類器に依存しないモデルに関する厳密な仮定に依存している。
本稿では, 因果的説明は形式的かつ厳密に定義されているだけでなく, 論理に基づくものと同じ形式的特性を享受しつつも, ブラックボックスアルゴリズムに身を貸し出し, 画像分類に自然に適合することを示す。
我々は因果的説明の形式的特性を証明し、画像分類器に対して対照的な因果的説明を導入する。
さらに,信頼感のある説明の定義を強化し,完全な因果説明を導入する。
我々の定義を実装し、実験結果から、異なるモデルが、十分性、矛盾性、完全性の異なるパターンを持つことが示されている。
我々のアルゴリズムは効率よく計算可能であり、ResNet50モデルでは画像あたり平均6秒で全ての種類の説明を計算し、完全にブラックボックスであり、モデルに関する知識も、モデル内部へのアクセスも、勾配へのアクセスも、モデルの単調性のようないかなる特性も必要としない。
関連論文リスト
- CNN-based explanation ensembling for dataset, representation and explanations evaluation [1.1060425537315088]
畳み込みモデルを用いた深層分類モデルによる説明文の要約の可能性について検討する。
実験と分析を通じて、モデル行動のより一貫性と信頼性のあるパターンを明らかにするために、説明を組み合わせることの意味を明らかにすることを目的とする。
論文 参考訳(メタデータ) (2024-04-16T08:39:29Z) - Evaluating the Robustness of Interpretability Methods through
Explanation Invariance and Equivariance [72.50214227616728]
解釈可能性法は、それらの説明が説明されたモデルを忠実に記述した場合にのみ有用である。
特定の対称性群の下で予測が不変であるニューラルネットワークを考える。
論文 参考訳(メタデータ) (2023-04-13T17:59:03Z) - Cross-Model Consensus of Explanations and Beyond for Image
Classification Models: An Empirical Study [34.672716006357675]
さまざまな機能セットの中で、いくつかの共通機能は、ほとんどのモデルで使用されるかもしれない。
本稿では、共通特徴を捉えるための説明のモデル間コンセンサスを提案する。
5つのデータセット/タスクで80以上のモデルを使用して、広範な実験を行います。
論文 参考訳(メタデータ) (2021-09-02T04:50:45Z) - Contrastive Explanations for Model Interpretability [77.92370750072831]
分類モデルの対照的説明を生成する手法を提案する。
本手法は潜在空間へのモデル表現の投影に基づいている。
本研究は,モデル決定のより正確できめ細かな解釈性を提供するためのラベルコントラスト的説明の能力に光を当てた。
論文 参考訳(メタデータ) (2021-03-02T00:36:45Z) - Explainers in the Wild: Making Surrogate Explainers Robust to
Distortions through Perception [77.34726150561087]
説明における歪みの影響を知覚距離を埋め込むことで評価する手法を提案する。
Imagenet-Cデータセットの画像の説明を生成し、サロゲート説明書の知覚距離を使用して歪んだ画像と参照画像のより一貫性のある説明を作成する方法を示しています。
論文 参考訳(メタデータ) (2021-02-22T12:38:53Z) - The Struggles of Feature-Based Explanations: Shapley Values vs. Minimal
Sufficient Subsets [61.66584140190247]
機能に基づく説明は、自明なモデルでも問題を引き起こすことを示す。
そこで本研究では,2つの一般的な説明書クラスであるシェープリー説明書と十分最小限の部分集合説明書が,基本的に異なる基底的説明書のタイプをターゲットにしていることを示す。
論文 参考訳(メタデータ) (2020-09-23T09:45:23Z) - Towards Visually Explaining Similarity Models [29.704524987493766]
本稿では,画像類似度予測のための勾配に基づく視覚的注意を生成する手法を提案する。
学習した機能の埋め込みにのみ依存することにより、我々のアプローチがCNNベースの類似性アーキテクチャのあらゆる種類に適用可能であることを示す。
得られたアテンションマップは、単に解釈可能性だけでなく、新たなトレーニング可能な制約でモデル学習プロセス自体に注入可能であることを示す。
論文 参考訳(メタデータ) (2020-08-13T17:47:41Z) - Explainable Image Classification with Evidence Counterfactual [0.0]
画像分類のためのモデルに依存しないインスタンスレベルの説明法としてSEDCを導入する。
ある画像に対して、SEDCは、削除された場合、分類を変更する小さなセグメントの集合を検索する。
我々は,SEDC(-T) と LRP, LIME, SHAP などの特徴重要度評価手法を比較し, 上記の重要度ランキング問題にどう対処するかを述べる。
論文 参考訳(メタデータ) (2020-04-16T08:02:48Z) - Explainable Deep Classification Models for Domain Generalization [94.43131722655617]
説明は、深い分類網が決定を下す視覚的証拠の領域として定義される。
トレーニング戦略は周期的な正当性に基づくフィードバックを強制し、モデルが地中真実に直接対応する画像領域に焦点を合わせることを奨励する。
論文 参考訳(メタデータ) (2020-03-13T22:22:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。