論文の概要: Learning Conformal Explainers for Image Classifiers
- arxiv url: http://arxiv.org/abs/2509.21209v1
- Date: Thu, 25 Sep 2025 14:20:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-26 20:58:12.974873
- Title: Learning Conformal Explainers for Image Classifiers
- Title(参考訳): 画像分類器のための等角的説明器の学習
- Authors: Amr Alkhatib, Stephanie Lowry,
- Abstract要約: 本稿では、画像に基づく予測を説明するための、新しい共形予測に基づくアプローチを提案する。
この手法は,モデルの予測を保存するのに十分な,有能な特徴のサブセットを同定する。
4つの整合関数は、説明がモデルの予測に適合する程度を定量化するために提案される。
- 参考スコア(独自算出の注目度): 1.1688030627514532
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Feature attribution methods are widely used for explaining image-based predictions, as they provide feature-level insights that can be intuitively visualized. However, such explanations often vary in their robustness and may fail to faithfully reflect the reasoning of the underlying black-box model. To address these limitations, we propose a novel conformal prediction-based approach that enables users to directly control the fidelity of the generated explanations. The method identifies a subset of salient features that is sufficient to preserve the model's prediction, regardless of the information carried by the excluded features, and without demanding access to ground-truth explanations for calibration. Four conformity functions are proposed to quantify the extent to which explanations conform to the model's predictions. The approach is empirically evaluated using five explainers across six image datasets. The empirical results demonstrate that FastSHAP consistently outperforms the competing methods in terms of both fidelity and informational efficiency, the latter measured by the size of the explanation regions. Furthermore, the results reveal that conformity measures based on super-pixels are more effective than their pixel-wise counterparts.
- Abstract(参考訳): 特徴属性法は、直感的に視覚化できる特徴レベルの洞察を提供するため、画像ベースの予測を説明するために広く用いられている。
しかし、そのような説明はしばしばその堅牢性によって異なり、根底にあるブラックボックスモデルの推論を忠実に反映できない可能性がある。
これらの制約に対処するために,ユーザが生成した説明の忠実度を直接制御できる,新しい共形予測に基づく手法を提案する。
排除された特徴が持つ情報によらず、キャリブレーションのための地味な説明を必要とせず、モデルの予測を維持するのに十分な有能な特徴のサブセットを同定する。
4つの整合関数は、説明がモデルの予測に適合する程度を定量化するために提案される。
このアプローチは、6つの画像データセットにまたがる5つの説明器を用いて実証的に評価される。
実験の結果,FastSHAPは,説明領域のサイズによって測定される情報効率と忠実度の両方の観点から,競合する手法を一貫して上回っていることがわかった。
さらに, この結果から, 超画素による適合度測定は, 画素単位よりも有効であることが判明した。
関連論文リスト
- Interpretable Few-Shot Image Classification via Prototypical Concept-Guided Mixture of LoRA Experts [79.18608192761512]
自己説明可能なモデル(SEM)は、視覚認識プロセスをより解釈可能なものにするために、プロトタイプ概念学習(PCL)に依存している。
パラメトリック不均衡と表現の不整合という2つの重要な課題を緩和するFew-Shotプロトタイプ概念分類フレームワークを提案する。
我々のアプローチは、既存のSEMを顕著な差で常に上回っており、5-way 5-shot分類では4.2%-8.7%の相対的な利得がある。
論文 参考訳(メタデータ) (2025-06-05T06:39:43Z) - A Meaningful Perturbation Metric for Evaluating Explainability Methods [55.09730499143998]
本稿では,画像生成モデルを用いて標的摂動を行う新しい手法を提案する。
具体的には,画像の忠実さを保ちながら,入力画像の高関連画素のみを塗布し,モデルの予測を変更することに焦点を当てる。
これは、しばしばアウト・オブ・ディストリビューションの修正を生み出し、信頼できない結果をもたらす既存のアプローチとは対照的である。
論文 参考訳(メタデータ) (2025-04-09T11:46:41Z) - I Predict Therefore I Am: Is Next Token Prediction Enough to Learn Human-Interpretable Concepts from Data? [76.15163242945813]
大規模言語モデル (LLM) は、多くの人が知能の形式を示すと結論づけている。
本稿では,潜在離散変数として表現される人間解釈可能な概念に基づいてトークンを生成する新しい生成モデルを提案する。
論文 参考訳(メタデータ) (2025-03-12T01:21:17Z) - Explaining Predictive Uncertainty by Exposing Second-Order Effects [13.83164409095901]
本稿では,2次効果に基づく予測不確実性を説明する新しい手法を提案する。
提案手法は一般に適用可能であり,一般的な帰属手法を強力な二次不確実性説明器に変換することができる。
論文 参考訳(メタデータ) (2024-01-30T21:02:21Z) - Explaining Language Models' Predictions with High-Impact Concepts [11.47612457613113]
概念ベースの解釈可能性手法をNLPに拡張するための完全なフレームワークを提案する。
出力予測が大幅に変化する特徴を最適化する。
本手法は, ベースラインと比較して, 予測的影響, ユーザビリティ, 忠実度に関する優れた結果が得られる。
論文 参考訳(メタデータ) (2023-05-03T14:48:27Z) - Explainability in Process Outcome Prediction: Guidelines to Obtain
Interpretable and Faithful Models [77.34726150561087]
本稿では、プロセス結果予測の分野における説明可能性モデルと説明可能性モデルの忠実性を通して、説明可能性を定義する。
本稿では,イベントログの仕様に基づいて適切なモデルを選択することのできる,X-MOPというガイドラインのセットを提案する。
論文 参考訳(メタデータ) (2022-03-30T05:59:50Z) - Diffusion Models for Counterfactual Explanations [0.7366405857677227]
本稿では,近年の拡散モデルを用いた対実画像生成手法であるDMEを提案する。
提案手法は, 誘導生成拡散過程を利用して, 対象分類器の勾配を用いて入力インスタンスの反実的説明を生成する方法を示す。
実験により,提案アルゴリズムはCelebAの6つの指標のうち5つに対して,前回のState-of-the-Art結果を上回っていることがわかった。
論文 参考訳(メタデータ) (2022-03-29T14:59:31Z) - Bayesian Graph Contrastive Learning [55.36652660268726]
本稿では,ランダムな拡張がエンコーダにつながることを示すグラフコントラスト学習手法の新たな視点を提案する。
提案手法は,各ノードを決定論的ベクトルに埋め込む既存の手法とは対照的に,各ノードを潜在空間の分布で表現する。
いくつかのベンチマークデータセットにおける既存の最先端手法と比較して,性能が大幅に向上したことを示す。
論文 参考訳(メタデータ) (2021-12-15T01:45:32Z) - Explainers in the Wild: Making Surrogate Explainers Robust to
Distortions through Perception [77.34726150561087]
説明における歪みの影響を知覚距離を埋め込むことで評価する手法を提案する。
Imagenet-Cデータセットの画像の説明を生成し、サロゲート説明書の知覚距離を使用して歪んだ画像と参照画像のより一貫性のある説明を作成する方法を示しています。
論文 参考訳(メタデータ) (2021-02-22T12:38:53Z) - Assessing the Reliability of Visual Explanations of Deep Models with
Adversarial Perturbations [15.067369314723958]
本稿では,深層モデルの説明の信頼性を評価するための客観的尺度を提案する。
提案手法は,入力画像の逆方向の摂動によるネットワーク結果の変化に基づく。
我々はまた,本質的な説明を損なうことなく,より解釈可能な地図を創出し,関連性マップのクリーン化へのアプローチの直接的な適用を提案する。
論文 参考訳(メタデータ) (2020-04-22T19:57:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。