論文の概要: CASE: Contrastive Activation for Saliency Estimation
- arxiv url: http://arxiv.org/abs/2506.07327v2
- Date: Tue, 10 Jun 2025 09:45:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-11 12:52:34.300065
- Title: CASE: Contrastive Activation for Saliency Estimation
- Title(参考訳): 症例:塩分濃度推定のための対照的な活性化
- Authors: Dane Williamson, Yangfeng Ji, Matthew Dwyer,
- Abstract要約: 精度法は、モデルの予測にどの入力特徴が関係していると考えられるかを視覚化するために広く用いられている。
そこで本研究では,同一入力上で競合するクラスラベルを識別する手法として,クラス感度の診断試験を提案する。
本研究は, クラスラベルによらず, ほぼ同じ説明を導出し, 信頼性を問うものであることを示す。
- 参考スコア(独自算出の注目度): 14.833454650943805
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Saliency methods are widely used to visualize which input features are deemed relevant to a model's prediction. However, their visual plausibility can obscure critical limitations. In this work, we propose a diagnostic test for class sensitivity: a method's ability to distinguish between competing class labels on the same input. Through extensive experiments, we show that many widely used saliency methods produce nearly identical explanations regardless of the class label, calling into question their reliability. We find that class-insensitive behavior persists across architectures and datasets, suggesting the failure mode is structural rather than model-specific. Motivated by these findings, we introduce CASE, a contrastive explanation method that isolates features uniquely discriminative for the predicted class. We evaluate CASE using the proposed diagnostic and a perturbation-based fidelity test, and show that it produces faithful and more class-specific explanations than existing methods.
- Abstract(参考訳): 精度法は、モデルの予測にどの入力特徴が関係していると考えられるかを視覚化するために広く用いられている。
しかし、その視覚的可視性は不明瞭な臨界限界を生じさせる。
本研究では,同一入力上で競合するクラスラベルを識別する手法として,クラス感度の診断試験を提案する。
広範囲な実験を通して、多くの広く使われている唾液度法は、クラスラベルによらずほぼ同じ説明をし、信頼性に疑問を投げかける。
クラス非感受性の振る舞いはアーキテクチャやデータセット全体にわたって持続しており、失敗モードはモデル固有のものではなく構造的であることを示唆している。
これらの知見に触発されたCASEは,予測クラスに対して一意に識別可能な特徴を分離するコントラスト的説明法である。
提案する診断法と摂動に基づく忠実度検査を用いてCASEを評価し,既存の方法よりも忠実でクラス固有の説明が得られていることを示す。
関連論文リスト
- Collaborative Feature-Logits Contrastive Learning for Open-Set Semi-Supervised Object Detection [75.02249869573994]
オープンセットのシナリオでは、ラベルなしデータセットには、イン・ディストリビューション(ID)クラスとアウト・オブ・ディストリビューション(OOD)クラスの両方が含まれている。
このような設定で半教師付き検出器を適用すると、OODクラスをIDクラスとして誤分類する可能性がある。
我々は、CFL-Detector(Collaborative Feature-Logits Detector)と呼ばれるシンプルで効果的な方法を提案する。
論文 参考訳(メタデータ) (2024-11-20T02:57:35Z) - Demystifying amortized causal discovery with transformers [21.058343547918053]
観測データからの因果発見のための教師付き学習アプローチは、しばしば競争性能を達成する。
本研究では,CSIvAについて検討する。CSIvAは,合成データのトレーニングと実データへの転送を約束するトランスフォーマーモデルである。
既存の識別可能性理論とギャップを埋め、トレーニングデータ分布の制約がテスト観測の事前を暗黙的に定義していることを示します。
論文 参考訳(メタデータ) (2024-05-27T08:17:49Z) - CLIMAX: An exploration of Classifier-Based Contrastive Explanations [5.381004207943597]
我々は,ブラックボックスの分類を正当化する対照的な説明を提供する,ポストホックモデルXAI手法を提案する。
CLIMAXと呼ばれる手法は,局所的な分類法に基づく。
LIME, BayLIME, SLIMEなどのベースラインと比較して, 一貫性が向上することを示す。
論文 参考訳(メタデータ) (2023-07-02T22:52:58Z) - Sanity Checks for Saliency Methods Explaining Object Detectors [5.735035463793008]
ディープニューラルネットワークベースのモデルを説明するために、サリエンシ法が頻繁に使用される。
対象物検出のための正当性チェックを行い,正当性説明を評価するための新しい質的基準を定義した。
EfficientDet-D0はSaliency法とは無関係に最も解釈可能な手法である。
論文 参考訳(メタデータ) (2023-06-04T17:57:51Z) - The Familiarity Hypothesis: Explaining the Behavior of Deep Open Set
Methods [86.39044549664189]
特徴ベクトルデータに対する異常検出アルゴリズムは異常を外れ値として識別するが、外れ値検出はディープラーニングではうまく機能しない。
本論文は, 新規性の有無ではなく, 慣れ親しんだ特徴の欠如を検知しているため, これらの手法が成功するというFamiliarity仮説を提案する。
本論文は,親しみやすさの検出が表現学習の必然的な結果であるかどうかを論じる。
論文 参考訳(メタデータ) (2022-03-04T18:32:58Z) - Resolving label uncertainty with implicit posterior models [71.62113762278963]
本稿では,データサンプルのコレクション間でラベルを共同で推論する手法を提案する。
異なる予測子を後部とする生成モデルの存在を暗黙的に仮定することにより、弱い信念の下での学習を可能にする訓練目標を導出する。
論文 参考訳(メタデータ) (2022-02-28T18:09:44Z) - Understanding Classifier Mistakes with Generative Models [88.20470690631372]
ディープニューラルネットワークは教師付き学習タスクに有効であるが、脆弱であることが示されている。
本稿では、生成モデルを利用して、分類器が一般化に失敗するインスタンスを特定し、特徴付ける。
我々のアプローチは、トレーニングセットのクラスラベルに依存しないため、半教師付きでトレーニングされたモデルに適用できる。
論文 参考訳(メタデータ) (2020-10-05T22:13:21Z) - Open Set Recognition with Conditional Probabilistic Generative Models [51.40872765917125]
オープンセット認識のための条件付き確率生成モデル(CPGM)を提案する。
CPGMは未知のサンプルを検出できるが、異なる潜在特徴を条件付きガウス分布に近似させることで、既知のクラスを分類できる。
複数のベンチマークデータセットの実験結果から,提案手法がベースラインを著しく上回ることがわかった。
論文 参考訳(メタデータ) (2020-08-12T06:23:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。