論文の概要: Finer-CAM: Spotting the Difference Reveals Finer Details for Visual Explanation
- arxiv url: http://arxiv.org/abs/2501.11309v1
- Date: Mon, 20 Jan 2025 07:23:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-22 14:25:08.560569
- Title: Finer-CAM: Spotting the Difference Reveals Finer Details for Visual Explanation
- Title(参考訳): Finer-CAM: 視覚的説明の相違点を見つける
- Authors: Ziheng Zhang, Jianyang Gu, Arpita Chowdhury, Zheda Mai, David Carlyn, Tanya Berger-Wolf, Yu Su, Wei-Lun Chao,
- Abstract要約: クラスアクティベーションマップ(CAM)は、クラス予測に寄与する画像領域の強調に広く用いられている。
我々は,識別領域の正確な局所化を実現しつつ,CAMの効率を維持する手法であるFiner-CAMを提案する。
- 参考スコア(独自算出の注目度): 31.60751962128398
- License:
- Abstract: Class activation map (CAM) has been widely used to highlight image regions that contribute to class predictions. Despite its simplicity and computational efficiency, CAM often struggles to identify discriminative regions that distinguish visually similar fine-grained classes. Prior efforts address this limitation by introducing more sophisticated explanation processes, but at the cost of extra complexity. In this paper, we propose Finer-CAM, a method that retains CAM's efficiency while achieving precise localization of discriminative regions. Our key insight is that the deficiency of CAM lies not in "how" it explains, but in "what" it explains}. Specifically, previous methods attempt to identify all cues contributing to the target class's logit value, which inadvertently also activates regions predictive of visually similar classes. By explicitly comparing the target class with similar classes and spotting their differences, Finer-CAM suppresses features shared with other classes and emphasizes the unique, discriminative details of the target class. Finer-CAM is easy to implement, compatible with various CAM methods, and can be extended to multi-modal models for accurate localization of specific concepts. Additionally, Finer-CAM allows adjustable comparison strength, enabling users to selectively highlight coarse object contours or fine discriminative details. Quantitatively, we show that masking out the top 5% of activated pixels by Finer-CAM results in a larger relative confidence drop compared to baselines. The source code and demo are available at https://github.com/Imageomics/Finer-CAM.
- Abstract(参考訳): クラスアクティベーションマップ(CAM)は、クラス予測に寄与する画像領域の強調に広く用いられている。
その単純さと計算効率にもかかわらず、CAMは視覚的に類似した微細なクラスを区別する識別領域を特定するのに苦労することが多い。
それまでの取り組みは、より洗練された説明プロセスを導入することでこの制限に対処するが、余分な複雑さを犠牲にしている。
本稿では,識別領域の正確な局所化を実現しつつ,CAMの効率を維持するFiner-CAMを提案する。
私たちの重要な洞察は、CAMの欠如は「どのように」説明されるのではなく、「何」説明されるかにあるということです。
具体的には、以前のメソッドは、ターゲットクラスのロジット値に寄与するすべてのキューを識別しようとするが、それは意図せず、視覚的に類似したクラスの予測領域を活性化する。
Finer-CAMは、ターゲットクラスと類似したクラスを明示的に比較し、それらの差を指摘することによって、他のクラスと共有される機能を抑制し、ターゲットクラスのユニークで差別的な詳細を強調する。
有限CAMは実装が容易で、様々なCAMメソッドと互換性があり、特定の概念を正確にローカライズするためにマルチモーダルモデルに拡張することができる。
さらに、Finer-CAMは調整可能な比較強度を可能にし、ユーザーは粗いオブジェクトの輪郭や細かな識別の詳細を選択的にハイライトすることができる。
定量的に,Finer-CAMによるアクティベート画素の上位5%をマスクアウトすると,ベースラインに比べて相対信頼度が低下することがわかった。
ソースコードとデモはhttps://github.com/Imageomics/Finer-CAMで公開されている。
関連論文リスト
- BroadCAM: Outcome-agnostic Class Activation Mapping for Small-scale
Weakly Supervised Applications [69.22739434619531]
そこで我々はBroadCAMと呼ばれる結果に依存しないCAMアプローチを提案する。
VOC2012でBroadCAM、WSSSでBCSS-WSSS、WSOLでOpenImages30kを評価することで、BroadCAMは優れたパフォーマンスを示している。
論文 参考訳(メタデータ) (2023-09-07T06:45:43Z) - Extracting Class Activation Maps from Non-Discriminative Features as
well [23.968856513180032]
分類モデルからのクラスアクティベーションマップ(CAM)は、しばしば前景オブジェクトのカバレッジが低くなる。
本稿では,識別不能な特徴を明示的にキャプチャするCAMの新しい計算手法を提案する。
結果のKクラスタセンターは、ローカルプロトタイプと呼ばれ、"head"、"leg"、"body"の"sheep"といったローカルセマンティクスを表しています。
論文 参考訳(メタデータ) (2023-03-18T04:47:42Z) - Attention-based Class Activation Diffusion for Weakly-Supervised
Semantic Segmentation [98.306533433627]
クラスアクティベーションマップの抽出(CAM)は、弱教師付きセマンティックセグメンテーション(WSSS)の重要なステップである
本稿では,CAMとアテンション行列を確率的拡散法で結合する新しい手法を提案し,それをAD-CAMとダブする。
擬似ラベルとしてのAD-CAMは、最先端のCAMよりも強力なWSSSモデルが得られることを示す実験である。
論文 参考訳(メタデータ) (2022-11-20T10:06:32Z) - Saliency Guided Inter- and Intra-Class Relation Constraints for Weakly
Supervised Semantic Segmentation [66.87777732230884]
本稿では,活性化対象領域の拡大を支援するために,Salliency Guided Inter-およびIntra-Class Relation Constrained (I$2$CRC) フレームワークを提案する。
また,オブジェクトガイド付きラベルリファインメントモジュールを導入し,セグメンテーション予測と初期ラベルをフル活用し,優れた擬似ラベルを得る。
論文 参考訳(メタデータ) (2022-06-20T03:40:56Z) - FD-CAM: Improving Faithfulness and Discriminability of Visual
Explanation for CNNs [7.956110316017118]
畳み込みニューラルネットワークの内部動作機構を視覚的に説明するために,クラスアクティベーションマップ(CAM)が広く研究されている。
本稿では,CNNの視覚的説明の忠実度と差別性を両立させるため,FD-CAMと呼ばれる新しいCAM重み付け手法を提案する。
論文 参考訳(メタデータ) (2022-06-17T14:08:39Z) - Class Re-Activation Maps for Weakly-Supervised Semantic Segmentation [88.55040177178442]
クラスアクティベーションマップ(CAM)は、セマンティックセグメンテーションのための疑似マスクを生成する最も標準的なステップである。
しかし、不満足な擬似マスクのくちばしは、CAMで広く使われているバイナリクロスエントロピー損失(BCE)である。
ソフトマックスクロスエントロピー損失(SCE)を用いて収束CAMをBCEで再活性化する。
PASCAL VOC と MSCOCO の評価は、ReCAM が高品質なマスクを生成するだけでなく、オーバーヘッドの少ない任意の CAM 版でプラグイン・アンド・プレイをサポートすることを示している。
論文 参考訳(メタデータ) (2022-03-02T09:14:58Z) - Towards Learning Spatially Discriminative Feature Representations [26.554140976236052]
組込み特徴写像をクラスアクティベーションマップ(CAM)に制約する新しい損失関数(CAM-loss)を提案する。
CAM-lossはバックボーンを駆動し、ターゲットカテゴリの特徴を表現し、ターゲット以外のカテゴリやバックグラウンドの特徴を抑圧する。
実験の結果, CAM-lossは様々なネットワーク構造に適用可能であり, 画像分類の性能向上のために, 主流の正規化手法と組み合わせることができることがわかった。
論文 参考訳(メタデータ) (2021-09-03T08:04:17Z) - TS-CAM: Token Semantic Coupled Attention Map for Weakly Supervised
Object Localization [112.46381729542658]
弱監督オブジェクトローカリゼーション(WSOL)は、画像カテゴリラベルを与えられたときに難しい問題です。
長距離依存抽出のための視覚変換器における自己注意機構をフル活用するために,トークン意味結合注意マップ(TS-CAM)を導入する。
論文 参考訳(メタデータ) (2021-03-27T09:43:16Z) - Use HiResCAM instead of Grad-CAM for faithful explanations of
convolutional neural networks [89.56292219019163]
説明法は意味のある概念を学習し、素早い相関を悪用しないモデルの開発を容易にする。
一般的なニューラルネットワーク説明法であるGrad-CAMの、未認識の制限について説明する。
本稿では,モデルが各予測に使用する場所のみをハイライトするクラス固有の説明手法であるHiResCAMを提案する。
論文 参考訳(メタデータ) (2020-11-17T19:26:14Z) - Axiom-based Grad-CAM: Towards Accurate Visualization and Explanation of
CNNs [29.731732363623713]
クラスアクティベーションマッピング(CAM)手法は,CNNの決定領域と画像領域の関連性を明らかにするために提案されている。
本稿では,CAM手法の可視化パラダイムに2つの公理(保存と感性)を導入する。
これらの公理をできるだけ満たすために、専用公理系Grad-CAM (XGrad-CAM) が提案されている。
論文 参考訳(メタデータ) (2020-08-05T18:42:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。