論文の概要: Keep CALM and Improve Visual Feature Attribution
- arxiv url: http://arxiv.org/abs/2106.07861v1
- Date: Tue, 15 Jun 2021 03:33:25 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-16 15:13:30.403504
- Title: Keep CALM and Improve Visual Feature Attribution
- Title(参考訳): CALMを維持し、視覚的特徴属性を改善する
- Authors: Jae Myung Kim, Junsuk Choe, Zeynep Akata, and Seong Joon Oh
- Abstract要約: クラスアクティベーションマッピング(クラスアクティベーションマッピング、CAM)は、複数の視覚タスクのための特徴属性法の基礎となっている。
定式化における認識のためのキューの位置を符号化する潜在変数を明示的に組み込むことにより、CAMを改善する。
結果のモデルであるクラスアクティベーション潜在マッピング(CALM)は、期待最大化アルゴリズムを用いて訓練される。
- 参考スコア(独自算出の注目度): 42.784665606132
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The class activation mapping, or CAM, has been the cornerstone of feature
attribution methods for multiple vision tasks. Its simplicity and effectiveness
have led to wide applications in the explanation of visual predictions and
weakly-supervised localization tasks. However, CAM has its own shortcomings.
The computation of attribution maps relies on ad-hoc calibration steps that are
not part of the training computational graph, making it difficult for us to
understand the real meaning of the attribution values. In this paper, we
improve CAM by explicitly incorporating a latent variable encoding the location
of the cue for recognition in the formulation, thereby subsuming the
attribution map into the training computational graph. The resulting model,
class activation latent mapping, or CALM, is trained with the
expectation-maximization algorithm. Our experiments show that CALM identifies
discriminative attributes for image classifiers more accurately than CAM and
other visual attribution baselines. CALM also shows performance improvements
over prior arts on the weakly-supervised object localization benchmarks. Our
code is available at https://github.com/naver-ai/calm.
- Abstract(参考訳): クラスアクティベーションマッピング(クラスアクティベーションマッピング、CAM)は、複数の視覚タスクのための特徴属性法の基礎となっている。
その単純さと有効性は、視覚的予測と弱い教師付きローカライゼーションタスクの説明に幅広い応用をもたらした。
しかし、CAMには独自の欠点がある。
属性マップの計算は、トレーニング計算グラフの一部ではないアドホックキャリブレーションステップに依存しており、属性値の真の意味を理解することは困難である。
本稿では,定式化における認識のためのキューの位置を符号化する潜時変数を明示的に組み込んでCAMを改善することにより,帰属写像をトレーニング計算グラフに仮定する。
結果のモデルであるクラスアクティベーション潜在マッピング(CALM)は期待最大化アルゴリズムを用いて訓練される。
画像分類器の識別特性をcamや他の視覚的帰属ベースラインよりも精度良く識別できることを示す。
CALMはまた、弱教師付きオブジェクトローカライゼーションベンチマークにおいて、先行技術よりもパフォーマンスが向上したことを示している。
私たちのコードはhttps://github.com/naver-ai/calmで利用可能です。
関連論文リスト
- Spatial Action Unit Cues for Interpretable Deep Facial Expression Recognition [55.97779732051921]
表情認識(FER)のための最先端の分類器は、エンドユーザーにとって重要な特徴である解釈可能性に欠ける。
新しい学習戦略が提案され、AU cues を分類器訓練に明示的に組み込むことで、深い解釈可能なモデルを訓練することができる。
我々の新しい戦略は汎用的であり、アーキテクチャの変更や追加のトレーニング時間を必要とすることなく、ディープCNNやトランスフォーマーベースの分類器に適用できます。
論文 参考訳(メタデータ) (2024-10-01T10:42:55Z) - DecomCAM: Advancing Beyond Saliency Maps through Decomposition and Integration [25.299607743268993]
クラスアクティベーションマップ(CAM)手法は、モデルの意思決定基準を明らかにする領域を強調するが、明確なサリエンシマップと詳細な解釈性は欠如している。
チャネル活性化マップから共有パターンを抽出する新しい分解分解分解法であるDecomCAMを提案する。
実験の結果,DecomCAMは精度を向上するだけでなく,解釈可能性と計算効率のバランスを最適化できることがわかった。
論文 参考訳(メタデータ) (2024-05-29T08:40:11Z) - BroadCAM: Outcome-agnostic Class Activation Mapping for Small-scale
Weakly Supervised Applications [69.22739434619531]
そこで我々はBroadCAMと呼ばれる結果に依存しないCAMアプローチを提案する。
VOC2012でBroadCAM、WSSSでBCSS-WSSS、WSOLでOpenImages30kを評価することで、BroadCAMは優れたパフォーマンスを示している。
論文 参考訳(メタデータ) (2023-09-07T06:45:43Z) - Importance Sampling CAMs for Weakly-Supervised Segmentation [16.86352815414646]
クラスアクティベーションマップ(CAM)は、クラスアクティベーションマップ(CAM)を用いて、画像内のオブジェクトのローカライズとセグメント化に使用できる。
本研究では,CAM学習の改善に2つの貢献によって両問題にアプローチする。
PASCAL VOC 2012ベンチマークデータセットを用いて,これらの修正によって輪郭精度が著しく向上することを示す。
論文 参考訳(メタデータ) (2022-03-23T14:54:29Z) - Towards Learning Spatially Discriminative Feature Representations [26.554140976236052]
組込み特徴写像をクラスアクティベーションマップ(CAM)に制約する新しい損失関数(CAM-loss)を提案する。
CAM-lossはバックボーンを駆動し、ターゲットカテゴリの特徴を表現し、ターゲット以外のカテゴリやバックグラウンドの特徴を抑圧する。
実験の結果, CAM-lossは様々なネットワーク構造に適用可能であり, 画像分類の性能向上のために, 主流の正規化手法と組み合わせることができることがわかった。
論文 参考訳(メタデータ) (2021-09-03T08:04:17Z) - Calibrating Class Activation Maps for Long-Tailed Visual Recognition [60.77124328049557]
本稿では,CNNの長期分布からネットワーク学習を改善するための2つの効果的な修正を提案する。
まず,ネットワーク分類器の学習と予測を改善するために,CAMC (Class Activation Map) モジュールを提案する。
第2に,長期化問題における表現学習における正規化分類器の利用について検討する。
論文 参考訳(メタデータ) (2021-08-29T05:45:03Z) - CAMERAS: Enhanced Resolution And Sanity preserving Class Activation
Mapping for image saliency [61.40511574314069]
バックプロパゲーション画像のサリエンシは、入力中の個々のピクセルのモデル中心の重要性を推定することにより、モデル予測を説明することを目的としている。
CAMERASは、外部の事前処理を必要とせずに、高忠実度バックプロパゲーション・サリエンシ・マップを計算できる手法である。
論文 参考訳(メタデータ) (2021-06-20T08:20:56Z) - LFI-CAM: Learning Feature Importance for Better Visual Explanation [31.743421292094308]
クラスアクティベーションマッピング(CAM)は、コンピュータビジョンにおける畳み込みニューラルネットワーク(CNN)の意思決定を理解するために使用される強力な技術です。
本稿では,画像分類と視覚的説明をエンドツーエンドで訓練可能な新しいアーキテクチャ LFI-CAM を提案する。
論文 参考訳(メタデータ) (2021-05-03T15:12:21Z) - Instance Localization for Self-supervised Detection Pretraining [68.24102560821623]
インスタンスローカリゼーションと呼ばれる,新たな自己監視型プリテキストタスクを提案する。
境界ボックスを事前学習に組み込むことで、より優れたタスクアライメントとアーキテクチャアライメントが促進されることを示す。
実験結果から, オブジェクト検出のための最先端の転送学習結果が得られた。
論文 参考訳(メタデータ) (2021-02-16T17:58:57Z) - Eigen-CAM: Class Activation Map using Principal Components [1.2691047660244335]
この論文は、解釈可能で堅牢で透明なモデルに対する需要の増加に対応するために、従来の考え方に基づいている。
提案したEigen-CAMは、畳み込み層から学習した特徴/表現の基本的なコンポーネントを計算し、視覚化する。
論文 参考訳(メタデータ) (2020-08-01T17:14:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。