論文の概要: Eigen-CAM: Class Activation Map using Principal Components
- arxiv url: http://arxiv.org/abs/2008.00299v1
- Date: Sat, 1 Aug 2020 17:14:13 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-04 00:30:25.385723
- Title: Eigen-CAM: Class Activation Map using Principal Components
- Title(参考訳): eigen-cam:主成分を用いたクラスアクティベーションマップ
- Authors: Mohammed Bany Muhammad, Mohammed Yeasin
- Abstract要約: この論文は、解釈可能で堅牢で透明なモデルに対する需要の増加に対応するために、従来の考え方に基づいている。
提案したEigen-CAMは、畳み込み層から学習した特徴/表現の基本的なコンポーネントを計算し、視覚化する。
- 参考スコア(独自算出の注目度): 1.2691047660244335
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep neural networks are ubiquitous due to the ease of developing models and
their influence on other domains. At the heart of this progress is
convolutional neural networks (CNNs) that are capable of learning
representations or features given a set of data. Making sense of such complex
models (i.e., millions of parameters and hundreds of layers) remains
challenging for developers as well as the end-users. This is partially due to
the lack of tools or interfaces capable of providing interpretability and
transparency. A growing body of literature, for example, class activation map
(CAM), focuses on making sense of what a model learns from the data or why it
behaves poorly in a given task. This paper builds on previous ideas to cope
with the increasing demand for interpretable, robust, and transparent models.
Our approach provides a simpler and intuitive (or familiar) way of generating
CAM. The proposed Eigen-CAM computes and visualizes the principle components of
the learned features/representations from the convolutional layers. Empirical
studies were performed to compare the Eigen-CAM with the state-of-the-art
methods (such as Grad-CAM, Grad-CAM++, CNN-fixations) by evaluating on
benchmark datasets such as weakly-supervised localization and localizing
objects in the presence of adversarial noise. Eigen-CAM was found to be robust
against classification errors made by fully connected layers in CNNs, does not
rely on the backpropagation of gradients, class relevance score, maximum
activation locations, or any other form of weighting features. In addition, it
works with all CNN models without the need to modify layers or retrain models.
Empirical results show up to 12% improvement over the best method among the
methods compared on weakly supervised object localization.
- Abstract(参考訳): ディープニューラルネットワークは、モデルの開発と他のドメインへの影響により、ユビキタスである。
この進歩の中心は畳み込みニューラルネットワーク(cnns)であり、一連のデータから表現や特徴を学習することができる。
このような複雑なモデル(数百万のパラメータと数百のレイヤ)を理解することは、開発者だけでなくエンドユーザにとっても難しい。
これは部分的には、解釈性と透明性を提供するツールやインターフェースの欠如によるものだ。
クラスアクティベーションマップ(クラスアクティベーションマップ,class activation map, CAM)は、モデルがデータから何を学ぶか、あるいはそれが与えられたタスクでどのように振る舞うかを理解することに焦点を当てている。
本稿では,解釈可能でロバストで透明なモデルに対する需要の増加に対応するために,従来の考え方を基礎としている。
私たちのアプローチは、CAMを生成するためのシンプルで直感的な(あるいは慣れ親しんだ)方法を提供します。
提案する固有camは畳み込み層から学習した特徴/表現の原理成分を計算・可視化する。
逆雑音の存在下での弱教師付き局所化や局所化などのベンチマークデータセットを評価することにより,固有camと最先端手法(grad-cam,grad-cam++,cnn-fixationsなど)を比較する実験を行った。
固有camはcnnの完全連結層による分類エラーに対して頑健であり、勾配のバックプロパゲーションやクラス妥当性スコア、最大アクティベーション位置、その他の重み付け機能には依存していない。
さらに、レイヤの変更やモデルの再トレーニングを必要とせずに、すべてのCNNモデルで動作する。
その結果, 弱教師付き物体定位法と比較して, 最良手法に比べて最大12%改善した。
関連論文リスト
- KPCA-CAM: Visual Explainability of Deep Computer Vision Models using Kernel PCA [1.5550533143704957]
本研究では,畳み込みニューラルネットワーク(CNN)の解釈可能性を高める技術であるKPCA-CAMを紹介する。
KPCA-CAMは、CNNアクティベーション内の非線形関係をより効率的に捉えるために、主成分分析(PCA)とカーネルトリックを利用する。
異なるCNNモデルにわたるILSVRCデータセットに関する実証的な評価は、KPCA-CAMがより正確なアクティベーションマップを生成することを示す。
論文 参考訳(メタデータ) (2024-09-30T22:36:37Z) - CAManim: Animating end-to-end network activation maps [0.2509487459755192]
本稿では,CNN予測に対するエンドユーザの理解の拡大と集中を目的とした,CAManimという新しいXAI可視化手法を提案する。
また,Remove and Debias(ROAD)尺度に基づいて,新たな定量的評価法を提案する。
これは、解釈可能で堅牢で透明なモデルアセスメント方法論に対する需要の増加に対応するために、先行研究に基づいている。
論文 参考訳(メタデータ) (2023-12-19T01:07:36Z) - BroadCAM: Outcome-agnostic Class Activation Mapping for Small-scale
Weakly Supervised Applications [69.22739434619531]
そこで我々はBroadCAMと呼ばれる結果に依存しないCAMアプローチを提案する。
VOC2012でBroadCAM、WSSSでBCSS-WSSS、WSOLでOpenImages30kを評価することで、BroadCAMは優れたパフォーマンスを示している。
論文 参考訳(メタデータ) (2023-09-07T06:45:43Z) - Decom--CAM: Tell Me What You See, In Details! Feature-Level Interpretation via Decomposition Class Activation Map [23.71680014689873]
クラスアクティベーションマップ(CAM)は、オブジェクトの位置をハイライトすることで深層モデルの予測を解釈するために広く使われている。
本稿では,分解クラス活性化マップ(Decom-CAM)と呼ばれる2段階の解釈可能性を提案する。
実験の結果,提案したDecom-CAMは最先端の手法よりも優れていた。
論文 参考訳(メタデータ) (2023-05-27T14:33:01Z) - Large-Margin Representation Learning for Texture Classification [67.94823375350433]
本稿では,テクスチャ分類のための小さなデータセット上で教師付きモデルをトレーニングするために,畳み込み層(CL)と大規模計量学習を組み合わせた新しいアプローチを提案する。
テクスチャと病理画像データセットの実験結果から,提案手法は同等のCNNと比較して計算コストが低く,収束が早く,競争精度が向上することが示された。
論文 参考訳(メタデータ) (2022-06-17T04:07:45Z) - Adaptive Convolutional Dictionary Network for CT Metal Artifact
Reduction [62.691996239590125]
本稿では,金属人工物削減のための適応畳み込み辞書ネットワーク(ACDNet)を提案する。
我々のACDNetは、トレーニングデータを介して、アーティファクトフリーCT画像の事前を自動で学習し、入力されたCT画像ごとに表現カーネルを適応的に調整することができる。
本手法は,モデルに基づく手法の明確な解釈可能性を継承し,学習に基づく手法の強力な表現能力を維持する。
論文 参考訳(メタデータ) (2022-05-16T06:49:36Z) - Do We Really Need a Learnable Classifier at the End of Deep Neural
Network? [118.18554882199676]
本研究では、ニューラルネットワークを学習して分類器をランダムにETFとして分類し、訓練中に固定する可能性について検討する。
実験結果から,バランスの取れたデータセットの画像分類において,同様の性能が得られることがわかった。
論文 参考訳(メタデータ) (2022-03-17T04:34:28Z) - Contrastive Neighborhood Alignment [81.65103777329874]
本稿では,学習特徴のトポロジを維持するための多様体学習手法であるContrastive Neighborhood Alignment(CNA)を提案する。
対象モデルは、対照的な損失を用いて、ソース表現空間の局所構造を模倣することを目的としている。
CNAは3つのシナリオで説明される: 多様体学習、モデルが元のデータの局所的なトポロジーを次元還元された空間で維持する、モデル蒸留、小さな学生モデルがより大きな教師を模倣するために訓練される、レガシーモデル更新、より強力なモデルに置き換えられる、という3つのシナリオである。
論文 参考訳(メタデータ) (2022-01-06T04:58:31Z) - Calibrating Class Activation Maps for Long-Tailed Visual Recognition [60.77124328049557]
本稿では,CNNの長期分布からネットワーク学習を改善するための2つの効果的な修正を提案する。
まず,ネットワーク分類器の学習と予測を改善するために,CAMC (Class Activation Map) モジュールを提案する。
第2に,長期化問題における表現学習における正規化分類器の利用について検討する。
論文 参考訳(メタデータ) (2021-08-29T05:45:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。