論文の概要: Conceptor Learning for Class Activation Mapping
- arxiv url: http://arxiv.org/abs/2201.08636v1
- Date: Fri, 21 Jan 2022 10:51:14 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-24 13:07:05.340646
- Title: Conceptor Learning for Class Activation Mapping
- Title(参考訳): クラスアクティベーションマッピングのための概念学習
- Authors: Guangwu Qian, Zhen-Qun Yang, Xu-Lu Zhang, Yaowei Wang, Qing Li and
Xiao-Yong Wei
- Abstract要約: クラスアクティベーションマッピング(CAM)は、サリエンシマップを生成するために広く採用されている。
本稿では,CAM生成における概念学習について紹介する。
コンセプター・CAMの有効性は、文学における最大規模のデータセットに関する形式的検証と実験の両方で検証されている。
- 参考スコア(独自算出の注目度): 21.659679316108967
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Class Activation Mapping (CAM) has been widely adopted to generate saliency
maps which provides visual explanations for deep neural networks (DNNs). The
saliency maps are conventionally generated by fusing the channels of the target
feature map using a weighted average scheme. It is a weak model for the
inter-channel relation, in the sense that it only models the relation among
channels in a contrastive way (i.e., channels that play key roles in the
prediction are given higher weights for them to stand out in the fusion). The
collaborative relation, which makes the channels work together to provide cross
reference, has been ignored. Furthermore, the model has neglected the
intra-channel relation thoroughly.In this paper, we address this problem by
introducing Conceptor learning into CAM generation. Conceptor leaning has been
originally proposed to model the patterns of state changes in recurrent neural
networks (RNNs). By relaxing the dependency of Conceptor learning to RNNs, we
make Conceptor-CAM not only generalizable to more DNN architectures but also
able to learn both the inter- and intra-channel relations for better saliency
map generation. Moreover, we have enabled the use of Boolean operations to
combine the positive and pseudo-negative evidences, which has made the CAM
inference more robust and comprehensive. The effectiveness of Conceptor-CAM has
been validated with both formal verifications and experiments on the dataset of
the largest scale in literature. The experimental results show that
Conceptor-CAM is compatible with and can bring significant improvement to all
well recognized CAM-based methods, and has outperformed the state-of-the-art
methods by 43.14%~72.79% (88.39%~168.15%) on ILSVRC2012 in Average Increase
(Drop), 15.42%~42.55% (47.09%~372.09%) on VOC, and 17.43%~31.32%
(47.54%~206.45%) on COCO, respectively.
- Abstract(参考訳): クラスアクティベーションマッピング(cam)は、ディープニューラルネットワーク(dnn)の視覚的説明を提供するサリエンシーマップを生成するために広く採用されている。
目標特徴マップのチャネルを重み付き平均スキームを用いて融合することにより、従来はサラエンシマップが生成される。
チャネル間関係の弱いモデルであり、チャンネル間の関係を対照的な方法でモデル化する(すなわち、予測において重要な役割を果たすチャネルは、融合において際立った重みを与える)という意味で、弱いモデルである。
相互参照を提供するためにチャネルを連携させるコラボレーティブな関係は無視されている。
さらに,本研究では,CAM生成に概念学習を導入することで,チャネル内関係を徹底的に無視した。
conceptor leanは、recurrent neural networks(rnn)の状態変化のパターンをモデル化するために提案されている。
概念学習のRNNへの依存を緩和することにより、概念CAMをより多くのDNNアーキテクチャに一般化できるだけでなく、チャネル間関係とチャネル内関係の両方を学習して、より優れたサリエンシマップを生成することができる。
さらに我々は,CAM推論をより堅牢かつ包括的に,肯定的および疑似否定的な証拠を組み合わせるためにBoolean操作を有効にした。
コンセプターCAMの有効性は、文学における最大規模のデータセットに関する形式的検証と実験の両方で検証されている。
実験の結果、Conceptor-CAMはすべてのCAMベースの手法と互換性があり、43.14%〜72.79%(88.39%〜168.15%)、平均増加(Drop)15.42%〜42.55%(47.09%〜372.09%)、COCO17.43%~31.32%(47.54%〜206.45%)で、最先端の手法よりも優れていた。
関連論文リスト
- KANICE: Kolmogorov-Arnold Networks with Interactive Convolutional Elements [1.663204995903499]
コンボリューショナルニューラルネットワーク(CNN)とコルモゴロフ・アルノルドネットワーク(KAN)の原理を組み合わせた,新しいニューラルネットワークアーキテクチャであるKanICEを紹介する。
KanICEはInteractive Convolutional Blocks (ICB) と Kan の線形層を CNN フレームワークに統合する。
MNIST, Fashion-MNIST, EMNIST, SVHNの4つのデータセットを用いて,KanICEの評価を行った。
論文 参考訳(メタデータ) (2024-10-22T16:50:34Z) - KPCA-CAM: Visual Explainability of Deep Computer Vision Models using Kernel PCA [1.5550533143704957]
本研究では,畳み込みニューラルネットワーク(CNN)の解釈可能性を高める技術であるKPCA-CAMを紹介する。
KPCA-CAMは、CNNアクティベーション内の非線形関係をより効率的に捉えるために、主成分分析(PCA)とカーネルトリックを利用する。
異なるCNNモデルにわたるILSVRCデータセットに関する実証的な評価は、KPCA-CAMがより正確なアクティベーションマップを生成することを示す。
論文 参考訳(メタデータ) (2024-09-30T22:36:37Z) - DecomCAM: Advancing Beyond Saliency Maps through Decomposition and Integration [25.299607743268993]
クラスアクティベーションマップ(CAM)手法は、モデルの意思決定基準を明らかにする領域を強調するが、明確なサリエンシマップと詳細な解釈性は欠如している。
チャネル活性化マップから共有パターンを抽出する新しい分解分解分解法であるDecomCAMを提案する。
実験の結果,DecomCAMは精度を向上するだけでなく,解釈可能性と計算効率のバランスを最適化できることがわかった。
論文 参考訳(メタデータ) (2024-05-29T08:40:11Z) - BroadCAM: Outcome-agnostic Class Activation Mapping for Small-scale
Weakly Supervised Applications [69.22739434619531]
そこで我々はBroadCAMと呼ばれる結果に依存しないCAMアプローチを提案する。
VOC2012でBroadCAM、WSSSでBCSS-WSSS、WSOLでOpenImages30kを評価することで、BroadCAMは優れたパフォーマンスを示している。
論文 参考訳(メタデータ) (2023-09-07T06:45:43Z) - A Generic Shared Attention Mechanism for Various Backbone Neural Networks [53.36677373145012]
自己注意モジュール(SAM)は、異なる層にまたがる強い相関した注意マップを生成する。
Dense-and-Implicit Attention (DIA)はSAMをレイヤ間で共有し、長期間のメモリモジュールを使用する。
我々のシンプルで効果的なDIAは、様々なネットワークバックボーンを一貫して拡張できます。
論文 参考訳(メタデータ) (2022-10-27T13:24:08Z) - Shap-CAM: Visual Explanations for Convolutional Neural Networks based on
Shapley Value [86.69600830581912]
クラスアクティベーションマッピングに基づくShap-CAMと呼ばれる新しい視覚的説明法を開発した。
我々は,Shap-CAMが意思決定プロセスの解釈において,より良い視覚的性能と公平性を実現することを実証した。
論文 参考訳(メタデータ) (2022-08-07T00:59:23Z) - Learning Target-aware Representation for Visual Tracking via Informative
Interactions [49.552877881662475]
トラッキングのための特徴表現のターゲット認識能力を改善するために,新しいバックボーンアーキテクチャを提案する。
提案したGIMモジュールとInBN機構は、CNNやTransformerなど、さまざまなバックボーンタイプに適用可能である。
論文 参考訳(メタデータ) (2022-01-07T16:22:27Z) - Use HiResCAM instead of Grad-CAM for faithful explanations of
convolutional neural networks [89.56292219019163]
説明法は意味のある概念を学習し、素早い相関を悪用しないモデルの開発を容易にする。
一般的なニューラルネットワーク説明法であるGrad-CAMの、未認識の制限について説明する。
本稿では,モデルが各予測に使用する場所のみをハイライトするクラス固有の説明手法であるHiResCAMを提案する。
論文 参考訳(メタデータ) (2020-11-17T19:26:14Z) - Eigen-CAM: Class Activation Map using Principal Components [1.2691047660244335]
この論文は、解釈可能で堅牢で透明なモデルに対する需要の増加に対応するために、従来の考え方に基づいている。
提案したEigen-CAMは、畳み込み層から学習した特徴/表現の基本的なコンポーネントを計算し、視覚化する。
論文 参考訳(メタデータ) (2020-08-01T17:14:13Z) - Channel Interaction Networks for Fine-Grained Image Categorization [61.095320862647476]
微妙なクラス間差のため、きめ細かい画像分類は困難である。
本稿では,チャネル・インタラクション・ネットワーク(CIN)を提案する。
我々のモデルは、多段階のトレーニングやテストを必要とせずに、エンドツーエンドで効率的にトレーニングすることができる。
論文 参考訳(メタデータ) (2020-03-11T11:51:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。