論文の概要: Towards Learning Spatially Discriminative Feature Representations
- arxiv url: http://arxiv.org/abs/2109.01359v1
- Date: Fri, 3 Sep 2021 08:04:17 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-06 20:10:24.367118
- Title: Towards Learning Spatially Discriminative Feature Representations
- Title(参考訳): 空間的識別的特徴表現の学習に向けて
- Authors: Chaofei Wang, Jiayu Xiao, Yizeng Han, Qisen Yang, Shiji Song, Gao
Huang
- Abstract要約: 組込み特徴写像をクラスアクティベーションマップ(CAM)に制約する新しい損失関数(CAM-loss)を提案する。
CAM-lossはバックボーンを駆動し、ターゲットカテゴリの特徴を表現し、ターゲット以外のカテゴリやバックグラウンドの特徴を抑圧する。
実験の結果, CAM-lossは様々なネットワーク構造に適用可能であり, 画像分類の性能向上のために, 主流の正規化手法と組み合わせることができることがわかった。
- 参考スコア(独自算出の注目度): 26.554140976236052
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The backbone of traditional CNN classifier is generally considered as a
feature extractor, followed by a linear layer which performs the
classification. We propose a novel loss function, termed as CAM-loss, to
constrain the embedded feature maps with the class activation maps (CAMs) which
indicate the spatially discriminative regions of an image for particular
categories. CAM-loss drives the backbone to express the features of target
category and suppress the features of non-target categories or background, so
as to obtain more discriminative feature representations. It can be simply
applied in any CNN architecture with neglectable additional parameters and
calculations. Experimental results show that CAM-loss is applicable to a
variety of network structures and can be combined with mainstream
regularization methods to improve the performance of image classification. The
strong generalization ability of CAM-loss is validated in the transfer learning
and few shot learning tasks. Based on CAM-loss, we also propose a novel
CAAM-CAM matching knowledge distillation method. This method directly uses the
CAM generated by the teacher network to supervise the CAAM generated by the
student network, which effectively improves the accuracy and convergence rate
of the student network.
- Abstract(参考訳): 従来のCNN分類器のバックボーンは、一般的に特徴抽出器とみなされ、次に分類を行う線形層が続く。
本研究では,特定のカテゴリに対する画像の空間的識別領域を示すクラスアクティベーションマップ(cams)を用いて,組込み特徴マップを制約する新しい損失関数cam-lossを提案する。
CAM-lossは、ターゲットカテゴリの特徴を表現するためにバックボーンを駆動し、非ターゲットカテゴリやバックグラウンドの特徴を抑圧し、より差別的な特徴表現を得る。
これは、無視可能な追加パラメータと計算を伴う任意のCNNアーキテクチャで簡単に適用できる。
実験の結果, CAM-lossは様々なネットワーク構造に適用可能であり, 画像分類の性能向上のために, 主流の正規化手法と組み合わせることができることがわかった。
cam-lossの強力な一般化能力は、転送学習とショット学習タスクで検証される。
CAM-lossに基づく新しいCAAM-CAMマッチング知識蒸留法を提案する。
本手法は,教師ネットワークが生成するcamを用いて学生ネットワークが生成するcaamを直接監視し,学生ネットワークの精度と収束率を効果的に向上する。
関連論文リスト
- Spatial Action Unit Cues for Interpretable Deep Facial Expression Recognition [55.97779732051921]
表情認識(FER)のための最先端の分類器は、エンドユーザーにとって重要な特徴である解釈可能性に欠ける。
新しい学習戦略が提案され、AU cues を分類器訓練に明示的に組み込むことで、深い解釈可能なモデルを訓練することができる。
我々の新しい戦略は汎用的であり、アーキテクチャの変更や追加のトレーニング時間を必要とすることなく、ディープCNNやトランスフォーマーベースの分類器に適用できます。
論文 参考訳(メタデータ) (2024-10-01T10:42:55Z) - BroadCAM: Outcome-agnostic Class Activation Mapping for Small-scale
Weakly Supervised Applications [69.22739434619531]
そこで我々はBroadCAMと呼ばれる結果に依存しないCAMアプローチを提案する。
VOC2012でBroadCAM、WSSSでBCSS-WSSS、WSOLでOpenImages30kを評価することで、BroadCAMは優れたパフォーマンスを示している。
論文 参考訳(メタデータ) (2023-09-07T06:45:43Z) - Feature Activation Map: Visual Explanation of Deep Learning Models for
Image Classification [17.373054348176932]
本研究では,機能活性化マップ (FAM) と呼ばれるポストホック解釈ツールを提案する。
FAMは、FC層を分類器として使用せずにディープラーニングモデルを解釈できる。
提案したFAMアルゴリズムの有効性を実証するために,10種類の深層学習モデルを用いて,少数ショット画像分類,コントラスト学習画像分類,画像検索タスクを行った。
論文 参考訳(メタデータ) (2023-07-11T05:33:46Z) - Cluster-CAM: Cluster-Weighted Visual Interpretation of CNNs' Decision in
Image Classification [12.971559051829658]
Cluster-CAMは、効率的な勾配のないCNN解釈アルゴリズムである。
本稿では,クラスタ化された特徴写像から認識ベースマップと認識-シザーを鍛えるための巧妙な戦略を提案する。
論文 参考訳(メタデータ) (2023-02-03T10:38:20Z) - Learning Visual Explanations for DCNN-Based Image Classifiers Using an
Attention Mechanism [8.395400675921515]
L-CAM-FmとL-CAM-Imgと呼ばれる、深層畳み込みニューラルネットワーク(DCNN)画像分類のための2つの新しい学習ベースAI(XAI)手法を提案する。
どちらの手法も、元の(凍結した)DCNNに挿入される注意機構を使用し、最後の畳み込み層の特徴写像からクラス活性化マップ(CAM)を導出するように訓練されている。
ImageNet上での実験評価により,提案手法は推論段階で1回の前方通過を必要としながら,競合する結果が得られることが示された。
論文 参考訳(メタデータ) (2022-09-22T17:33:18Z) - FD-CAM: Improving Faithfulness and Discriminability of Visual
Explanation for CNNs [7.956110316017118]
畳み込みニューラルネットワークの内部動作機構を視覚的に説明するために,クラスアクティベーションマップ(CAM)が広く研究されている。
本稿では,CNNの視覚的説明の忠実度と差別性を両立させるため,FD-CAMと呼ばれる新しいCAM重み付け手法を提案する。
論文 参考訳(メタデータ) (2022-06-17T14:08:39Z) - Weakly-supervised fire segmentation by visualizing intermediate CNN
layers [82.75113406937194]
画像やビデオにおける火の局所化は、火災事故に対処するための自律システムにとって重要なステップである。
我々は,ネットワークのトレーニングに画像ラベルのみを使用する,画像中の火の弱い制御セグメント化について検討する。
CNNの中間層における特徴量の平均値は,2値セグメンテーション問題である火災セグメンテーションの場合,従来のクラスアクティベーションマッピング(CAM)法よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-11-16T11:56:28Z) - Calibrating Class Activation Maps for Long-Tailed Visual Recognition [60.77124328049557]
本稿では,CNNの長期分布からネットワーク学習を改善するための2つの効果的な修正を提案する。
まず,ネットワーク分類器の学習と予測を改善するために,CAMC (Class Activation Map) モジュールを提案する。
第2に,長期化問題における表現学習における正規化分類器の利用について検討する。
論文 参考訳(メタデータ) (2021-08-29T05:45:03Z) - Knowledge Distillation By Sparse Representation Matching [107.87219371697063]
本稿では,一方の畳み込みネットワーク(cnn)から他方へ,スパース表現を用いて中間知識を伝達するスパース表現マッチング(srm)を提案する。
勾配降下を利用して効率的に最適化し、任意のCNNにプラグアンドプレイで統合できるニューラルプロセッシングブロックとして定式化します。
実験の結果,教師と生徒のネットワーク間のアーキテクチャの違いに頑健であり,複数のデータセットにまたがる他のkd技術よりも優れていた。
論文 参考訳(メタデータ) (2021-03-31T11:47:47Z) - Learning CNN filters from user-drawn image markers for coconut-tree
image classification [78.42152902652215]
本稿では,CNNの特徴抽出器を訓練するために,最小限のユーザ選択画像を必要とする手法を提案する。
本手法は,クラスを識別する画像領域のユーザ描画マーカーから,各畳み込み層のフィルタを学習する。
バックプロパゲーションに基づく最適化には依存せず、ココナッツツリー空中画像のバイナリ分類にその利点を実証する。
論文 参考訳(メタデータ) (2020-08-08T15:50:23Z) - Eigen-CAM: Class Activation Map using Principal Components [1.2691047660244335]
この論文は、解釈可能で堅牢で透明なモデルに対する需要の増加に対応するために、従来の考え方に基づいている。
提案したEigen-CAMは、畳み込み層から学習した特徴/表現の基本的なコンポーネントを計算し、視覚化する。
論文 参考訳(メタデータ) (2020-08-01T17:14:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。