論文の概要: PCA- and SVM-Grad-CAM for Convolutional Neural Networks: Closed-form Jacobian Expression
- arxiv url: http://arxiv.org/abs/2508.11880v1
- Date: Sat, 16 Aug 2025 02:52:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-19 14:49:10.433286
- Title: PCA- and SVM-Grad-CAM for Convolutional Neural Networks: Closed-form Jacobian Expression
- Title(参考訳): 畳み込みニューラルネットワークのためのPCA-およびSVM-Grad-CAM:クローズドフォームヤコビアン表現
- Authors: Yuto Omae,
- Abstract要約: 畳み込みニューラルネットワーク(CNN)は、分類タスクに有効なアプローチである。
CNNは、Grad-CAMのような可視化技術を通じて、ホワイトボックスの手法として使用できる。
ホワイトボックス手法の開発を容易にするため,CNNにおいてPCA層やSVM層に対する注意領域を生成することが重要である。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Convolutional Neural Networks (CNNs) are an effective approach for classification tasks, particularly when the training dataset is large. Although CNNs have long been considered a black-box classification method, they can be used as a white-box method through visualization techniques such as Grad-CAM. When training samples are limited, incorporating a Principal Component Analysis (PCA) layer and/or a Support Vector Machine (SVM) classifier into a CNN can effectively improve classification performance. However, traditional Grad-CAM cannot be directly applied to PCA and/or SVM layers. It is important to generate attention regions for PCA and/or SVM layers in CNNs to facilitate the development of white-box methods. Therefore, we propose ``PCA-Grad-CAM'', a method for visualizing attention regions in PCA feature vectors, and ``SVM-Grad-CAM'', a method for visualizing attention regions in an SVM classifier layer. To complete our methods analytically, it is necessary to solve the closed-form Jacobian consisting of partial derivatives from the last convolutional layer to the PCA and/or SVM layers. In this paper, we present the exact closed-form Jacobian and the visualization results of our methods applied to several major datasets.
- Abstract(参考訳): 畳み込みニューラルネットワーク(CNN)は、特にトレーニングデータセットが大きい場合、分類タスクに有効なアプローチである。
CNNは昔からブラックボックス分類法と考えられてきたが、Grad-CAMのような可視化技術によってホワイトボックス法として利用することができる。
トレーニングサンプルが限定されている場合、主成分分析(PCA)層と/またはサポートベクトルマシン(SVM)分類器をCNNに組み込むことで、分類性能を効果的に向上させることができる。
しかし、従来のGrad-CAMはPCA層やSVM層に直接適用することはできない。
ホワイトボックス手法の開発を容易にするため,CNNにおいてPCA層やSVM層に対する注意領域を生成することが重要である。
そこで本研究では,PCA特徴ベクトルにおける注目領域の可視化方法である `PCA-Grad-CAM' と,SVM分類器層における注目領域の可視化手法である ``SVM-Grad-CAM' を提案する。
この手法を解析的に解くためには、最後の畳み込み層からPCA層やSVM層への偏微分からなる閉形式ヤコビアンを解く必要がある。
本稿では, 厳密な閉形式ヤコビアンと, いくつかの主要なデータセットに適用した手法の可視化結果について述べる。
関連論文リスト
- Winsor-CAM: Human-Tunable Visual Explanations from Deep Networks via Layer-Wise Winsorization [3.2338088176151825]
We propose Winsor-CAM, a novel, human-tunable extension of Grad-CAM that generate robust and coherent saliency map。
Winsor-CAMは、ノイズや極端な帰属値の影響を軽減するために、パーセンタイルベースのアウトリア減衰技術であるWinsorizationを適用している。
我々は、Winsor-CAMがより解釈可能なヒートマップを生成し、ローカライズメトリクスにおいて優れた性能を実現することを示す。
論文 参考訳(メタデータ) (2025-07-14T22:37:31Z) - KPCA-CAM: Visual Explainability of Deep Computer Vision Models using Kernel PCA [1.5550533143704957]
本研究では,畳み込みニューラルネットワーク(CNN)の解釈可能性を高める技術であるKPCA-CAMを紹介する。
KPCA-CAMは、CNNアクティベーション内の非線形関係をより効率的に捉えるために、主成分分析(PCA)とカーネルトリックを利用する。
異なるCNNモデルにわたるILSVRCデータセットに関する実証的な評価は、KPCA-CAMがより正確なアクティベーションマップを生成することを示す。
論文 参考訳(メタデータ) (2024-09-30T22:36:37Z) - BroadCAM: Outcome-agnostic Class Activation Mapping for Small-scale
Weakly Supervised Applications [69.22739434619531]
そこで我々はBroadCAMと呼ばれる結果に依存しないCAMアプローチを提案する。
VOC2012でBroadCAM、WSSSでBCSS-WSSS、WSOLでOpenImages30kを評価することで、BroadCAMは優れたパフォーマンスを示している。
論文 参考訳(メタデータ) (2023-09-07T06:45:43Z) - An Explainable Model-Agnostic Algorithm for CNN-based Biometrics
Verification [55.28171619580959]
本稿では,生体認証環境下でのLIME(Local Interpretable Model-Agnostic Explanations)AI手法の適用について述べる。
論文 参考訳(メタデータ) (2023-07-25T11:51:14Z) - Learning Visual Explanations for DCNN-Based Image Classifiers Using an
Attention Mechanism [8.395400675921515]
L-CAM-FmとL-CAM-Imgと呼ばれる、深層畳み込みニューラルネットワーク(DCNN)画像分類のための2つの新しい学習ベースAI(XAI)手法を提案する。
どちらの手法も、元の(凍結した)DCNNに挿入される注意機構を使用し、最後の畳み込み層の特徴写像からクラス活性化マップ(CAM)を導出するように訓練されている。
ImageNet上での実験評価により,提案手法は推論段階で1回の前方通過を必要としながら,競合する結果が得られることが示された。
論文 参考訳(メタデータ) (2022-09-22T17:33:18Z) - Visual Recognition with Deep Nearest Centroids [57.35144702563746]
我々は、概念的にエレガントで驚くほど効果的な大規模視覚認識ネットワークである深部セントロイド(DNC)を考案した。
パラメトリックと比較すると、DNCは画像分類(CIFAR-10, ImageNet)に優れ、画像認識(ADE20K, Cityscapes)を大いに起動する。
論文 参考訳(メタデータ) (2022-09-15T15:47:31Z) - Domain Adaptive Nuclei Instance Segmentation and Classification via
Category-aware Feature Alignment and Pseudo-labelling [65.40672505658213]
本稿では, UDA 核インスタンス分割と分類のための新しいディープニューラルネットワークである Category-Aware 機能アライメントと Pseudo-Labelling Network (CAPL-Net) を提案する。
我々のアプローチは、最先端のUDA手法よりも顕著なマージンで優れています。
論文 参考訳(メタデータ) (2022-07-04T07:05:06Z) - Large-Margin Representation Learning for Texture Classification [67.94823375350433]
本稿では,テクスチャ分類のための小さなデータセット上で教師付きモデルをトレーニングするために,畳み込み層(CL)と大規模計量学習を組み合わせた新しいアプローチを提案する。
テクスチャと病理画像データセットの実験結果から,提案手法は同等のCNNと比較して計算コストが低く,収束が早く,競争精度が向上することが示された。
論文 参考訳(メタデータ) (2022-06-17T04:07:45Z) - Towards Learning Spatially Discriminative Feature Representations [26.554140976236052]
組込み特徴写像をクラスアクティベーションマップ(CAM)に制約する新しい損失関数(CAM-loss)を提案する。
CAM-lossはバックボーンを駆動し、ターゲットカテゴリの特徴を表現し、ターゲット以外のカテゴリやバックグラウンドの特徴を抑圧する。
実験の結果, CAM-lossは様々なネットワーク構造に適用可能であり, 画像分類の性能向上のために, 主流の正規化手法と組み合わせることができることがわかった。
論文 参考訳(メタデータ) (2021-09-03T08:04:17Z) - Eigen-CAM: Class Activation Map using Principal Components [1.2691047660244335]
この論文は、解釈可能で堅牢で透明なモデルに対する需要の増加に対応するために、従来の考え方に基づいている。
提案したEigen-CAMは、畳み込み層から学習した特徴/表現の基本的なコンポーネントを計算し、視覚化する。
論文 参考訳(メタデータ) (2020-08-01T17:14:13Z) - Fine-Grained Visual Classification with Efficient End-to-end
Localization [49.9887676289364]
本稿では,エンド・ツー・エンドの設定において,分類ネットワークと融合可能な効率的なローカライゼーションモジュールを提案する。
我々は,CUB200-2011,Stanford Cars,FGVC-Aircraftの3つのベンチマークデータセット上で,新しいモデルを評価する。
論文 参考訳(メタデータ) (2020-05-11T14:07:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。