論文の概要: VS-CAM: Vertex Semantic Class Activation Mapping to Interpret Vision
Graph Neural Network
- arxiv url: http://arxiv.org/abs/2209.09104v1
- Date: Thu, 15 Sep 2022 09:45:59 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-20 15:57:20.829082
- Title: VS-CAM: Vertex Semantic Class Activation Mapping to Interpret Vision
Graph Neural Network
- Title(参考訳): vs-cam: ビジョングラフニューラルネットワークを解釈するための頂点意味クラスアクティベーションマッピング
- Authors: Zhenpeng Feng, Xiyang Cui, Hongbing Ji, Mingzhe Zhu, Ljubisa Stankovic
- Abstract要約: グラフ畳み込みニューラルネットワーク(GCN)は注目度を高め、様々なコンピュータビジョンタスクで優れたパフォーマンスを達成した。
標準畳み込みニューラルネットワーク(CNN)では、クラスアクティベーションマッピング(CAM)法が、ヒートマップを生成することで、CNNの決定と画像領域の間の接続を可視化するために一般的に使用される。
本稿では,特にGCN, Vertex Semantic Class Activation Mapping (VS-CAM)に適用可能な新しい可視化手法を提案する。
- 参考スコア(独自算出の注目度): 10.365366151667017
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Graph convolutional neural network (GCN) has drawn increasing attention and
attained good performance in various computer vision tasks, however, there
lacks a clear interpretation of GCN's inner mechanism. For standard
convolutional neural networks (CNNs), class activation mapping (CAM) methods
are commonly used to visualize the connection between CNN's decision and image
region by generating a heatmap. Nonetheless, such heatmap usually exhibits
semantic-chaos when these CAMs are applied to GCN directly. In this paper, we
proposed a novel visualization method particularly applicable to GCN, Vertex
Semantic Class Activation Mapping (VS-CAM). VS-CAM includes two independent
pipelines to produce a set of semantic-probe maps and a semantic-base map,
respectively. Semantic-probe maps are used to detect the semantic information
from semantic-base map to aggregate a semantic-aware heatmap. Qualitative
results show that VS-CAM can obtain heatmaps where the highlighted regions
match the objects much more precisely than CNN-based CAM. The quantitative
evaluation further demonstrates the superiority of VS-CAM.
- Abstract(参考訳): グラフ畳み込みニューラルネットワーク(GCN)は、様々なコンピュータビジョンタスクにおいて注目され、優れた性能を達成したが、GCNの内部メカニズムの明確な解釈が欠けている。
標準畳み込みニューラルネットワーク(CNN)では、クラスアクティベーションマッピング(CAM)法が、ヒートマップを生成することでCNNの決定と画像領域の間の接続を可視化するために一般的に使用される。
それでも、このようなヒートマップは通常、これらのCAMがGCNに直接適用される際にセマンティックカオスを示す。
本稿では,特にGCN,Vertex Semantic Class Activation Mapping (VS-CAM)に適用可能な新しい可視化手法を提案する。
VS-CAMには2つの独立したパイプラインがあり、それぞれセマンティックプローブマップとセマンティックベースマップを生成する。
semantic-probe mapは、セマンティック・ベース・マップから意味情報を検出し、セマンティック・アウェア・ヒートマップを集約するために使用される。
定性的な結果は、VS-CAMがCNNベースのCAMよりもはるかに正確に対象にマッチするヒートマップを得ることができることを示している。
定量的評価はVS-CAMの優位性をさらに示している。
関連論文リスト
- Leveraging CAM Algorithms for Explaining Medical Semantic Segmentation [4.818865062632567]
畳み込みニューラルネットワーク(CNN)は、近年のセグメンテーションタスクにおいて、一般的な結果を実現している。
CNNを解釈する1つの方法は、ヒートマップを表すクラスアクティベーションマップ(CAM)を使用することである。
本稿では,既存の分類法とセグメンテーションに基づく手法の間で,より詳細で説明可能な,一貫性のある結果の転送を提案する。
論文 参考訳(メタデータ) (2024-09-30T13:43:00Z) - Hierarchical Graph Interaction Transformer with Dynamic Token Clustering for Camouflaged Object Detection [57.883265488038134]
本稿では,HGINetと呼ばれる階層的なグラフ相互作用ネットワークを提案する。
このネットワークは、階層的トークン化機能間の効果的なグラフ相互作用を通じて、知覚不能なオブジェクトを発見することができる。
本実験は,既存の最先端手法と比較して,HGINetの優れた性能を示すものである。
論文 参考訳(メタデータ) (2024-08-27T12:53:25Z) - Domain-adaptive Message Passing Graph Neural Network [67.35534058138387]
クロスネットワークノード分類(CNNC)は、豊富なラベルを持つソースネットワークから知識を転送することで、ラベル不足のターゲットネットワーク内のノードを分類することを目的としている。
本稿では,グラフニューラルネットワーク(GNN)と条件付き対向ドメイン適応を統合したドメイン適応型メッセージパッシンググラフニューラルネットワーク(DM-GNN)を提案する。
論文 参考訳(メタデータ) (2023-08-31T05:26:08Z) - Cluster-CAM: Cluster-Weighted Visual Interpretation of CNNs' Decision in
Image Classification [12.971559051829658]
Cluster-CAMは、効率的な勾配のないCNN解釈アルゴリズムである。
本稿では,クラスタ化された特徴写像から認識ベースマップと認識-シザーを鍛えるための巧妙な戦略を提案する。
論文 参考訳(メタデータ) (2023-02-03T10:38:20Z) - Opti-CAM: Optimizing saliency maps for interpretability [10.122899813335694]
CAMに基づくアイデアとマスキングに基づくアプローチを組み合わせたOpti-CAMを紹介する。
われわれのサリエンシマップは特徴マップを線形に組み合わせたもので、画像ごとに重みが最適化されている。
いくつかのデータセットでは、Opti-CAMは最も関連する分類基準に従って、他のCAMベースのアプローチよりもはるかに優れています。
論文 参考訳(メタデータ) (2023-01-17T16:44:48Z) - Learning Visual Explanations for DCNN-Based Image Classifiers Using an
Attention Mechanism [8.395400675921515]
L-CAM-FmとL-CAM-Imgと呼ばれる、深層畳み込みニューラルネットワーク(DCNN)画像分類のための2つの新しい学習ベースAI(XAI)手法を提案する。
どちらの手法も、元の(凍結した)DCNNに挿入される注意機構を使用し、最後の畳み込み層の特徴写像からクラス活性化マップ(CAM)を導出するように訓練されている。
ImageNet上での実験評価により,提案手法は推論段階で1回の前方通過を必要としながら,競合する結果が得られることが示された。
論文 参考訳(メタデータ) (2022-09-22T17:33:18Z) - Shap-CAM: Visual Explanations for Convolutional Neural Networks based on
Shapley Value [86.69600830581912]
クラスアクティベーションマッピングに基づくShap-CAMと呼ばれる新しい視覚的説明法を開発した。
我々は,Shap-CAMが意思決定プロセスの解釈において,より良い視覚的性能と公平性を実現することを実証した。
論文 参考訳(メタデータ) (2022-08-07T00:59:23Z) - Towards Learning Spatially Discriminative Feature Representations [26.554140976236052]
組込み特徴写像をクラスアクティベーションマップ(CAM)に制約する新しい損失関数(CAM-loss)を提案する。
CAM-lossはバックボーンを駆動し、ターゲットカテゴリの特徴を表現し、ターゲット以外のカテゴリやバックグラウンドの特徴を抑圧する。
実験の結果, CAM-lossは様々なネットワーク構造に適用可能であり, 画像分類の性能向上のために, 主流の正規化手法と組み合わせることができることがわかった。
論文 参考訳(メタデータ) (2021-09-03T08:04:17Z) - TS-CAM: Token Semantic Coupled Attention Map for Weakly Supervised
Object Localization [112.46381729542658]
弱監督オブジェクトローカリゼーション(WSOL)は、画像カテゴリラベルを与えられたときに難しい問題です。
長距離依存抽出のための視覚変換器における自己注意機構をフル活用するために,トークン意味結合注意マップ(TS-CAM)を導入する。
論文 参考訳(メタデータ) (2021-03-27T09:43:16Z) - Video-based Facial Expression Recognition using Graph Convolutional
Networks [57.980827038988735]
我々は、ビデオベースの表情認識のための共通のCNN-RNNモデルに、GCN(Graph Convolutional Network)層を導入する。
我々は、CK+、Oulu-CASIA、MMIの3つの広く使われているデータセットと、AFEW8.0の挑戦的なワイルドデータセットについて、本手法の評価を行った。
論文 参考訳(メタデータ) (2020-10-26T07:31:51Z) - Towards Interpretable Semantic Segmentation via Gradient-weighted Class
Activation Mapping [71.91734471596432]
本稿では,セマンティックセグメンテーションの解法としてSEG-GRAD-CAMを提案する。
本手法は,各画素のセグメンテーションに対する関連性を示すヒートマップを作成するために局所的に適用された広く使われているGrad-CAM法の拡張である。
論文 参考訳(メタデータ) (2020-02-26T12:32:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。