論文の概要: VS-CAM: Vertex Semantic Class Activation Mapping to Interpret Vision
Graph Neural Network
- arxiv url: http://arxiv.org/abs/2209.09104v1
- Date: Thu, 15 Sep 2022 09:45:59 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-20 15:57:20.829082
- Title: VS-CAM: Vertex Semantic Class Activation Mapping to Interpret Vision
Graph Neural Network
- Title(参考訳): vs-cam: ビジョングラフニューラルネットワークを解釈するための頂点意味クラスアクティベーションマッピング
- Authors: Zhenpeng Feng, Xiyang Cui, Hongbing Ji, Mingzhe Zhu, Ljubisa Stankovic
- Abstract要約: グラフ畳み込みニューラルネットワーク(GCN)は注目度を高め、様々なコンピュータビジョンタスクで優れたパフォーマンスを達成した。
標準畳み込みニューラルネットワーク(CNN)では、クラスアクティベーションマッピング(CAM)法が、ヒートマップを生成することで、CNNの決定と画像領域の間の接続を可視化するために一般的に使用される。
本稿では,特にGCN, Vertex Semantic Class Activation Mapping (VS-CAM)に適用可能な新しい可視化手法を提案する。
- 参考スコア(独自算出の注目度): 10.365366151667017
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Graph convolutional neural network (GCN) has drawn increasing attention and
attained good performance in various computer vision tasks, however, there
lacks a clear interpretation of GCN's inner mechanism. For standard
convolutional neural networks (CNNs), class activation mapping (CAM) methods
are commonly used to visualize the connection between CNN's decision and image
region by generating a heatmap. Nonetheless, such heatmap usually exhibits
semantic-chaos when these CAMs are applied to GCN directly. In this paper, we
proposed a novel visualization method particularly applicable to GCN, Vertex
Semantic Class Activation Mapping (VS-CAM). VS-CAM includes two independent
pipelines to produce a set of semantic-probe maps and a semantic-base map,
respectively. Semantic-probe maps are used to detect the semantic information
from semantic-base map to aggregate a semantic-aware heatmap. Qualitative
results show that VS-CAM can obtain heatmaps where the highlighted regions
match the objects much more precisely than CNN-based CAM. The quantitative
evaluation further demonstrates the superiority of VS-CAM.
- Abstract(参考訳): グラフ畳み込みニューラルネットワーク(GCN)は、様々なコンピュータビジョンタスクにおいて注目され、優れた性能を達成したが、GCNの内部メカニズムの明確な解釈が欠けている。
標準畳み込みニューラルネットワーク(CNN)では、クラスアクティベーションマッピング(CAM)法が、ヒートマップを生成することでCNNの決定と画像領域の間の接続を可視化するために一般的に使用される。
それでも、このようなヒートマップは通常、これらのCAMがGCNに直接適用される際にセマンティックカオスを示す。
本稿では,特にGCN,Vertex Semantic Class Activation Mapping (VS-CAM)に適用可能な新しい可視化手法を提案する。
VS-CAMには2つの独立したパイプラインがあり、それぞれセマンティックプローブマップとセマンティックベースマップを生成する。
semantic-probe mapは、セマンティック・ベース・マップから意味情報を検出し、セマンティック・アウェア・ヒートマップを集約するために使用される。
定性的な結果は、VS-CAMがCNNベースのCAMよりもはるかに正確に対象にマッチするヒートマップを得ることができることを示している。
定量的評価はVS-CAMの優位性をさらに示している。
関連論文リスト
- Domain-adaptive Message Passing Graph Neural Network [67.35534058138387]
クロスネットワークノード分類(CNNC)は、豊富なラベルを持つソースネットワークから知識を転送することで、ラベル不足のターゲットネットワーク内のノードを分類することを目的としている。
本稿では,グラフニューラルネットワーク(GNN)と条件付き対向ドメイン適応を統合したドメイン適応型メッセージパッシンググラフニューラルネットワーク(DM-GNN)を提案する。
論文 参考訳(メタデータ) (2023-08-31T05:26:08Z) - Feature Activation Map: Visual Explanation of Deep Learning Models for
Image Classification [17.373054348176932]
本研究では,機能活性化マップ (FAM) と呼ばれるポストホック解釈ツールを提案する。
FAMは、FC層を分類器として使用せずにディープラーニングモデルを解釈できる。
提案したFAMアルゴリズムの有効性を実証するために,10種類の深層学習モデルを用いて,少数ショット画像分類,コントラスト学習画像分類,画像検索タスクを行った。
論文 参考訳(メタデータ) (2023-07-11T05:33:46Z) - SeMLaPS: Real-time Semantic Mapping with Latent Prior Networks and
Quasi-Planar Segmentation [53.83313235792596]
本稿では,RGB-Dシーケンスからのリアルタイム意味マッピングのための新しい手法を提案する。
2DニューラルネットワークとSLAMシステムに基づく3Dネットワークと3D占有マッピングを組み合わせる。
本システムは,2D-3Dネットワークベースシステムにおいて,最先端のセマンティックマッピング品質を実現する。
論文 参考訳(メタデータ) (2023-06-28T22:36:44Z) - Cluster-CAM: Cluster-Weighted Visual Interpretation of CNNs' Decision in
Image Classification [12.971559051829658]
Cluster-CAMは、効率的な勾配のないCNN解釈アルゴリズムである。
本稿では,クラスタ化された特徴写像から認識ベースマップと認識-シザーを鍛えるための巧妙な戦略を提案する。
論文 参考訳(メタデータ) (2023-02-03T10:38:20Z) - Opti-CAM: Optimizing saliency maps for interpretability [10.860312108633652]
CAMに基づくアイデアとマスキングに基づくアプローチを組み合わせたOpti-CAMを紹介する。
われわれのサリエンシマップは特徴マップを線形に組み合わせたもので、画像ごとに重みが最適化されている。
いくつかのデータセットでは、Opti-CAMは最も関連する分類基準に従って、他のCAMベースのアプローチよりもはるかに優れています。
論文 参考訳(メタデータ) (2023-01-17T16:44:48Z) - Learning Visual Explanations for DCNN-Based Image Classifiers Using an
Attention Mechanism [8.395400675921515]
L-CAM-FmとL-CAM-Imgと呼ばれる、深層畳み込みニューラルネットワーク(DCNN)画像分類のための2つの新しい学習ベースAI(XAI)手法を提案する。
どちらの手法も、元の(凍結した)DCNNに挿入される注意機構を使用し、最後の畳み込み層の特徴写像からクラス活性化マップ(CAM)を導出するように訓練されている。
ImageNet上での実験評価により,提案手法は推論段階で1回の前方通過を必要としながら,競合する結果が得られることが示された。
論文 参考訳(メタデータ) (2022-09-22T17:33:18Z) - Shap-CAM: Visual Explanations for Convolutional Neural Networks based on
Shapley Value [86.69600830581912]
クラスアクティベーションマッピングに基づくShap-CAMと呼ばれる新しい視覚的説明法を開発した。
我々は,Shap-CAMが意思決定プロセスの解釈において,より良い視覚的性能と公平性を実現することを実証した。
論文 参考訳(メタデータ) (2022-08-07T00:59:23Z) - Towards Learning Spatially Discriminative Feature Representations [26.554140976236052]
組込み特徴写像をクラスアクティベーションマップ(CAM)に制約する新しい損失関数(CAM-loss)を提案する。
CAM-lossはバックボーンを駆動し、ターゲットカテゴリの特徴を表現し、ターゲット以外のカテゴリやバックグラウンドの特徴を抑圧する。
実験の結果, CAM-lossは様々なネットワーク構造に適用可能であり, 画像分類の性能向上のために, 主流の正規化手法と組み合わせることができることがわかった。
論文 参考訳(メタデータ) (2021-09-03T08:04:17Z) - TS-CAM: Token Semantic Coupled Attention Map for Weakly Supervised
Object Localization [112.46381729542658]
弱監督オブジェクトローカリゼーション(WSOL)は、画像カテゴリラベルを与えられたときに難しい問題です。
長距離依存抽出のための視覚変換器における自己注意機構をフル活用するために,トークン意味結合注意マップ(TS-CAM)を導入する。
論文 参考訳(メタデータ) (2021-03-27T09:43:16Z) - Video-based Facial Expression Recognition using Graph Convolutional
Networks [57.980827038988735]
我々は、ビデオベースの表情認識のための共通のCNN-RNNモデルに、GCN(Graph Convolutional Network)層を導入する。
我々は、CK+、Oulu-CASIA、MMIの3つの広く使われているデータセットと、AFEW8.0の挑戦的なワイルドデータセットについて、本手法の評価を行った。
論文 参考訳(メタデータ) (2020-10-26T07:31:51Z) - Towards Interpretable Semantic Segmentation via Gradient-weighted Class
Activation Mapping [71.91734471596432]
本稿では,セマンティックセグメンテーションの解法としてSEG-GRAD-CAMを提案する。
本手法は,各画素のセグメンテーションに対する関連性を示すヒートマップを作成するために局所的に適用された広く使われているGrad-CAM法の拡張である。
論文 参考訳(メタデータ) (2020-02-26T12:32:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。