論文の概要: G-CAME: Gaussian-Class Activation Mapping Explainer for Object Detectors
- arxiv url: http://arxiv.org/abs/2306.03400v1
- Date: Tue, 6 Jun 2023 04:30:18 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-07 17:21:31.868374
- Title: G-CAME: Gaussian-Class Activation Mapping Explainer for Object Detectors
- Title(参考訳): G-CAME:オブジェクト検出器用ガウス級アクティブマッピング説明器
- Authors: Quoc Khanh Nguyen, Truong Thanh Hung Nguyen, Vo Thanh Khang Nguyen,
Van Binh Truong, Quoc Hung Cao
- Abstract要約: G-CAMEは、オブジェクト検出モデルの説明として、サリエンシマップを生成する。
提案手法をMS-COCO 2017データセット上でYOLOXを用いて評価し,G-CAMEを2段階のFaster-RCNNモデルに適用する方法について検討した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Nowadays, deep neural networks for object detection in images are very
prevalent. However, due to the complexity of these networks, users find it hard
to understand why these objects are detected by models. We proposed Gaussian
Class Activation Mapping Explainer (G-CAME), which generates a saliency map as
the explanation for object detection models. G-CAME can be considered a
CAM-based method that uses the activation maps of selected layers combined with
the Gaussian kernel to highlight the important regions in the image for the
predicted box. Compared with other Region-based methods, G-CAME can transcend
time constraints as it takes a very short time to explain an object. We also
evaluated our method qualitatively and quantitatively with YOLOX on the MS-COCO
2017 dataset and guided to apply G-CAME into the two-stage Faster-RCNN model.
- Abstract(参考訳): 近年,画像中の物体検出のための深層ニューラルネットワークが普及している。
しかし、これらのネットワークの複雑さのため、なぜこれらのオブジェクトがモデルによって検出されるのかを理解するのは難しい。
本稿では,オブジェクト検出モデルの説明としてサリエンシマップを生成するG-CAME(Gaussian Class Activation Mapping Explainer)を提案する。
G-CAMEは、選択したレイヤの活性化マップとガウスカーネルを組み合わせることで、予測ボックスのイメージ内の重要な領域をハイライトするCAMベースの方法と考えることができる。
他の領域ベースの方法と比較して、g-cameはオブジェクトを説明するのに非常に時間がかかるため、時間の制約を超越することができる。
また,MS-COCO 2017データセット上でYOLOXを定性的かつ定量的に評価し,G-CAMEを2段階のFaster-RCNNモデルに適用するように誘導した。
関連論文リスト
- Hierarchical Graph Interaction Transformer with Dynamic Token Clustering for Camouflaged Object Detection [57.883265488038134]
本稿では,HGINetと呼ばれる階層的なグラフ相互作用ネットワークを提案する。
このネットワークは、階層的トークン化機能間の効果的なグラフ相互作用を通じて、知覚不能なオブジェクトを発見することができる。
本実験は,既存の最先端手法と比較して,HGINetの優れた性能を示すものである。
論文 参考訳(メタデータ) (2024-08-27T12:53:25Z) - Leveraging Activations for Superpixel Explanations [2.8792218859042453]
ディープニューラルネットワークの説明ツールキットでは、サリエンシ手法が標準となっている。
本稿では,ディープニューラルネットワーク画像分類器の活性化からセグメンテーションを抽出することで,セグメンタへの依存を避けることを目的とする。
我々のいわゆるNuro-Activated Superpixels(NAS)は、モデルの予測に関連する入力に対する関心領域を分離することができる。
論文 参考訳(メタデータ) (2024-06-07T13:37:45Z) - Efficient and Concise Explanations for Object Detection with Gaussian-Class Activation Mapping Explainer [3.2766072866432867]
G-CAME(Gaussian Class Activation Mapping Explainer)について紹介する。
G-CAMEは、品質を損なうことなく説明時間を0.5秒に短縮する。
我々は, MS-COCO 2017データセット上で, Faster-RCNN と YOLOX を用いた G-CAME の評価を行った。
論文 参考訳(メタデータ) (2024-04-20T16:11:47Z) - Frequency Perception Network for Camouflaged Object Detection [51.26386921922031]
周波数領域のセマンティック階層によって駆動される新しい学習可能かつ分離可能な周波数知覚機構を提案する。
ネットワーク全体では、周波数誘導粗い局所化ステージと細部保存の微細局在化ステージを含む2段階モデルを採用している。
提案手法は,既存のモデルと比較して,3つのベンチマークデータセットにおいて競合性能を実現する。
論文 参考訳(メタデータ) (2023-08-17T11:30:46Z) - ODSmoothGrad: Generating Saliency Maps for Object Detectors [0.0]
ODSmoothGradはオブジェクト検出器の分類とバウンディングボックスパラメータのソーシングマップを生成するツールである。
また,SmoothGradアルゴリズムを用いて注目画素を視覚的に拡張する。
論文 参考訳(メタデータ) (2023-04-15T18:21:56Z) - Learning Visual Explanations for DCNN-Based Image Classifiers Using an
Attention Mechanism [8.395400675921515]
L-CAM-FmとL-CAM-Imgと呼ばれる、深層畳み込みニューラルネットワーク(DCNN)画像分類のための2つの新しい学習ベースAI(XAI)手法を提案する。
どちらの手法も、元の(凍結した)DCNNに挿入される注意機構を使用し、最後の畳み込み層の特徴写像からクラス活性化マップ(CAM)を導出するように訓練されている。
ImageNet上での実験評価により,提案手法は推論段階で1回の前方通過を必要としながら,競合する結果が得られることが示された。
論文 参考訳(メタデータ) (2022-09-22T17:33:18Z) - Poly-CAM: High resolution class activation map for convolutional neural
networks [88.29660600055715]
畳み込みニューラルネットワークから派生した 解像度マップは 画像の特徴が ネットワーク予測を正当化する 精度で 位置決めに失敗する
これは、これらの写像が CAM (Zhou et al., 2016) のように低分解能であるか、摂動法 (Zeiler and Fergus, 2014) で滑らかであるか、あるいは広範囲に広がるピーク点に対応するためである。
対照的に、我々の研究は、以前のネットワークレイヤからの情報と後のレイヤからの情報を組み合わせて、高解像度のClass Activation Mapを作成することを提案する。
論文 参考訳(メタデータ) (2022-04-28T09:06:19Z) - Learning Hierarchical Graph Representation for Image Manipulation
Detection [50.04902159383709]
画像操作検出の目的は、画像内の操作された領域を特定し、特定することである。
最近のアプローチでは、画像に残っている改ざんするアーティファクトをキャプチャするために、洗練された畳み込みニューラルネットワーク(CNN)が採用されている。
本稿では2つの並列分岐からなる階層型グラフ畳み込みネットワーク(HGCN-Net)を提案する。
論文 参考訳(メタデータ) (2022-01-15T01:54:25Z) - TSG: Target-Selective Gradient Backprop for Probing CNN Visual Saliency [72.9106103283475]
我々は、畳み込みニューラルネットワークを解釈するために視覚的サリエンシ、すなわち視覚的説明について研究する。
これらの観測に触発されて、我々はTSG(Target-Selective Gradient)バックプロップと呼ばれる新しいビジュアル・サリエンシ・フレームワークを提案する。
提案したTSGはTSG-ConvとTSG-FCの2つのコンポーネントから構成され、それぞれ畳み込み層と完全連結層の勾配を補正する。
論文 参考訳(メタデータ) (2021-10-11T12:00:20Z) - DS-Net: Dynamic Spatiotemporal Network for Video Salient Object
Detection [78.04869214450963]
時間情報と空間情報のより効果的な融合のための新しい動的時空間ネットワーク(DSNet)を提案する。
提案手法は最先端アルゴリズムよりも優れた性能が得られることを示す。
論文 参考訳(メタデータ) (2020-12-09T06:42:30Z) - Learning Gaussian Maps for Dense Object Detection [1.8275108630751844]
類似したオブジェクトが互いに近接して配置されるシーンにおいて,共通かつ高精度なオブジェクト検出手法を概説する。
ガウス写像のマルチタスク学習と分類と境界ボックス回帰がベースラインの精度を大幅に向上させることを示す。
提案手法は,SKU110K citesku110kデータセットの精度も向上する。
論文 参考訳(メタデータ) (2020-04-24T17:01:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。