論文の概要: Efficient and Concise Explanations for Object Detection with Gaussian-Class Activation Mapping Explainer
- arxiv url: http://arxiv.org/abs/2404.13417v1
- Date: Sat, 20 Apr 2024 16:11:47 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-23 19:00:27.610371
- Title: Efficient and Concise Explanations for Object Detection with Gaussian-Class Activation Mapping Explainer
- Title(参考訳): Gaussian-class Activation Mapping Explainer を用いたオブジェクト検出の効率的かつ簡潔な説明
- Authors: Quoc Khanh Nguyen, Truong Thanh Hung Nguyen, Vo Thanh Khang Nguyen, Van Binh Truong, Tuong Phan, Hung Cao,
- Abstract要約: G-CAME(Gaussian Class Activation Mapping Explainer)について紹介する。
G-CAMEは、品質を損なうことなく説明時間を0.5秒に短縮する。
我々は, MS-COCO 2017データセット上で, Faster-RCNN と YOLOX を用いた G-CAME の評価を行った。
- 参考スコア(独自算出の注目度): 3.2766072866432867
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: To address the challenges of providing quick and plausible explanations in Explainable AI (XAI) for object detection models, we introduce the Gaussian Class Activation Mapping Explainer (G-CAME). Our method efficiently generates concise saliency maps by utilizing activation maps from selected layers and applying a Gaussian kernel to emphasize critical image regions for the predicted object. Compared with other Region-based approaches, G-CAME significantly reduces explanation time to 0.5 seconds without compromising the quality. Our evaluation of G-CAME, using Faster-RCNN and YOLOX on the MS-COCO 2017 dataset, demonstrates its ability to offer highly plausible and faithful explanations, especially in reducing the bias on tiny object detection.
- Abstract(参考訳): オブジェクト検出モデルに対する説明可能なAI(XAI)において、迅速かつ妥当な説明を提供することの課題に対処するため、G-CAME(Gaussian Class Activation Mapping Explainer)を紹介した。
提案手法は,選択した層からのアクティベーションマップを利用し,ガウスカーネルを適用して予測対象に対する重要な画像領域を強調することにより,高精度なサリエンシマップを効率よく生成する。
他のリージョンベースのアプローチと比較して、G-CAMEは、品質を損なうことなく説明時間を0.5秒に大幅に短縮する。
我々は, MS-COCO 2017データセット上で, Faster-RCNN と YOLOX を用いた G-CAME の評価を行った。
関連論文リスト
- Leveraging Activations for Superpixel Explanations [2.8792218859042453]
ディープニューラルネットワークの説明ツールキットでは、サリエンシ手法が標準となっている。
本稿では,ディープニューラルネットワーク画像分類器の活性化からセグメンテーションを抽出することで,セグメンタへの依存を避けることを目的とする。
我々のいわゆるNuro-Activated Superpixels(NAS)は、モデルの予測に関連する入力に対する関心領域を分離することができる。
論文 参考訳(メタデータ) (2024-06-07T13:37:45Z) - Rethinking Class Activation Maps for Segmentation: Revealing Semantic
Information in Shallow Layers by Reducing Noise [2.462953128215088]
クラス活性化マップの性能に対する大きな制限は、畳み込みニューラルネットワークの最後の層にある特徴マップの小さな空間分解能である。
本稿では, 雑音を正の勾配で除去し, ノイズを除去する簡易な勾配法を提案する。
提案手法は,他のCAM関連手法にも容易に適用可能であり,高品質なクラスアクティベーションマップの取得が容易である。
論文 参考訳(メタデータ) (2023-08-04T03:04:09Z) - Efficient GNN Explanation via Learning Removal-based Attribution [56.18049062940675]
本稿では,LARA (LeArn removal-based Attribution) というGNN説明の枠組みを提案し,この問題に対処する。
LARAの解説者は、高い忠実度で説明を提供することができる除去に基づく属性を生成することを学ぶ。
特に、LARAは3.5倍高速で、大きなデータセットogbn-arxivの最先端の手法よりも忠実である。
論文 参考訳(メタデータ) (2023-06-09T08:54:20Z) - G-CAME: Gaussian-Class Activation Mapping Explainer for Object Detectors [0.0]
G-CAMEは、オブジェクト検出モデルの説明として、サリエンシマップを生成する。
提案手法をMS-COCO 2017データセット上でYOLOXを用いて評価し,G-CAMEを2段階のFaster-RCNNモデルに適用する方法について検討した。
論文 参考訳(メタデータ) (2023-06-06T04:30:18Z) - Poly-CAM: High resolution class activation map for convolutional neural
networks [88.29660600055715]
畳み込みニューラルネットワークから派生した 解像度マップは 画像の特徴が ネットワーク予測を正当化する 精度で 位置決めに失敗する
これは、これらの写像が CAM (Zhou et al., 2016) のように低分解能であるか、摂動法 (Zeiler and Fergus, 2014) で滑らかであるか、あるいは広範囲に広がるピーク点に対応するためである。
対照的に、我々の研究は、以前のネットワークレイヤからの情報と後のレイヤからの情報を組み合わせて、高解像度のClass Activation Mapを作成することを提案する。
論文 参考訳(メタデータ) (2022-04-28T09:06:19Z) - GCA-Net : Utilizing Gated Context Attention for Improving Image Forgery
Localization and Detection [0.9883261192383611]
本稿では,グローバルな文脈学習に非局所的注意ブロックを利用するGated Context Attention Network (GCA-Net)を提案する。
提案手法は,複数のベンチマークデータセットにおいて,平均4.2%-5.4%のAUCで最先端のネットワークより優れていることを示す。
論文 参考訳(メタデータ) (2021-12-08T14:13:14Z) - TSG: Target-Selective Gradient Backprop for Probing CNN Visual Saliency [72.9106103283475]
我々は、畳み込みニューラルネットワークを解釈するために視覚的サリエンシ、すなわち視覚的説明について研究する。
これらの観測に触発されて、我々はTSG(Target-Selective Gradient)バックプロップと呼ばれる新しいビジュアル・サリエンシ・フレームワークを提案する。
提案したTSGはTSG-ConvとTSG-FCの2つのコンポーネントから構成され、それぞれ畳み込み層と完全連結層の勾配を補正する。
論文 参考訳(メタデータ) (2021-10-11T12:00:20Z) - CAMERAS: Enhanced Resolution And Sanity preserving Class Activation
Mapping for image saliency [61.40511574314069]
バックプロパゲーション画像のサリエンシは、入力中の個々のピクセルのモデル中心の重要性を推定することにより、モデル予測を説明することを目的としている。
CAMERASは、外部の事前処理を必要とせずに、高忠実度バックプロパゲーション・サリエンシ・マップを計算できる手法である。
論文 参考訳(メタデータ) (2021-06-20T08:20:56Z) - DS-Net: Dynamic Spatiotemporal Network for Video Salient Object
Detection [78.04869214450963]
時間情報と空間情報のより効果的な融合のための新しい動的時空間ネットワーク(DSNet)を提案する。
提案手法は最先端アルゴリズムよりも優れた性能が得られることを示す。
論文 参考訳(メタデータ) (2020-12-09T06:42:30Z) - Learning Gaussian Maps for Dense Object Detection [1.8275108630751844]
類似したオブジェクトが互いに近接して配置されるシーンにおいて,共通かつ高精度なオブジェクト検出手法を概説する。
ガウス写像のマルチタスク学習と分類と境界ボックス回帰がベースラインの精度を大幅に向上させることを示す。
提案手法は,SKU110K citesku110kデータセットの精度も向上する。
論文 参考訳(メタデータ) (2020-04-24T17:01:25Z) - BiDet: An Efficient Binarized Object Detector [96.19708396510894]
本稿では,効率的な物体検出のためのバイナライズニューラルネットワークのBiDetを提案する。
我々のBiDetは、冗長除去による物体検出にバイナリニューラルネットワークの表現能力を完全に活用している。
我々の手法は、最先端のバイナリニューラルネットワークを大きなマージンで上回る。
論文 参考訳(メタデータ) (2020-03-09T08:16:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。