論文の概要: Explaining YOLO: Leveraging Grad-CAM to Explain Object Detections
- arxiv url: http://arxiv.org/abs/2211.12108v1
- Date: Tue, 22 Nov 2022 09:19:13 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-23 16:41:45.986667
- Title: Explaining YOLO: Leveraging Grad-CAM to Explain Object Detections
- Title(参考訳): YOLOの解説:Grad-CAMによるオブジェクト検出の解説
- Authors: Armin Kirchknopf, Djordje Slijepcevic, Ilkay Wunderlich, Michael
Breiter, Johannes Traxler, Matthias Zeppelzauer
- Abstract要約: Grad-CAMをモデルアーキテクチャに統合し、結果を解析する方法を示す。
個人検出のための属性に基づく説明の計算方法を示し、結果の正規化がそれらの解釈に大きな影響を与えることを確かめる。
- 参考スコア(独自算出の注目度): 2.0496125856846605
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We investigate the problem of explainability for visual object detectors.
Specifically, we demonstrate on the example of the YOLO object detector how to
integrate Grad-CAM into the model architecture and analyze the results. We show
how to compute attribution-based explanations for individual detections and
find that the normalization of the results has a great impact on their
interpretation.
- Abstract(参考訳): 視覚物体検出装置の説明可能性の問題について検討する。
具体的には、モデルアーキテクチャにGrad-CAMをどのように統合し、結果を解析するかを、YOLOオブジェクト検出器の例で示す。
個別検出のための帰属に基づく説明の計算方法を示し,結果の正規化が解釈に大きな影響を与えることを見出した。
関連論文リスト
- Measuring the Impact of Scene Level Objects on Object Detection: Towards
Quantitative Explanations of Detection Decisions [1.6385815610837167]
本稿では,オブジェクト検出モデルのさらなる検証のための新しいブラックボックス説明可能性法を提案する。
テストデータ上のモデルの精度とシーンレベルのオブジェクトの有無を比較することで、モデルの性能に対するこれらのオブジェクトの貢献はより明確になる。
論文 参考訳(メタデータ) (2024-01-19T16:21:55Z) - Weakly-supervised Contrastive Learning for Unsupervised Object Discovery [52.696041556640516]
ジェネリックな方法でオブジェクトを発見できるため、教師なしのオブジェクト発見は有望である。
画像から高レベルな意味的特徴を抽出する意味誘導型自己教師学習モデルを設計する。
オブジェクト領域のローカライズのための主成分分析(PCA)を導入する。
論文 参考訳(メタデータ) (2023-07-07T04:03:48Z) - ODAM: Gradient-based instance-specific visual explanations for object
detection [51.476702316759635]
勾配重み付き物体検出器活性化マップ(ODAM)
ODAMは、各予測属性に対する検出器の決定に対する領域の影響を示す熱マップを生成する。
そこで本研究では,重複検出対象を識別するために,各予測に対してモデルの説明情報を考慮したOdam-NMSを提案する。
論文 参考訳(メタデータ) (2023-04-13T09:20:26Z) - DExT: Detector Explanation Toolkit [5.735035463793008]
最先端の物体検出器は、高度に非線形な内部計算のためにブラックボックスとして扱われる。
本稿では,全検出器決定の全体的説明を行うオープンソースインタプリタ説明ツールキット(DExT)を提案する。
論文 参考訳(メタデータ) (2022-12-21T23:28:53Z) - Real Time Object Detection System with YOLO and CNN Models: A Review [7.767212366020168]
この調査は、リアルタイムオブジェクト検出の方向にあるYOLOと畳み込みニューラルネットワーク(CNN)に関するものだ。
YOLOは、他のオブジェクト検出モデルよりも精度の低下なしに、より効果的にオブジェクト表現を一般化する。
CNNアーキテクチャモデルは、任意の画像内のハイライトを排除し、オブジェクトを識別する機能を持つ。
論文 参考訳(メタデータ) (2022-07-23T11:00:11Z) - Instance-Aware Observer Network for Out-of-Distribution Object
Segmentation [94.73449180972239]
我々は、インスタンスワイドマスク予測を利用して、ObsNetのアプローチを拡張します。
提案手法は,3つのデータセット上の分布内オブジェクトから分布内オブジェクトを正確に分離する。
論文 参考訳(メタデータ) (2022-07-18T17:38:40Z) - Contrastive Object Detection Using Knowledge Graph Embeddings [72.17159795485915]
一つのホットアプローチで学習したクラス埋め込みの誤差統計と、自然言語処理や知識グラフから意味的に構造化された埋め込みを比較した。
本稿では,キーポイントベースおよびトランスフォーマーベースオブジェクト検出アーキテクチャの知識埋め込み設計を提案する。
論文 参考訳(メタデータ) (2021-12-21T17:10:21Z) - Black-box Explanation of Object Detectors via Saliency Maps [66.745167677293]
対象検出器の予測のための視覚的説明を生成するD-RISEを提案する。
本稿では, YOLOv3などの1段検出器やFaster-RCNNのような2段検出器など, 異なる対象検出器に容易にD-RISEを適用可能であることを示す。
論文 参考訳(メタデータ) (2020-06-05T02:13:35Z) - Explain and Improve: LRP-Inference Fine-Tuning for Image Captioning
Models [82.3793660091354]
本稿では,注意を可視化する以外に,注意機構を付加した画像キャプションモデルの予測について分析する。
我々は,注意機構を備えた画像キャプションモデルに適したレイヤワイド関連伝搬(LRP)と勾配に基づく説明法を開発した。
論文 参考訳(メタデータ) (2020-01-04T05:15:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。