論文の概要: DExT: Detector Explanation Toolkit
- arxiv url: http://arxiv.org/abs/2212.11409v2
- Date: Sun, 4 Jun 2023 18:03:15 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-07 03:36:14.042682
- Title: DExT: Detector Explanation Toolkit
- Title(参考訳): dext: 検出器説明ツールキット
- Authors: Deepan Chakravarthi Padmanabhan, Paul G. Pl\"oger, Octavio Arriaga,
Matias Valdenegro-Toro
- Abstract要約: 最先端の物体検出器は、高度に非線形な内部計算のためにブラックボックスとして扱われる。
本稿では,全検出器決定の全体的説明を行うオープンソースインタプリタ説明ツールキット(DExT)を提案する。
- 参考スコア(独自算出の注目度): 5.735035463793008
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: State-of-the-art object detectors are treated as black boxes due to their
highly non-linear internal computations. Even with unprecedented advancements
in detector performance, the inability to explain how their outputs are
generated limits their use in safety-critical applications. Previous work fails
to produce explanations for both bounding box and classification decisions, and
generally make individual explanations for various detectors. In this paper, we
propose an open-source Detector Explanation Toolkit (DExT) which implements the
proposed approach to generate a holistic explanation for all detector decisions
using certain gradient-based explanation methods. We suggests various
multi-object visualization methods to merge the explanations of multiple
objects detected in an image as well as the corresponding detections in a
single image. The quantitative evaluation show that the Single Shot MultiBox
Detector (SSD) is more faithfully explained compared to other detectors
regardless of the explanation methods. Both quantitative and human-centric
evaluations identify that SmoothGrad with Guided Backpropagation (GBP) provides
more trustworthy explanations among selected methods across all detectors. We
expect that DExT will motivate practitioners to evaluate object detectors from
the interpretability perspective by explaining both bounding box and
classification decisions.
- Abstract(参考訳): 最先端の物体検出器は、非線形内部計算のためにブラックボックスとして扱われる。
検出器の性能が前例のない進歩にもかかわらず、その出力がどのように生成されるかを説明することができないことは、安全クリティカルなアプリケーションでの使用を制限する。
以前の研究は、境界ボックスと分類決定の両方の説明を作成できず、一般に様々な検出器に対して個別の説明を行う。
本稿では, ある勾配に基づく説明手法を用いて, 検出器決定の全体的説明を生成するための, 提案手法を実装したオープンソースのディテクタ説明ツールキット(DExT)を提案する。
画像中の複数の物体の説明をマージする多目的可視化手法と,それに対応する複数の物体を単一の画像にマージする手法を提案する。
定量的評価の結果, 単ショットマルチボックス検出器 (SSD) は, 説明方法にかかわらず, 他の検出器と比較して忠実に説明されている。
SmoothGrad with Guided Backpropagation (GBP)は、すべての検出器で選択された方法の中でより信頼できる説明を提供する。
dextは、境界ボックスと分類決定の両方を説明することによって、解釈可能性の観点から物体検出器を評価する動機づけになることを期待する。
関連論文リスト
- On the Inherent Robustness of One-Stage Object Detection against Out-of-Distribution Data [6.7236795813629]
画像データ中の未知物体を検出する新しい検出アルゴリズムを提案する。
モデルによって抽出された特徴に対する次元の呪いの影響を軽減するために、教師付き次元削減技術を利用する。
これは高解像度の特徴マップを用いて、教師なしの方法で潜在的に未知の物体を識別する。
論文 参考訳(メタデータ) (2024-11-07T10:15:25Z) - Bayesian Detector Combination for Object Detection with Crowdsourced Annotations [49.43709660948812]
制約のない画像できめ細かなオブジェクト検出アノテーションを取得するのは、時間がかかり、コストがかかり、ノイズに悩まされる。
ノイズの多いクラウドソースアノテーションでオブジェクト検出をより効果的に訓練するための新しいベイズ検出結合(BDC)フレームワークを提案する。
BDCはモデルに依存しず、アノテータのスキルレベルに関する事前の知識を必要とせず、既存のオブジェクト検出モデルとシームレスに統合される。
論文 参考訳(メタデータ) (2024-07-10T18:00:54Z) - Transcending Forgery Specificity with Latent Space Augmentation for Generalizable Deepfake Detection [57.646582245834324]
LSDAと呼ばれる簡易で効果的なディープフェイク検出器を提案する。
より多様な偽の表現は、より一般化可能な決定境界を学べるべきである。
提案手法は驚くほど有効であり, 広く使用されている複数のベンチマークで最先端の検出器を超越することを示す。
論文 参考訳(メタデータ) (2023-11-19T09:41:10Z) - Linear Object Detection in Document Images using Multiple Object
Tracking [58.720142291102135]
線形オブジェクトは文書構造に関する実質的な情報を伝達する。
多くのアプローチはベクトル表現を復元できるが、1994年に導入された1つのクローズドソース技術のみである。
複数オブジェクト追跡を用いた文書画像中の線形オブジェクトの正確なインスタンスセグメンテーションのためのフレームワークを提案する。
論文 参考訳(メタデータ) (2023-05-26T14:22:03Z) - ODAM: Gradient-based instance-specific visual explanations for object
detection [51.476702316759635]
勾配重み付き物体検出器活性化マップ(ODAM)
ODAMは、各予測属性に対する検出器の決定に対する領域の影響を示す熱マップを生成する。
そこで本研究では,重複検出対象を識別するために,各予測に対してモデルの説明情報を考慮したOdam-NMSを提案する。
論文 参考訳(メタデータ) (2023-04-13T09:20:26Z) - Model-agnostic explainable artificial intelligence for object detection in image data [8.042562891309414]
マスキングによるブラックボックスオブジェクト検出記述法(BODEM)
粗いマスクを低レベルに使用して画像内の有意な領域を見つける階層的ランダムマスキングフレームワークを提案する。
様々な物体検出データセットとモデルの実験により、BODEMは物体検出器の挙動を効果的に説明できることが示された。
論文 参考訳(メタデータ) (2023-03-30T09:29:03Z) - ORF-Net: Deep Omni-supervised Rib Fracture Detection from Chest CT Scans [47.7670302148812]
放射線科医は、スライス・バイ・スライス・バイ・スライス(スライス・バイ・スライス・スライス・バイ・スライス・バイ・スライス・バイ・スライス)に基づいてリブ骨折の調査と注釈を行う必要がある。
そこで本研究では,複数種類の注釈付きデータを利用するOmni教師付きオブジェクト検出ネットワークを提案する。
提案手法は、他の最先端手法よりも一貫して優れている。
論文 参考訳(メタデータ) (2022-07-05T07:06:57Z) - Black-box Explanation of Object Detectors via Saliency Maps [66.745167677293]
対象検出器の予測のための視覚的説明を生成するD-RISEを提案する。
本稿では, YOLOv3などの1段検出器やFaster-RCNNのような2段検出器など, 異なる対象検出器に容易にD-RISEを適用可能であることを示す。
論文 参考訳(メタデータ) (2020-06-05T02:13:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。