論文の概要: Measuring the Impact of Scene Level Objects on Object Detection: Towards
Quantitative Explanations of Detection Decisions
- arxiv url: http://arxiv.org/abs/2401.10790v1
- Date: Fri, 19 Jan 2024 16:21:55 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-22 15:22:43.434826
- Title: Measuring the Impact of Scene Level Objects on Object Detection: Towards
Quantitative Explanations of Detection Decisions
- Title(参考訳): シーンレベルの物体が物体検出に与える影響の測定:検出決定の定量的説明に向けて
- Authors: Lynn Vonder Haar, Timothy Elvira, Luke Newcomb, Omar Ochoa
- Abstract要約: 本稿では,オブジェクト検出モデルのさらなる検証のための新しいブラックボックス説明可能性法を提案する。
テストデータ上のモデルの精度とシーンレベルのオブジェクトの有無を比較することで、モデルの性能に対するこれらのオブジェクトの貢献はより明確になる。
- 参考スコア(独自算出の注目度): 1.6385815610837167
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Although accuracy and other common metrics can provide a useful window into
the performance of an object detection model, they lack a deeper view of the
model's decision process. Regardless of the quality of the training data and
process, the features that an object detection model learns cannot be
guaranteed. A model may learn a relationship between certain background
context, i.e., scene level objects, and the presence of the labeled classes.
Furthermore, standard performance verification and metrics would not identify
this phenomenon. This paper presents a new black box explainability method for
additional verification of object detection models by finding the impact of
scene level objects on the identification of the objects within the image. By
comparing the accuracies of a model on test data with and without certain scene
level objects, the contributions of these objects to the model's performance
becomes clearer. The experiment presented here will assess the impact of
buildings and people in image context on the detection of emergency road
vehicles by a fine-tuned YOLOv8 model. A large increase in accuracy in the
presence of a scene level object will indicate the model's reliance on that
object to make its detections. The results of this research lead to providing a
quantitative explanation of the object detection model's decision process,
enabling a deeper understanding of the model's performance.
- Abstract(参考訳): 精度やその他の一般的なメトリクスは、オブジェクト検出モデルのパフォーマンスに有用な窓を提供するが、モデルの決定過程のより深い視点を欠いている。
トレーニングデータとプロセスの品質に関わらず、オブジェクト検出モデルが学習する特徴は保証できない。
モデルは特定の背景コンテキスト、すなわちシーンレベルのオブジェクトとラベル付きクラスの存在の間の関係を学習することができる。
さらに、標準的な性能検証とメトリクスは、この現象を特定しない。
本稿では,画像中の物体の識別に対するシーンレベルの物体の影響を見出すことにより,物体検出モデルの追加検証のためのブラックボックス説明可能性法を提案する。
テストデータ上のモデルの精度とシーンレベルのオブジェクトの有無を比較することで、モデルの性能に対するこれらのオブジェクトの貢献はより明確になる。
今回紹介した実験は、画像環境における建物や人々の緊急車両検出への影響を、微調整されたyolov8モデルによって評価するものである。
シーンレベルのオブジェクトの存在による精度の大きな向上は、モデルがそのオブジェクトに依存していることを示し、その検出を行う。
本研究の結果は,オブジェクト検出モデルの意思決定過程を定量的に説明し,モデルの性能をより深く理解することにつながる。
関連論文リスト
- Believing is Seeing: Unobserved Object Detection using Generative Models [17.883297093049787]
本研究では,2次元・2.5次元・3次元観測対象検出の新しい課題を紹介する。
我々は,この課題に対処するために,最先端の事前学習型生成モデルを適用した。
直接観察されていない物体の存在を推測するために使用できることを示す。
論文 参考訳(メタデータ) (2024-10-08T09:57:14Z) - PEEKABOO: Hiding parts of an image for unsupervised object localization [7.161489957025654]
教師なしの方法でオブジェクトをローカライズすることは、重要な視覚情報がないために大きな課題となる。
教師なしオブジェクトローカライゼーションのための単段階学習フレームワークPEEKABOOを提案する。
キーとなるアイデアは、画像の一部を選択的に隠し、残りの画像情報を活用して、明示的な監督なしにオブジェクトの位置を推測することである。
論文 参考訳(メタデータ) (2024-07-24T20:35:20Z) - Visual Context-Aware Person Fall Detection [52.49277799455569]
画像中の個人とオブジェクトを半自動分離するセグメンテーションパイプラインを提案する。
ベッド、椅子、車椅子などの背景オブジェクトは、転倒検知システムに挑戦し、誤ったポジティブアラームを引き起こす。
トレーニング中のオブジェクト固有のコンテキスト変換が、この課題を効果的に軽減することを示す。
論文 参考訳(メタデータ) (2024-04-11T19:06:36Z) - Innovative Horizons in Aerial Imagery: LSKNet Meets DiffusionDet for
Advanced Object Detection [55.2480439325792]
本稿では,LSKNetのバックボーンをDiffusionDetヘッドに統合したオブジェクト検出モデルの詳細な評価を行う。
提案手法は平均精度(MAP)を約45.7%向上させる。
この進歩は、提案された修正の有効性を強調し、航空画像解析の新しいベンチマークを設定する。
論文 参考訳(メタデータ) (2023-11-21T19:49:13Z) - Weakly-supervised Contrastive Learning for Unsupervised Object Discovery [52.696041556640516]
ジェネリックな方法でオブジェクトを発見できるため、教師なしのオブジェクト発見は有望である。
画像から高レベルな意味的特徴を抽出する意味誘導型自己教師学習モデルを設計する。
オブジェクト領域のローカライズのための主成分分析(PCA)を導入する。
論文 参考訳(メタデータ) (2023-07-07T04:03:48Z) - Class-agnostic Object Detection [16.97782147401037]
本稿では,オブジェクトのクラスに関係なくオブジェクトを検出することに焦点を当てた新しい問題として,クラスに依存しないオブジェクト検出を提案する。
具体的には、イメージ内のすべてのオブジェクトのバウンディングボックスを予測することであり、オブジェクトクラスではない。
本稿では,この領域における今後の研究を進めるために,クラス非依存検出器のベンチマークのためのトレーニングおよび評価プロトコルを提案する。
論文 参考訳(メタデータ) (2020-11-28T19:22:38Z) - Slender Object Detection: Diagnoses and Improvements [74.40792217534]
本稿では,超高アスペクト比,すなわちtextbfslender オブジェクトの特定タイプの検出について検討する。
古典的物体検出法では、細い物体に対してのみ評価される場合、COCO上の18.9%のmAPの劇的な低下が観察される。
論文 参考訳(メタデータ) (2020-11-17T09:39:42Z) - Synthesizing the Unseen for Zero-shot Object Detection [72.38031440014463]
そこで本研究では,視覚領域における視覚的特徴と視覚的対象の両方を学習するために,視覚的特徴を合成することを提案する。
クラスセマンティックスを用いた新しい生成モデルを用いて特徴を生成するだけでなく,特徴を識別的に分離する。
論文 参考訳(メタデータ) (2020-10-19T12:36:11Z) - Adaptive Object Detection with Dual Multi-Label Prediction [78.69064917947624]
本稿では,適応オブジェクト検出のための新しいエンド・ツー・エンドの非教師付き深部ドメイン適応モデルを提案する。
モデルはマルチラベル予測を利用して、各画像内の対象カテゴリ情報を明らかにする。
本稿では,オブジェクト検出を支援するための予測整合正則化機構を提案する。
論文 参考訳(メタデータ) (2020-03-29T04:23:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。