論文の概要: Hallucination In Object Detection -- A Study In Visual Part Verification
- arxiv url: http://arxiv.org/abs/2106.02523v1
- Date: Fri, 4 Jun 2021 14:47:11 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-07 15:24:55.863925
- Title: Hallucination In Object Detection -- A Study In Visual Part Verification
- Title(参考訳): 物体検出における幻覚 --視覚部分検証の研究-
- Authors: Osman Semih Kayhan, Bart Vredebregt and Jan C. van Gemert
- Abstract要約: 対象物検知器が視覚的部分検証タスクで対象物に幻覚を与えることを示す。
最初のビジュアル部分検証データセットであるDelftBikesを紹介します。
本稿では,DelftBikesのリコールに頼って視覚的部分の検証を行い,DelftBikesで人気の物体検出器と比較する。
- 参考スコア(独自算出の注目度): 20.686095382667265
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We show that object detectors can hallucinate and detect missing objects;
potentially even accurately localized at their expected, but non-existing,
position. This is particularly problematic for applications that rely on visual
part verification: detecting if an object part is present or absent. We show
how popular object detectors hallucinate objects in a visual part verification
task and introduce the first visual part verification dataset: DelftBikes,
which has 10,000 bike photographs, with 22 densely annotated parts per image,
where some parts may be missing. We explicitly annotated an extra object state
label for each part to reflect if a part is missing or intact. We propose to
evaluate visual part verification by relying on recall and compare popular
object detectors on DelftBikes.
- Abstract(参考訳): 物体検出装置は、行方不明の物体を幻覚し、検出することができる。
これは、視覚的部分の検証に依存するアプリケーションにとって特に問題となる。
一般的な物体検出装置が視覚的部分検証タスクでオブジェクトを幻覚させ、最初の視覚的部分検証データセットDelftBikesを紹介した。
我々は、各部分に対する追加のオブジェクト状態ラベルを明示的にアノテートし、ある部分が欠落しているか無傷であるかを反映する。
本稿では,DelftBikesのリコールに頼って視覚的部分の検証を行い,一般的な物体検出器との比較を行う。
関連論文リスト
- Visual Context-Aware Person Fall Detection [52.49277799455569]
画像中の個人とオブジェクトを半自動分離するセグメンテーションパイプラインを提案する。
ベッド、椅子、車椅子などの背景オブジェクトは、転倒検知システムに挑戦し、誤ったポジティブアラームを引き起こす。
トレーニング中のオブジェクト固有のコンテキスト変換が、この課題を効果的に軽減することを示す。
論文 参考訳(メタデータ) (2024-04-11T19:06:36Z) - Learning to Track Object Position through Occlusion [32.458623495840904]
オクルージョンは、物体検出器やトラッカーが直面する最も重要な課題の1つである。
本稿では,領域ベースビデオオブジェクト検出装置の成功に基づくトラッキング・バイ・検出手法を提案する。
提案手法は,インターネットから収集した家具組立ビデオのデータセットにおいて,優れた結果が得られる。
論文 参考訳(メタデータ) (2021-06-20T22:29:46Z) - Bridging the Gap Between Object Detection and User Intent via
Query-Modulation [33.967176965675264]
クエリ変調検出器は、興味のあるラベルのオブジェクトを検出するのに優れた性能を示す。
クエリ変調検出と標準オブジェクト検出の両方を解決するために、同時にトレーニングすることもできる。
論文 参考訳(メタデータ) (2021-06-18T17:47:53Z) - Self-supervised object detection from audio-visual correspondence [101.46794879729453]
我々は、監視なしで物体検出器を学習する問題に取り組む。
画像レベルのクラスラベルは想定せず、代わりにオーディオビジュアルデータから監視信号を抽出します。
本研究では,航空機やネコなどの機器以外のジェネリック物体の検出を学習できることを示した。
論文 参考訳(メタデータ) (2021-04-13T17:59:03Z) - Visiting the Invisible: Layer-by-Layer Completed Scene Decomposition [57.088328223220934]
既存のシーン理解システムは、主にシーンの可視部分を認識し、現実世界の物理的物体の無傷な外観を無視します。
本研究では,ある場面における物体と背景の可視部分と可視部分の両方に取り組む高レベルのシーン理解システムを提案する。
論文 参考訳(メタデータ) (2021-04-12T11:37:23Z) - A Simple and Effective Use of Object-Centric Images for Long-Tailed
Object Detection [56.82077636126353]
シーン中心画像における物体検出を改善するために,物体中心画像を活用する。
私たちは、シンプルで驚くほど効果的なフレームワークを提示します。
我々の手法は、レアオブジェクトのオブジェクト検出(およびインスタンスセグメンテーション)の精度を相対的に50%(および33%)向上させることができる。
論文 参考訳(メタデータ) (2021-02-17T17:27:21Z) - Learning Object Detection from Captions via Textual Scene Attributes [70.90708863394902]
キャプションには、オブジェクトの属性やそれらの関係など、画像に関するよりリッチな情報が含まれている、と我々は主張する。
本稿では,この「テキストシーングラフ」の属性を用いて物体検知器を訓練する手法を提案する。
得られたモデルが、いくつかの挑戦的なオブジェクト検出データセットに対して、最先端の結果を達成することを実証的に実証した。
論文 参考訳(メタデータ) (2020-09-30T10:59:20Z) - Few-shot Object Detection with Self-adaptive Attention Network for
Remote Sensing Images [11.938537194408669]
本報告では, ごく一部の例で提供される新しい物体を検出するために設計された, 数発の物体検出器を提案する。
対象物検出設定に適合するため,本提案では,全画像ではなく対象物レベルの関係に焦点を合わせている。
本実験は, 撮影シーンにおける提案手法の有効性を実証するものである。
論文 参考訳(メタデータ) (2020-09-26T13:44:58Z) - Leveraging Bottom-Up and Top-Down Attention for Few-Shot Object
Detection [31.1548809359908]
オブジェクト検出は、アノテーションの少ない例でオブジェクトを検出することを目的としていない。
本稿では、トップダウンとボトムアップの両方の利点を生かした、注意深い複数ショットオブジェクト検出ネットワーク(AttFDNet)を提案する。
論文 参考訳(メタデータ) (2020-07-23T16:12:04Z) - Black-box Explanation of Object Detectors via Saliency Maps [66.745167677293]
対象検出器の予測のための視覚的説明を生成するD-RISEを提案する。
本稿では, YOLOv3などの1段検出器やFaster-RCNNのような2段検出器など, 異なる対象検出器に容易にD-RISEを適用可能であることを示す。
論文 参考訳(メタデータ) (2020-06-05T02:13:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。