論文の概要: Unknown Sniffer for Object Detection: Don't Turn a Blind Eye to Unknown
Objects
- arxiv url: http://arxiv.org/abs/2303.13769v1
- Date: Fri, 24 Mar 2023 02:59:44 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-27 15:52:58.038535
- Title: Unknown Sniffer for Object Detection: Don't Turn a Blind Eye to Unknown
Objects
- Title(参考訳): 物体検出のための未知のスニッファー: 未知の物体に盲目を向けるな
- Authors: Wenteng Liang, Feng Xue, Yihao Liu, Guofeng Zhong, Anlong Ming
- Abstract要約: 未知のオブジェクトと未知のオブジェクトの両方を見つけるために、未知のスニファー(UnSniffer)を提案する。
GOCスコアは、クラス既知のサンプルのみを使用して監視し、背景にある未知の不正な抑制を回避する。
未知の物体検出のための精度評価を我々の知識に含む最初の公開ベンチマークである、未知の物体検出ベンチマークを提示する。
- 参考スコア(独自算出の注目度): 21.426594215463105
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The recently proposed open-world object and open-set detection achieve a
breakthrough in finding never-seen-before objects and distinguishing them from
class-known ones. However, their studies on knowledge transfer from known
classes to unknown ones need to be deeper, leading to the scanty capability for
detecting unknowns hidden in the background. In this paper, we propose the
unknown sniffer (UnSniffer) to find both unknown and known objects. Firstly,
the generalized object confidence (GOC) score is introduced, which only uses
class-known samples for supervision and avoids improper suppression of unknowns
in the background. Significantly, such confidence score learned from
class-known objects can be generalized to unknown ones. Additionally, we
propose a negative energy suppression loss to further limit the non-object
samples in the background. Next, the best box of each unknown is hard to obtain
during inference due to lacking their semantic information in training. To
solve this issue, we introduce a graph-based determination scheme to replace
hand-designed non-maximum suppression (NMS) post-processing. Finally, we
present the Unknown Object Detection Benchmark, the first publicly benchmark
that encompasses precision evaluation for unknown object detection to our
knowledge. Experiments show that our method is far better than the existing
state-of-the-art methods. Code is available at:
https://github.com/Went-Liang/UnSniffer.
- Abstract(参考訳): 最近提案されたopen-world objectとopen-set detectionは、never-seen-beforeオブジェクトを発見し、それらをクラス既知のオブジェクトと区別するブレークスルーを達成している。
しかし、既知のクラスから未知クラスへの知識伝達の研究はより深く、背景に隠された未知のクラスを検出するための精細な能力に繋がる必要がある。
本稿では,未知のオブジェクトと未知のオブジェクトの両方を見つけるための未知のスニファー(UnSniffer)を提案する。
まず、一般化オブジェクト信頼度(GOC)スコアを導入し、クラス既知のサンプルのみを監督し、背景にある未知の不正な抑制を回避する。
特に、クラスに知られたオブジェクトから学んだ信頼度スコアは、未知のものまで一般化することができる。
さらに,背景の非対象サンプルを更に制限するために,負のエネルギー抑制損失を提案する。
次に、各未知の最良のボックスは、トレーニング中に意味情報を欠いているため、推論中に取得することが難しい。
この問題を解決するために,手動設計による非最大抑圧(NMS)後処理を置き換えるグラフベースの決定手法を提案する。
最後に、未知のオブジェクト検出の精度評価を知識に含む最初の公開ベンチマークである、未知のオブジェクト検出ベンチマークを示す。
実験の結果,本手法は既存の最先端手法よりもはるかに優れていることがわかった。
コードは、https://github.com/Went-Liang/UnSniffer.comで入手できる。
関連論文リスト
- Learning Background Prompts to Discover Implicit Knowledge for Open Vocabulary Object Detection [101.15777242546649]
Open vocabulary Object Detection (OVD) は、ベースと新規の両方のカテゴリからオブジェクトを認識できる最適なオブジェクト検出器を求めることを目的としている。
近年の進歩は、知識蒸留を利用して、事前訓練された大規模視覚言語モデルからオブジェクト検出のタスクに洞察力のある知識を伝達している。
本稿では,暗黙的背景知識を活用するための学習バックグラウンドプロンプトを提案するため,LBPと呼ばれる新しいOVDフレームワークを提案する。
論文 参考訳(メタデータ) (2024-06-01T17:32:26Z) - Road Obstacle Detection based on Unknown Objectness Scores [0.0]
異常検出技術により、未知の物体の画素をオフ・オブ・ディストリビューション(OoD)サンプルとして識別することができる。
本研究の目的は,物体検出の手法を画素単位の異常検出手法に組み込むことで,未知物体を検出するための安定した性能を実現することである。
論文 参考訳(メタデータ) (2024-03-27T02:35:36Z) - Semi-supervised Open-World Object Detection [74.95267079505145]
半教師付きオープンワールド検出(SS-OWOD)という,より現実的な定式化を導入する。
提案したSS-OWOD設定では,最先端OWOD検出器の性能が劇的に低下することが実証された。
我々は,MS COCO, PASCAL, Objects365, DOTAの4つのデータセットを用いた実験を行い, 提案手法の有効性を実証した。
論文 参考訳(メタデータ) (2024-02-25T07:12:51Z) - Unsupervised Recognition of Unknown Objects for Open-World Object
Detection [28.787586991713535]
Open-World Object Detection (OWOD) はオブジェクト検出問題を現実的でダイナミックなシナリオに拡張する。
現在のOWODモデル(OREやOW-DETRなど)は、高い客観性スコアを持つ擬似ラベル領域に注目する。
本稿では,未知の物体を認識するために,教師なしの識別モデルを学ぶ新しい手法を提案する。
論文 参考訳(メタデータ) (2023-08-31T08:17:29Z) - Open World DETR: Transformer based Open World Object Detection [60.64535309016623]
そこで我々は,Deformable DETRに基づくオープンワールドオブジェクト検出のための2段階学習手法Open World DETRを提案する。
モデルのクラス固有のコンポーネントを多視点の自己ラベル戦略と一貫性制約で微調整する。
提案手法は、他の最先端のオープンワールドオブジェクト検出方法よりも大きなマージンで優れている。
論文 参考訳(メタデータ) (2022-12-06T13:39:30Z) - Detecting the unknown in Object Detection [20.84221126313118]
我々は、アノテーションを必要とせずに未知のオブジェクトを予測できるUNKADと呼ばれる新しいトレーニング戦略を提案する。
UNKADはまず未知のオブジェクトを識別し、擬似ラベルを使用して未知のクラスをトレーニングする。
UNKADは未知の物体を直接検出できるが、従来の未知の検出技術と組み合わせることで、コストなしで性能を向上できることを示す。
論文 参考訳(メタデータ) (2022-08-24T16:27:38Z) - More Practical Scenario of Open-set Object Detection: Open at Category
Level and Closed at Super-category Level [23.98839374194848]
オープンセットオブジェクト検出(OSOD)は近年注目されている。
我々はまず, 未知の物体の無限多様性を考慮した最近の研究で考慮されたOSODのシナリオが, 根本的な問題となっていることを指摘した。
この問題は未知のオブジェクト検出におけるメソッドの性能評価に困難をもたらす。
論文 参考訳(メタデータ) (2022-07-20T09:28:51Z) - Unknown-Aware Object Detection: Learning What You Don't Know from Videos
in the Wild [29.155394550694197]
空間的未知蒸留(STUD)による未知の物体検出フレームワークを提案する。
STUDは、野生の動画から未知のオブジェクトを蒸留し、モデルの決定境界を有意義に規則化する。
我々は、オブジェクト検出のためのOOD検出タスクの最先端性能を確立し、FPR95スコアを従来のベストメソッドと比較して10%以上削減する。
論文 参考訳(メタデータ) (2022-03-08T01:44:03Z) - The Familiarity Hypothesis: Explaining the Behavior of Deep Open Set
Methods [86.39044549664189]
特徴ベクトルデータに対する異常検出アルゴリズムは異常を外れ値として識別するが、外れ値検出はディープラーニングではうまく機能しない。
本論文は, 新規性の有無ではなく, 慣れ親しんだ特徴の欠如を検知しているため, これらの手法が成功するというFamiliarity仮説を提案する。
本論文は,親しみやすさの検出が表現学習の必然的な結果であるかどうかを論じる。
論文 参考訳(メタデータ) (2022-03-04T18:32:58Z) - OW-DETR: Open-world Detection Transformer [90.56239673123804]
オープンワールドオブジェクト検出のための新しいエンドツーエンドトランスフォーマーベースのフレームワークOW-DETRを提案する。
OW-DETRは3つの専用コンポーネント、すなわち注目駆動の擬似ラベル、新規性分類、オブジェクトネススコアから構成される。
我々のモデルは、最近導入されたOWODアプローチであるOREよりも優れており、リコールの度合いは1.8%から3.3%である。
論文 参考訳(メタデータ) (2021-12-02T18:58:30Z) - Towards Open World Object Detection [68.79678648726416]
ORE: Open World Object Detectorは、対照的なクラスタリングとエネルギーベースの未知の識別に基づいている。
未知のインスタンスの識別と特徴付けは、インクリメンタルなオブジェクト検出設定における混乱を減らすのに役立ちます。
論文 参考訳(メタデータ) (2021-03-03T18:58:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。