論文の概要: On the Potential of Open-Vocabulary Models for Object Detection in Unusual Street Scenes
- arxiv url: http://arxiv.org/abs/2408.11221v1
- Date: Tue, 20 Aug 2024 22:39:52 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-22 19:09:22.815160
- Title: On the Potential of Open-Vocabulary Models for Object Detection in Unusual Street Scenes
- Title(参考訳): 屋外ストリートシーンにおける物体検出のためのオープン語彙モデルの可能性について
- Authors: Sadia Ilyas, Ido Freeman, Matthias Rottmann,
- Abstract要約: アウト・オブ・ディストリビューション(OOD)オブジェクト検出は、トレーニングデータとは異なるデータ分布に由来するオブジェクトを検出することに焦点を当てた重要なタスクである。
本研究では,最先端のオープンボキャブラリオブジェクト検出器が街路における異常な物体をどの程度検出できるかを検討する。
3つの異なるデータセット上で、最先端のオープン語彙オブジェクト検出モデル4つをベンチマークする。
- 参考スコア(独自算出の注目度): 4.69726714177332
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Out-of-distribution (OOD) object detection is a critical task focused on detecting objects that originate from a data distribution different from that of the training data. In this study, we investigate to what extent state-of-the-art open-vocabulary object detectors can detect unusual objects in street scenes, which are considered as OOD or rare scenarios with respect to common street scene datasets. Specifically, we evaluate their performance on the OoDIS Benchmark, which extends RoadAnomaly21 and RoadObstacle21 from SegmentMeIfYouCan, as well as LostAndFound, which was recently extended to object level annotations. The objective of our study is to uncover short-comings of contemporary object detectors in challenging real-world, and particularly in open-world scenarios. Our experiments reveal that open vocabulary models are promising for OOD object detection scenarios, however far from perfect. Substantial improvements are required before they can be reliably deployed in real-world applications. We benchmark four state-of-the-art open-vocabulary object detection models on three different datasets. Noteworthily, Grounding DINO achieves the best results on RoadObstacle21 and LostAndFound in our study with an AP of 48.3% and 25.4% respectively. YOLO-World excels on RoadAnomaly21 with an AP of 21.2%.
- Abstract(参考訳): アウト・オブ・ディストリビューション(OOD)オブジェクト検出は、トレーニングデータとは異なるデータ分布に由来するオブジェクトを検出することに焦点を当てた重要なタスクである。
本研究では,現在最先端のオープンボキャブラリオブジェクト検出器が,OODや稀なシナリオと見なされる街路シーンにおける異常な物体をどの程度検出できるかを検討する。
具体的には、SegmentMeIfYouCanからRoadAnomaly21とRoadObstacle21を拡張したOoDISベンチマークと、最近オブジェクトレベルのアノテーションに拡張されたLostAndFoundのパフォーマンスを評価した。
本研究の目的は、現実世界、特にオープンワールドのシナリオにおいて、現代の物体検出器の欠点を明らかにすることである。
実験の結果,OODオブジェクト検出にはオープン語彙モデルが期待できることがわかった。
現実のアプリケーションに確実にデプロイする前には、実質的な改善が必要である。
3つの異なるデータセット上で、最先端のオープン語彙オブジェクト検出モデル4つをベンチマークする。
注目に値することに、DINOはRoadObstacle21とLostAndFoundでそれぞれ48.3%と25.4%のAPで最高の結果を得た。
YOLO-Worldは21.2%のAPでRoadAnomaly21を抜いている。
関連論文リスト
- Beyond Few-shot Object Detection: A Detailed Survey [25.465534270637523]
研究者たちは、数発の学習とオブジェクト検出の原則を融合させる、数発のオブジェクト検出(FSOD)アプローチを導入した。
これらのアプローチは、広範なラベル付きデータセットへの依存を減らす上で重要な役割を果たす。
本研究の目的は,上記の数ショット設定を包括的に理解し,各FSODタスクの方法論を探索することである。
論文 参考訳(メタデータ) (2024-08-26T13:09:23Z) - Locate Anything on Earth: Advancing Open-Vocabulary Object Detection for Remote Sensing Community [50.16478515591924]
LAEタスクのための最初のオープンボキャブラリ基礎オブジェクト検出器であるLAE-DINOモデルを提案し,訓練する。
我々は、確立されたリモートセンシングベンチマークDIOR、DOTAv2.0、および新たに発表された80クラスのLEE-80Cベンチマークについて実験を行った。
その結果, LAE-1Mデータセットの利点と, LAE-DINO法の有効性が示された。
論文 参考訳(メタデータ) (2024-08-17T06:24:43Z) - Towards Reflected Object Detection: A Benchmark [5.981658448641905]
本稿では,反射物体検出に特化して設計されたベンチマークを紹介する。
我々のリフレクションオブジェクト検出データセット(RODD)は、様々なコンテキストにおいて反射オブジェクトを示す多様な画像のコレクションを特徴としている。
RODDは10のカテゴリを包含し、異なる背景にまたがる21,059のリアルおよびリフレクションオブジェクトの画像を含んでいる。
論文 参考訳(メタデータ) (2024-07-08T03:16:05Z) - Learning Background Prompts to Discover Implicit Knowledge for Open Vocabulary Object Detection [101.15777242546649]
Open vocabulary Object Detection (OVD) は、ベースと新規の両方のカテゴリからオブジェクトを認識できる最適なオブジェクト検出器を求めることを目的としている。
近年の進歩は、知識蒸留を利用して、事前訓練された大規模視覚言語モデルからオブジェクト検出のタスクに洞察力のある知識を伝達している。
本稿では,暗黙的背景知識を活用するための学習バックグラウンドプロンプトを提案するため,LBPと呼ばれる新しいOVDフレームワークを提案する。
論文 参考訳(メタデータ) (2024-06-01T17:32:26Z) - Revisiting Out-of-Distribution Detection in LiDAR-based 3D Object Detection [12.633311483061647]
アウト・オブ・ディストリビューション(OOD)オブジェクトは誤分類を引き起こし、自動車両の安全性と信頼性に重大なリスクをもたらす。
我々は、ポイントクラウドを変更することなく既存のデータセットを使用できる新しい評価プロトコルを提案する。
提案手法の有効性は,新たに提案したnuScenes OODベンチマークを用いて検証した。
論文 参考訳(メタデータ) (2024-04-24T13:48:38Z) - Detecting Out-of-distribution Objects Using Neuron Activation Patterns [0.0]
物体検出装置(NAPTRON)における分布外サンプル検出のためのニューロン活性化PaTteRnsを導入する。
提案手法は,ID(In-distribution)のパフォーマンスに影響を与えることなく,最先端の手法よりも優れている。
OODオブジェクト検出のための最大のオープンソースベンチマークを作成しました。
論文 参考訳(メタデータ) (2023-07-31T06:41:26Z) - USD: Unknown Sensitive Detector Empowered by Decoupled Objectness and
Segment Anything Model [14.080744645704751]
Open World Object Detection (OWOD) は、新しいコンピュータビジョンタスクである。
本稿では,この2つの境界の学習をデコーダ層に分割する,シンプルで効果的な学習戦略であるDecoupled Objectness Learning(DOL)を提案する。
また、擬似ラベルとソフトウェイト戦略を用いてノイズの負の影響を緩和する補助的スーパービジョンフレームワーク(ASF)も導入する。
論文 参考訳(メタデータ) (2023-06-04T06:42:09Z) - Learning Open-World Object Proposals without Learning to Classify [110.30191531975804]
本研究では,各領域の位置と形状がどの接地トラストオブジェクトとどのように重なり合うかによって,各領域の目的性を純粋に推定する,分類不要なオブジェクトローカライゼーションネットワークを提案する。
この単純な戦略は一般化可能な対象性を学び、クロスカテゴリの一般化に関する既存の提案より優れている。
論文 参考訳(メタデータ) (2021-08-15T14:36:02Z) - One-Shot Object Affordance Detection in the Wild [76.46484684007706]
Affordance Detectionは、画像内のオブジェクトの潜在的なアクション可能性を特定することを指す。
我々は、人間の行動目的を推定し、それを転送して、すべての候補画像から共通価格を検出するワンショットアフォーダンス検出ネットワーク(OSAD-Net)を考案する。
複雑なシーンと豊富なアノテーションによって、当社のPADv2データセットは、アベイランス検出メソッドをベンチマークするためのテストベッドとして使用することができます。
論文 参考訳(メタデータ) (2021-08-08T14:53:10Z) - Triggering Failures: Out-Of-Distribution detection by learning from
local adversarial attacks in Semantic Segmentation [76.2621758731288]
セグメンテーションにおけるアウト・オブ・ディストリビューション(OOD)オブジェクトの検出に取り組む。
私たちの主な貢献は、ObsNetと呼ばれる新しいOOD検出アーキテクチャであり、ローカル・アタック(LAA)に基づく専用トレーニングスキームと関連付けられています。
3つの異なるデータセットの文献の最近の10つの手法と比較して,速度と精度の両面で最高の性能が得られることを示す。
論文 参考訳(メタデータ) (2021-08-03T17:09:56Z) - Progressive Object Transfer Detection [84.48927705173494]
本稿では,新しいプログレッシブオブジェクト転送検出(POTD)フレームワークを提案する。
第一に、POTDは様々なドメインの様々なオブジェクトを効果的にプログレッシブな検出手順に活用することができる。
第2に、POTDは2つの微妙な転送段階、すなわち、LSTD(low-Shot Transfer Detection)とWSTD(Weakly Supervised Transfer Detection)から構成される。
論文 参考訳(メタデータ) (2020-02-12T00:16:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。