論文の概要: Out-of-Distribution Object Detection in Street Scenes via Synthetic Outlier Exposure and Transfer Learning
- arxiv url: http://arxiv.org/abs/2603.16122v1
- Date: Tue, 17 Mar 2026 05:06:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-18 17:42:07.103208
- Title: Out-of-Distribution Object Detection in Street Scenes via Synthetic Outlier Exposure and Transfer Learning
- Title(参考訳): 合成アウトレーラ露光と伝達学習による街路シーンのアウト・オブ・ディストリビューション対象検出
- Authors: Sadia Ilyas, Annika Mütze, Klaus Friedrichs, Thomas Kurbiel, Matthias Rottmann,
- Abstract要約: アウト・オブ・ディストリビューション(OOD)オブジェクト検出は重要だが未探索の課題である。
textbfSynOE-OD, textbfSynthetic textbfOutlier-textbfExposure-based textbfObject textbfDetection frameworkを提案する。
- 参考スコア(独自算出の注目度): 5.225005253865662
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Out-of-distribution (OOD) object detection is an important yet underexplored task. A reliable object detector should be able to handle OOD objects by localizing and correctly classifying them as OOD. However, a critical issue arises when such atypical objects are completely missed by the object detector and incorrectly treated as background. Existing OOD detection approaches in object detection often rely on complex architectures or auxiliary branches and typically do not provide a framework that treats in-distribution (ID) and OOD in a unified way. In this work, we address these limitations by enabling a single detector to detect OOD objects, that are otherwise silently overlooked, alongside ID objects. We present \textbf{SynOE-OD}, a \textbf{Syn}thetic \textbf{O}utlier-\textbf{E}xposure-based \textbf{O}bject \textbf{D}etection framework, that leverages strong generative models, like Stable Diffusion, and Open-Vocabulary Object Detectors (OVODs) to generate semantically meaningful, object-level data that serve as outliers during training. The generated data is used for transfer-learning to establish strong ID task performance and supplement detection models with OOD object detection robustness. Our approach achieves state-of-the-art average precision on an established OOD object detection benchmark, where OVODs, such as GroundingDINO, show limited zero-shot performance in detecting OOD objects in street-scenes.
- Abstract(参考訳): アウト・オブ・ディストリビューション(OOD)オブジェクト検出は重要だが未探索の課題である。
信頼できるオブジェクト検出器は、OODオブジェクトをローカライズし、正しくOODに分類することで、OODオブジェクトを処理できなければならない。
しかし、そのような非定型オブジェクトが対象検出器によって完全に見逃され、背景として誤って扱われる場合、重大な問題が発生する。
オブジェクト検出における既存のOOD検出アプローチは、しばしば複雑なアーキテクチャや補助的なブランチに依存し、通常、分散(ID)とOODを統一的に扱うフレームワークを提供しない。
本研究では、この制限に対処するため、1つの検出器がOODオブジェクトを検出できるようにし、それ以外はIDオブジェクトとともに静かに見落としている。
本稿では,SynOE-OD}, a \textbf{Syn}thetic \textbf{O}utlier-\textbf{E}xposure-based \textbf{O}bject \textbf{D}etection frameworkを提案する。
生成されたデータは転送学習に使われ、強力なIDタスク性能を確立し、OODオブジェクト検出堅牢性で検出モデルを補足する。
提案手法は,OODオブジェクト検出ベンチマークにおいて,ストリートシーンにおけるOODオブジェクト検出において,FundingDINOなどのOVODがゼロショット性能に制限を課すような,最先端のOODオブジェクト検出精度を実現する。
関連論文リスト
- RUNA: Object-level Out-of-Distribution Detection via Regional Uncertainty Alignment of Multimodal Representations [33.971901643313856]
RUNAは、アウト・オブ・ディストリビューション(OOD)オブジェクトを検出するための新しいフレームワークである。
これは、OODオブジェクトとIDを効果的に区別するために、地域不確実性アライメント機構を使用する。
実験の結果,RUNAはオブジェクトレベルのOOD検出において最先端の手法を大幅に上回っていることがわかった。
論文 参考訳(メタデータ) (2025-03-28T10:01:55Z) - Seamless Detection: Unifying Salient Object Detection and Camouflaged Object Detection [73.85890512959861]
本稿では,SOD(Salient Object Detection)とCOD(Camouflaged Object Detection)を統合化するためのタスク非依存フレームワークを提案する。
我々は、間隔層と大域的コンテキストを含む単純で効果的なコンテキストデコーダを設計し、67fpsの推論速度を実現する。
公開SODデータセットとCODデータセットの実験は、教師なし設定と教師なし設定の両方において、提案したフレームワークの優位性を実証している。
論文 参考訳(メタデータ) (2024-12-22T03:25:43Z) - Revisiting Out-of-Distribution Detection in LiDAR-based 3D Object Detection [12.633311483061647]
アウト・オブ・ディストリビューション(OOD)オブジェクトは誤分類を引き起こし、自動車両の安全性と信頼性に重大なリスクをもたらす。
我々は、ポイントクラウドを変更することなく既存のデータセットを使用できる新しい評価プロトコルを提案する。
提案手法の有効性は,新たに提案したnuScenes OODベンチマークを用いて検証した。
論文 参考訳(メタデータ) (2024-04-24T13:48:38Z) - Detecting Out-of-Distribution Objects through Class-Conditioned Inpainting [42.67743584239442]
現実のデプロイメントは、しばしば、out-of-distribution (OOD)オブジェクトと呼ばれる、新しく予期せぬオブジェクトを導入します。
現代の物体検出器は一般的に過信であり、その予測をOOD検出に単独で使用することは信用できない。
我々は,識別対象検出器と異なる目的関数で訓練された安定拡散のような,既製のテキスト・ツー・イメージ生成モデルを利用する。
論文 参考訳(メタデータ) (2024-02-05T18:50:27Z) - Weakly-supervised Contrastive Learning for Unsupervised Object Discovery [52.696041556640516]
ジェネリックな方法でオブジェクトを発見できるため、教師なしのオブジェクト発見は有望である。
画像から高レベルな意味的特徴を抽出する意味誘導型自己教師学習モデルを設計する。
オブジェクト領域のローカライズのための主成分分析(PCA)を導入する。
論文 参考訳(メタデータ) (2023-07-07T04:03:48Z) - Out-of-Distribution Detection for LiDAR-based 3D Object Detection [8.33476679218773]
3Dオブジェクト検出は、自動走行の重要な部分である。
ディープモデルは、高い信頼度スコアをアウト・オブ・ディストリビューション(OOD)入力に割り当てたことで知られる。
本稿では,LiDARを用いた3Dオブジェクト検出のためのOOD入力の検出に焦点をあてる。
論文 参考訳(メタデータ) (2022-09-28T21:39:25Z) - Identifying Out-of-Distribution Samples in Real-Time for Safety-Critical
2D Object Detection with Margin Entropy Loss [0.0]
本稿では,2次元物体検出におけるOOD検出の限界エントロピー(ME)損失を利用したアプローチを提案する。
ME損失をトレーニングしたCNNは、標準信頼度スコアを用いてOOD検出を著しく上回る。
論文 参考訳(メタデータ) (2022-09-01T11:14:57Z) - Triggering Failures: Out-Of-Distribution detection by learning from
local adversarial attacks in Semantic Segmentation [76.2621758731288]
セグメンテーションにおけるアウト・オブ・ディストリビューション(OOD)オブジェクトの検出に取り組む。
私たちの主な貢献は、ObsNetと呼ばれる新しいOOD検出アーキテクチャであり、ローカル・アタック(LAA)に基づく専用トレーニングスキームと関連付けられています。
3つの異なるデータセットの文献の最近の10つの手法と比較して,速度と精度の両面で最高の性能が得られることを示す。
論文 参考訳(メタデータ) (2021-08-03T17:09:56Z) - Slender Object Detection: Diagnoses and Improvements [74.40792217534]
本稿では,超高アスペクト比,すなわちtextbfslender オブジェクトの特定タイプの検出について検討する。
古典的物体検出法では、細い物体に対してのみ評価される場合、COCO上の18.9%のmAPの劇的な低下が観察される。
論文 参考訳(メタデータ) (2020-11-17T09:39:42Z) - Robust Out-of-distribution Detection for Neural Networks [51.19164318924997]
既存の検出機構は, 分布内およびOOD入力の評価において, 極めて脆弱であることを示す。
ALOE と呼ばれる実効性のあるアルゴリズムを提案する。このアルゴリズムは,逆向きに構築された逆数と外数の両方の例にモデルを公開することにより,堅牢なトレーニングを行う。
論文 参考訳(メタデータ) (2020-03-21T17:46:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。