論文の概要: Depth as Prior Knowledge for Object Detection
- arxiv url: http://arxiv.org/abs/2602.05730v1
- Date: Thu, 05 Feb 2026 14:52:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-06 18:49:08.988001
- Title: Depth as Prior Knowledge for Object Detection
- Title(参考訳): 物体検出のための先行知識としての深度
- Authors: Moussa Kassem Sbeyti, Nadja Klein,
- Abstract要約: 安全に重要なアプリケーションは、小型で遠隔の物体を確実に検出する必要がある。
理論的解析を行い, 深度検出関係の実証的研究を行った。
DepthPriorは、深度を融合機能としてではなく、事前の知識として利用するフレームワークです。
- 参考スコア(独自算出の注目度): 2.7214777196418645
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Detecting small and distant objects remains challenging for object detectors due to scale variation, low resolution, and background clutter. Safety-critical applications require reliable detection of these objects for safe planning. Depth information can improve detection, but existing approaches require complex, model-specific architectural modifications. We provide a theoretical analysis followed by an empirical investigation of the depth-detection relationship. Together, they explain how depth causes systematic performance degradation and why depth-informed supervision mitigates it. We introduce DepthPrior, a framework that uses depth as prior knowledge rather than as a fused feature, providing comparable benefits without modifying detector architectures. DepthPrior consists of Depth-Based Loss Weighting (DLW) and Depth-Based Loss Stratification (DLS) during training, and Depth-Aware Confidence Thresholding (DCT) during inference. The only overhead is the initial cost of depth estimation. Experiments across four benchmarks (KITTI, MS COCO, VisDrone, SUN RGB-D) and two detectors (YOLOv11, EfficientDet) demonstrate the effectiveness of DepthPrior, achieving up to +9% mAP$_S$ and +7% mAR$_S$ for small objects, with inference recovery rates as high as 95:1 (true vs. false detections). DepthPrior offers these benefits without additional sensors, architectural changes, or performance costs. Code is available at https://github.com/mos-ks/DepthPrior.
- Abstract(参考訳): 小型で遠方の物体を検出することは、スケールの変動、解像度の低さ、背景の乱れなどにより、物体検出にとって依然として困難である。
安全クリティカルなアプリケーションは、安全な計画のためにこれらのオブジェクトを確実に検出する必要がある。
深度情報は検出を改善することができるが、既存のアプローチでは複雑なモデル固有のアーキテクチャ修正が必要である。
理論的解析を行い, 深度検出関係の実証的研究を行った。
同時に、ディープが体系的なパフォーマンス劣化を引き起こす理由と、ディープインフォームド・インフォメーション(deep-informed supervision)がそれを緩和する理由を説明した。
私たちはDepthPriorというフレームワークを紹介します。DepthPriorはフューズ機能ではなく、事前の知識として奥行きを利用するフレームワークで、検出器アーキテクチャを変更することなく、同等のメリットを提供します。
Depth-based Loss Weighting (DLW) とDepth-Based Loss Stratification (DLS) と、推論時のDepth-Aware Confidence Thresholding (DCT) で構成されている。
唯一のオーバーヘッドは、最初の深さ推定コストである。
4つのベンチマーク(KITTI, MS COCO, VisDrone, SUN RGB-D)と2つの検出器(YOLOv11, EfficientDet)による実験では、最大で9% mAP$_S$と+7% mAR$_S$の精度で、推論回復率は95:1(真対偽検出)である。
DepthPriorはこれらの利点を、追加のセンサー、アーキテクチャの変更、パフォーマンスコストなしで提供する。
コードはhttps://github.com/mos-ks/DepthPrior.comで入手できる。
関連論文リスト
- UDPNet: Unleashing Depth-based Priors for Robust Image Dehazing [77.10640210751981]
UDPNetは、大規模で事前訓練された深度推定モデルDepthAnything V2から深度に基づく事前情報を活用する一般的なフレームワークである。
提案手法は,様々なシナリオにまたがる深度認識デハージングのための新しいベンチマークを確立する。
論文 参考訳(メタデータ) (2026-01-11T13:29:02Z) - HazyDet: Open-Source Benchmark for Drone-View Object Detection with Depth-Cues in Hazy Scenes [54.24350833692194]
HazyDetは、ヘイジーな環境でドローンビューオブジェクトを検出するために特別に設計された、最初の大規模ベンチマークである。
本稿では,迷路による視覚劣化に対処するため,Depth-Conditioned Detector (DeCoDet)を提案する。
HazyDetは、検出アルゴリズムを前進させるための挑戦的で現実的なテストベッドを提供する。
論文 参考訳(メタデータ) (2024-09-30T00:11:40Z) - OPEN: Object-wise Position Embedding for Multi-view 3D Object Detection [102.0744303467713]
OPENと呼ばれる新しい多視点3Dオブジェクト検出器を提案する。
我々の主目的は、提案したオブジェクト指向位置埋め込みを通して、オブジェクトワイド情報をネットワークに効果的に注入することである。
OPENは、nuScenesテストベンチマークで64.4%のNDSと56.7%のmAPで、最先端の新たなパフォーマンスを実現している。
論文 参考訳(メタデータ) (2024-07-15T14:29:15Z) - Mind The Edge: Refining Depth Edges in Sparsely-Supervised Monocular Depth Estimation [42.19770683222846]
単眼深度推定(MDE)はコンピュータビジョンの基本的な問題であり、多くの応用がある。
本稿では,密集した合成データから深度エッジの位置を検出することを提案する。
いくつかの挑戦的データセットに対して,画素ごとの深度精度を比較検討することにより,深度エッジの精度が著しく向上したことを示す。
論文 参考訳(メタデータ) (2022-12-10T14:49:24Z) - Does depth estimation help object detection? [16.904673709059622]
多くの要因が推定深度を用いた場合の物体検出の性能に影響を及ぼす。
そこで本研究では, パラメータを著しく少なくしながら, 従来の作業よりもmAPが高い深さの早期連結戦略を提案する。
論文 参考訳(メタデータ) (2022-04-13T17:03:25Z) - Joint Learning of Salient Object Detection, Depth Estimation and Contour
Extraction [91.43066633305662]
RGB-D Salient Object Detection (SOD) のための新しいマルチタスク・マルチモーダルフィルタトランス (MMFT) ネットワークを提案する。
具体的には、深度推定、健全な物体検出、輪郭推定の3つの相補的なタスクを統合する。マルチタスク機構は、タスク認識の特徴を補助タスクから学習するためのモデルを促進する。
実験の結果、複数のデータセット上での深度に基づくRGB-D SOD法をはるかに上回るだけでなく、高品質の深度マップと塩分濃度を同時に正確に予測できることがわかった。
論文 参考訳(メタデータ) (2022-03-09T17:20:18Z) - Geometry Uncertainty Projection Network for Monocular 3D Object
Detection [138.24798140338095]
本稿では,予測および学習段階の誤り増幅問題に対処するために,幾何不確実性予測ネットワーク(GUP Net)を提案する。
具体的には, GUPモジュールを提案し, 推定深さの幾何誘導不確かさを求める。
トレーニング段階では,エラー増幅による不安定性を低減するための階層型タスク学習戦略を提案する。
論文 参考訳(メタデータ) (2021-07-29T06:59:07Z) - Depth-Guided Camouflaged Object Detection [31.99397550848777]
生物学の研究は、深度がカモフラージュされた物体の発見に有用な物体の局在の手がかりとなることを示唆している。
深度情報はカモフラージュされた物体検出には使われていない。
本稿では,既存の単分子深度推定法から事前計算した深度マップを用いた深度誘導型カモフラージュ物体検出ネットワークを提案する。
論文 参考訳(メタデータ) (2021-06-24T17:51:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。