論文の概要: MonoTDP: Twin Depth Perception for Monocular 3D Object Detection in
Adverse Scenes
- arxiv url: http://arxiv.org/abs/2305.10974v2
- Date: Thu, 25 May 2023 06:12:02 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-26 19:50:15.595813
- Title: MonoTDP: Twin Depth Perception for Monocular 3D Object Detection in
Adverse Scenes
- Title(参考訳): MonoTDP: 逆シーンにおける単眼3次元物体検出のための双発深度知覚
- Authors: Xingyuan Li and Jinyuan Liu and Yixin Lei and Long Ma and Xin Fan and
Risheng Liu
- Abstract要約: 本論文は,モノTDP(MonoTDP)と呼ばれる悪シーンにおける2つの深度を知覚するモノクル3次元検出モデルを提案する。
まず、制御不能な気象条件を扱うモデルを支援するための適応学習戦略を導入し、様々な劣化要因による劣化を著しく抑制する。
そこで本研究では, シーン深度と物体深度を同時に推定する新たな2つの深度認識モジュールを提案する。
- 参考スコア(独自算出の注目度): 49.21187418886508
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: 3D object detection plays a crucial role in numerous intelligent vision
systems. Detection in the open world inevitably encounters various adverse
scenes, such as dense fog, heavy rain, and low light conditions. Although
existing efforts primarily focus on diversifying network architecture or
training schemes, resulting in significant progress in 3D object detection,
most of these learnable modules fail in adverse scenes, thereby hindering
detection performance. To address this issue, this paper proposes a monocular
3D detection model designed to perceive twin depth in adverse scenes, termed
MonoTDP, which effectively mitigates the degradation of detection performance
in various harsh environments. Specifically, we first introduce an adaptive
learning strategy to aid the model in handling uncontrollable weather
conditions, significantly resisting degradation caused by various degrading
factors. Then, to address the depth/content loss in adverse regions, we propose
a novel twin depth perception module that simultaneously estimates scene and
object depth, enabling the integration of scene-level features and object-level
features. Additionally, we assemble a new adverse 3D object detection dataset
encompassing a wide range of challenging scenes, including rainy, foggy, and
low light weather conditions, with each type of scene containing 7,481 images.
Experimental results demonstrate that our proposed method outperforms current
state-of-the-art approaches by an average of 3.12% in terms of AP_R40 for car
category across various adverse environments.
- Abstract(参考訳): 3次元物体検出は、多数の知的視覚システムにおいて重要な役割を果たす。
開けた世界での検知は、濃霧、豪雨、低照度といった様々な有害な場面に必然的に遭遇する。
既存の取り組みは主にネットワークアーキテクチャやトレーニングスキームの多様化に重点を置いており、3Dオブジェクト検出の大幅な進歩をもたらしたが、これらの学習可能なモジュールのほとんどは、悪い場面で失敗し、検出性能を損なう。
この問題に対処するため, 各環境における検出性能の劣化を効果的に軽減するモノTDP(MonoTDP)と呼ばれる, 二重深度を知覚するモノクル3次元検出モデルを提案する。
具体的には, 種々の劣化要因による劣化に著しく抵抗し, 制御不能な気象条件の対処を支援する適応学習戦略を提案する。
そこで本研究では,シーンとオブジェクトの深さを同時に推定し,シーンレベルの特徴とオブジェクトレベルの特徴の統合を可能にする,新しいツイン深度知覚モジュールを提案する。
さらに, 降雨, 霧, 低照度条件など, 幅広い難易度場面を包含する新たな有害な3次元物体検出データセットを, 7,481画像を含む各場面で構築した。
実験結果から,提案手法は様々な環境における自動車カテゴリーのAP_R40を平均3.12%向上させることがわかった。
関連論文リスト
- Towards Unified 3D Object Detection via Algorithm and Data Unification [70.27631528933482]
我々は、最初の統一型マルチモーダル3Dオブジェクト検出ベンチマークMM-Omni3Dを構築し、上記のモノクロ検出器をマルチモーダルバージョンに拡張する。
設計した単分子・多モード検出器をそれぞれUniMODEとMM-UniMODEと命名した。
論文 参考訳(メタデータ) (2024-02-28T18:59:31Z) - S$^3$-MonoDETR: Supervised Shape&Scale-perceptive Deformable Transformer for Monocular 3D Object Detection [21.96072831561483]
本稿では,モノクロ3次元物体検出のためのSupervised Shape&Scale-perceptive Deformable Attention' (S$3$-DA) モジュールを提案する。
これにより、S$3$-DAは、任意のカテゴリに属するクエリポイントに対する受容的フィールドを効果的に推定し、堅牢なクエリ機能を生成することができる。
KITTIとOpenデータセットの実験では、S$3$-DAが検出精度を大幅に向上することが示された。
論文 参考訳(メタデータ) (2023-09-02T12:36:38Z) - DetZero: Rethinking Offboard 3D Object Detection with Long-term
Sequential Point Clouds [55.755450273390004]
既存のオフボード3D検出器は、無限の逐次点雲を利用するために常にモジュラーパイプライン設計に従っている。
その結果, 物体の運動状態は, 物体中心の精製段階において必然的な課題となること, 物体の運動状態は, 物体軌道を十分に生成できないこと, 物体中心の精製段階において必然的な課題となること, の2つの理由から, オフボード型3D検出器の完全なポテンシャルは明らかにされていないことがわかった。
これらの問題に対処するために,DetZero という,オフボード型3次元物体検出の新たなパラダイムを提案する。
論文 参考訳(メタデータ) (2023-06-09T16:42:00Z) - AGO-Net: Association-Guided 3D Point Cloud Object Detection Network [86.10213302724085]
ドメイン適応によるオブジェクトの無傷な特徴を関連付ける新しい3D検出フレームワークを提案する。
我々は,KITTIの3D検出ベンチマークにおいて,精度と速度の両面で最新の性能を実現する。
論文 参考訳(メタデータ) (2022-08-24T16:54:38Z) - ORA3D: Overlap Region Aware Multi-view 3D Object Detection [11.58746596768273]
現在の多視点3Dオブジェクト検出法は、しばしば重なり合う領域のオブジェクトを適切に検出できない。
本稿では,(1)弱深度スーパービジョンのステレオ異方性推定と(2)適応オーバーラップ領域判別器の2つの主要なモジュールを提案する。
提案手法は,現在の最先端モデル,すなわちDETR3DとBEVDetより優れている。
論文 参考訳(メタデータ) (2022-07-02T15:28:44Z) - The Devil is in the Task: Exploiting Reciprocal Appearance-Localization
Features for Monocular 3D Object Detection [62.1185839286255]
低コストのモノクル3D物体検出は、自律運転において基本的な役割を果たす。
DFR-Netという動的特徴反射ネットワークを導入する。
我々は、KITTIテストセットの全ての単分子3D物体検出器の中で、第1位にランク付けする。
論文 参考訳(メタデータ) (2021-12-28T07:31:18Z) - MonoGRNet: A General Framework for Monocular 3D Object Detection [23.59839921644492]
幾何学的推論によるモノクロ画像からのアモーダル3次元物体検出のためのMonoGRNetを提案する。
MonoGRNetは、モノラル3Dオブジェクト検出タスクを2Dオブジェクト検出、インスタンスレベルの深さ推定、投影された3Dセンター推定、ローカルコーナー回帰を含む4つのサブタスクに分解する。
KITTI、Cityscapes、MS COCOデータセットで実験が行われた。
論文 参考訳(メタデータ) (2021-04-18T10:07:52Z) - Geometry-aware data augmentation for monocular 3D object detection [18.67567745336633]
本稿では,自動運転システムにおける必須モジュールの一つであるモノキュラー3次元物体検出について述べる。
重要な課題は、深さ回復問題は単眼データに不備があることです。
我々は,既存の手法が,異なる幾何学的シフトが発生した場合の深さをロバストに推定できないことを明らかにするために,詳細な解析を行う。
上記の操作を,対応する4つの3D対応データ拡張手法に変換する。
論文 参考訳(メタデータ) (2021-04-12T23:12:48Z) - Reinforced Axial Refinement Network for Monocular 3D Object Detection [160.34246529816085]
モノクロ3次元物体検出は、2次元入力画像から物体の位置と特性を抽出することを目的としている。
従来のアプローチでは、空間から3D境界ボックスをサンプリングし、対象オブジェクトと各オブジェクトの関係を推定するが、有効サンプルの確率は3D空間で比較的小さい。
我々は,まず最初の予測から始めて,各ステップで1つの3dパラメータだけを変えて,基礎的真理に向けて徐々に洗練することを提案する。
これは、いくつかのステップの後に報酬を得るポリシーを設計する必要があるため、最適化するために強化学習を採用します。
論文 参考訳(メタデータ) (2020-08-31T17:10:48Z) - 3D Object Detection on Point Clouds using Local Ground-aware and
Adaptive Representation of scenes' surface [1.9336815376402714]
新規で適応的な地上認識と費用対効果の高い3次元物体検出パイプラインを提案する。
2段Lidar物体検出パイプラインにおける最先端3次元物体検出性能について提案する。
論文 参考訳(メタデータ) (2020-02-02T05:42:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。