論文の概要: The Devil is in the Task: Exploiting Reciprocal Appearance-Localization
Features for Monocular 3D Object Detection
- arxiv url: http://arxiv.org/abs/2112.14023v1
- Date: Tue, 28 Dec 2021 07:31:18 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-30 15:26:10.848660
- Title: The Devil is in the Task: Exploiting Reciprocal Appearance-Localization
Features for Monocular 3D Object Detection
- Title(参考訳): Devil is the Task: Exploiting Reciprocal Outearance-Localization Features for Monocular 3D Object Detection
- Authors: Zhikang Zou, Xiaoqing Ye, Liang Du, Xianhui Cheng, Xiao Tan, Li Zhang,
Jianfeng Feng, Xiangyang Xue, Errui Ding
- Abstract要約: 低コストのモノクル3D物体検出は、自律運転において基本的な役割を果たす。
DFR-Netという動的特徴反射ネットワークを導入する。
我々は、KITTIテストセットの全ての単分子3D物体検出器の中で、第1位にランク付けする。
- 参考スコア(独自算出の注目度): 62.1185839286255
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Low-cost monocular 3D object detection plays a fundamental role in autonomous
driving, whereas its accuracy is still far from satisfactory. In this paper, we
dig into the 3D object detection task and reformulate it as the sub-tasks of
object localization and appearance perception, which benefits to a deep
excavation of reciprocal information underlying the entire task. We introduce a
Dynamic Feature Reflecting Network, named DFR-Net, which contains two novel
standalone modules: (i) the Appearance-Localization Feature Reflecting module
(ALFR) that first separates taskspecific features and then self-mutually
reflects the reciprocal features; (ii) the Dynamic Intra-Trading module (DIT)
that adaptively realigns the training processes of various sub-tasks via a
self-learning manner. Extensive experiments on the challenging KITTI dataset
demonstrate the effectiveness and generalization of DFR-Net. We rank 1st among
all the monocular 3D object detectors in the KITTI test set (till March 16th,
2021). The proposed method is also easy to be plug-and-play in many
cutting-edge 3D detection frameworks at negligible cost to boost performance.
The code will be made publicly available.
- Abstract(参考訳): 低コストのモノクル3D物体検出は、自動運転において基本的な役割を果たすが、精度はまだ十分ではない。
本稿では,3次元物体検出タスクを探索し,物体の局所化と出現知覚のサブタスクとして再構成し,タスク全体の基盤となる相互情報の深い発掘に有用であることを示す。
我々はdfr-netという,2つの新しいスタンドアロンモジュールを含む動的機能反射ネットワークを紹介する。
(i)最初にタスク固有の特徴を分離し、その後相互の特徴を自己ミューチュアルに反映する外観ローカライズ特徴反映モジュール(ALFR)
(II) 動的イントラトレーディングモジュール (DIT) は, 様々なサブタスクの学習過程を自己学習方式で適応的に実現する。
挑戦的なKITTIデータセットに関する大規模な実験は、DFR-Netの有効性と一般化を実証している。
キティテストセット(2021年3月16日現在)におけるモノキュラー3d物体検出器の上位1位である。
提案手法は,多くの最先端の3D検出フレームワークにおいて,性能向上に要しないコストでプラグアンドプレイも容易である。
コードは公開される予定だ。
関連論文リスト
- ODM3D: Alleviating Foreground Sparsity for Semi-Supervised Monocular 3D
Object Detection [15.204935788297226]
ODM3Dフレームワークは、トレーニング中にLiDARドメインの知識を単分子検出器に注入するために、様々なレベルでのクロスモーダルな知識蒸留を必要とする。
既存手法の準最適トレーニングの主要因として,前景の空間空間を同定することにより,LiDAR点に埋め込まれた正確な位置化情報を活用する。
KITTI検証とテストベンチマークの両方で1位にランクインし、教師付きまたは半教師付きである既存のモノクラー手法をはるかに上回っている。
論文 参考訳(メタデータ) (2023-10-28T07:12:09Z) - LiDAR-BEVMTN: Real-Time LiDAR Bird's-Eye View Multi-Task Perception
Network for Autonomous Driving [7.137567622606353]
本稿では,LiDARに基づくオブジェクト検出,意味論,動作セグメンテーションのためのリアルタイムマルチタスク畳み込みニューラルネットワークを提案する。
オブジェクト検出を選択的に改善するためのセマンティック・ウェイト・アンド・ガイダンス(SWAG)モジュールを提案する。
我々は,2つのタスク,セマンティックとモーションセグメンテーション,および3Dオブジェクト検出のための最先端性能に近い2つのタスクに対して,最先端の結果を得る。
論文 参考訳(メタデータ) (2023-07-17T21:22:17Z) - AOP-Net: All-in-One Perception Network for Joint LiDAR-based 3D Object
Detection and Panoptic Segmentation [9.513467995188634]
AOP-NetはLiDARベースのマルチタスクフレームワークで、3Dオブジェクトの検出とパノプティクスのセグメンテーションを組み合わせたものである。
AOP-Netは、nuScenesベンチマークにおける3Dオブジェクト検出とパノプティクスセグメンテーションの両タスクについて、最先端のパフォーマンスを達成している。
論文 参考訳(メタデータ) (2023-02-02T05:31:53Z) - Simultaneous Multiple Object Detection and Pose Estimation using 3D
Model Infusion with Monocular Vision [21.710141497071373]
複数物体の検出とポーズ推定はコンピュータビジョンの重要なタスクである。
単眼視と3Dモデルを用いた同時ニューラルモデリングを提案する。
我々の同時多重物体検出・ポース推定ネットワーク(SMOPE-Net)は、エンドツーエンドのトレーニング可能なマルチタスクネットワークである。
論文 参考訳(メタデータ) (2022-11-21T05:18:56Z) - AGO-Net: Association-Guided 3D Point Cloud Object Detection Network [86.10213302724085]
ドメイン適応によるオブジェクトの無傷な特徴を関連付ける新しい3D検出フレームワークを提案する。
我々は,KITTIの3D検出ベンチマークにおいて,精度と速度の両面で最新の性能を実現する。
論文 参考訳(メタデータ) (2022-08-24T16:54:38Z) - A Simple Baseline for Multi-Camera 3D Object Detection [94.63944826540491]
周囲のカメラで3Dオブジェクトを検出することは、自動運転にとって有望な方向だ。
マルチカメラオブジェクト検出のための簡易ベースラインであるSimMODを提案する。
我々は, nuScenes の3次元オブジェクト検出ベンチマークにおいて, SimMOD の有効性を示す広範囲な実験を行った。
論文 参考訳(メタデータ) (2022-08-22T03:38:01Z) - SGM3D: Stereo Guided Monocular 3D Object Detection [62.11858392862551]
SGM3Dと呼ばれるステレオ誘導単分子物体検出ネットワークを提案する。
ステレオ画像から抽出したロバストな3次元特徴を利用して、モノクル画像から得られた特徴を強化する。
本手法は,余分な計算コストを伴わずに性能を向上させるために,他の多くの単分子的手法に統合することができる。
論文 参考訳(メタデータ) (2021-12-03T13:57:14Z) - Learnable Online Graph Representations for 3D Multi-Object Tracking [156.58876381318402]
3D MOT問題に対する統一型学習型アプローチを提案します。
我々は、完全にトレーニング可能なデータアソシエーションにNeural Message Passing Networkを使用します。
AMOTAの65.6%の最先端性能と58%のIDスウィッチを達成して、公開可能なnuScenesデータセットに対する提案手法のメリットを示す。
論文 参考訳(メタデータ) (2021-04-23T17:59:28Z) - IAFA: Instance-aware Feature Aggregation for 3D Object Detection from a
Single Image [37.83574424518901]
単一の画像からの3Dオブジェクト検出は、自動運転において重要なタスクです。
本稿では,3次元物体検出の精度向上のために有用な情報を集約するインスタンス認識手法を提案する。
論文 参考訳(メタデータ) (2021-03-05T05:47:52Z) - SESS: Self-Ensembling Semi-Supervised 3D Object Detection [138.80825169240302]
具体的には、ラベルのない新しい未知のデータに基づくネットワークの一般化を促進するための、徹底的な摂動スキームを設計する。
我々のSESSは、50%のラベル付きデータを用いて、最先端の完全教師付き手法と比較して、競争性能を達成している。
論文 参考訳(メタデータ) (2019-12-26T08:48:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。