論文の概要: IDMS: Instance Depth for Multi-scale Monocular 3D Object Detection
- arxiv url: http://arxiv.org/abs/2212.01528v1
- Date: Sat, 3 Dec 2022 04:02:31 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-06 16:57:35.712717
- Title: IDMS: Instance Depth for Multi-scale Monocular 3D Object Detection
- Title(参考訳): IDMS:マルチスケールモノクロ3Dオブジェクト検出のためのインスタンス深さ
- Authors: Chao Hu, Liqiang Zhu, Weibing Qiu, Weijie Wu
- Abstract要約: 拡張畳み込みに基づくマルチスケール認識モジュールは、異なるスケールターゲットに対するモデルの処理能力を向上するために設計されている。
提案アルゴリズムをKITTIテストセットと評価セットで検証することにより,実験結果から,車種別AP40の5.27%の改善が得られた。
- 参考スコア(独自算出の注目度): 1.7710335706046505
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Due to the lack of depth information of images and poor detection accuracy in
monocular 3D object detection, we proposed the instance depth for multi-scale
monocular 3D object detection method. Firstly, to enhance the model's
processing ability for different scale targets, a multi-scale perception module
based on dilated convolution is designed, and the depth features containing
multi-scale information are re-refined from both spatial and channel directions
considering the inconsistency between feature maps of different scales.
Firstly, we designed a multi-scale perception module based on dilated
convolution to enhance the model's processing ability for different scale
targets. The depth features containing multi-scale information are re-refined
from spatial and channel directions considering the inconsistency between
feature maps of different scales. Secondly, so as to make the model obtain
better 3D perception, this paper proposed to use the instance depth information
as an auxiliary learning task to enhance the spatial depth feature of the 3D
target and use the sparse instance depth to supervise the auxiliary task.
Finally, by verifying the proposed algorithm on the KITTI test set and
evaluation set, the experimental results show that compared with the baseline
method, the proposed method improves by 5.27\% in AP40 in the car category,
effectively improving the detection performance of the monocular 3D object
detection algorithm.
- Abstract(参考訳): 画像の深度情報の欠如とモノクロ3次元物体検出における検出精度の低下により,マルチスケールモノクロ3次元物体検出手法のインスタンス深度を提案した。
まず、異なるスケール対象に対するモデルの処理能力を高めるために、拡張畳み込みに基づくマルチスケール知覚モジュールを設計し、異なるスケールの特徴地図間の不整合を考慮した空間的・水路的方向の両方からマルチスケール情報を含む深度特徴を改良する。
まず,拡張畳み込みに基づくマルチスケール知覚モジュールを設計し,異なるスケールターゲットに対するモデルの処理能力を向上させる。
マルチスケール情報を含む深度特徴は、異なるスケールの特徴マップ間の不整合を考慮した空間方向とチャネル方向から再定義する。
次に,モデルがより優れた3次元知覚を得るために,3次元対象の空間的深さ特性を高めるための補助学習タスクとしてインスタンス深さ情報を使用し,スパースインスタンス深さを用いて補助タスクを監督することを提案した。
最後に,kittiテストセットおよび評価セット上で提案アルゴリズムを検証することにより,提案手法をベースライン法と比較し,車種別ap40における5.27\%改善し,単眼3次元物体検出アルゴリズムの検出性能を効果的に向上することを示す。
関連論文リスト
- Towards Unified 3D Object Detection via Algorithm and Data Unification [70.27631528933482]
我々は、最初の統一型マルチモーダル3Dオブジェクト検出ベンチマークMM-Omni3Dを構築し、上記のモノクロ検出器をマルチモーダルバージョンに拡張する。
設計した単分子・多モード検出器をそれぞれUniMODEとMM-UniMODEと命名した。
論文 参考訳(メタデータ) (2024-02-28T18:59:31Z) - Depth-discriminative Metric Learning for Monocular 3D Object Detection [14.554132525651868]
本稿では,視覚的属性に関係なく,モデルが深度識別的特徴を抽出することを奨励する新しい計量学習手法を提案する。
本手法は, 各種ベースラインの性能を平均23.51%, 5.78%向上させる。
論文 参考訳(メタデータ) (2024-01-02T07:34:09Z) - Depth Estimation Matters Most: Improving Per-Object Depth Estimation for
Monocular 3D Detection and Tracking [47.59619420444781]
検出・追跡を含む単眼的3D知覚へのアプローチは、LiDARベースの手法と比較して性能が劣ることが多い。
本稿では,オブジェクト(トラックレット)の複数のフレームに異なる表現(RGBと擬似LiDAR)と時間情報を組み合わせた多層融合手法を提案する。
論文 参考訳(メタデータ) (2022-06-08T03:37:59Z) - MDS-Net: A Multi-scale Depth Stratification Based Monocular 3D Object
Detection Algorithm [4.958840734249869]
本論文では,マルチスケール深度層構造に基づく1段モノクロ3次元物体検出アルゴリズムを提案する。
KITTIベンチマークの実験では、MDS-Netは既存のモノクル3D検出方法よりも3D検出やBEV検出タスクに優れていた。
論文 参考訳(メタデータ) (2022-01-12T07:11:18Z) - Learning Geometry-Guided Depth via Projective Modeling for Monocular 3D Object Detection [70.71934539556916]
射影モデルを用いて幾何学誘導深度推定を学習し, モノクル3次元物体検出を推し進める。
具体的には,モノクロ3次元物体検出ネットワークにおける2次元および3次元深度予測の投影モデルを用いた原理的幾何式を考案した。
本手法は, 適度なテスト設定において, 余分なデータを2.80%も加えることなく, 最先端単分子法の検出性能を著しく向上させる。
論文 参考訳(メタデータ) (2021-07-29T12:30:39Z) - Aug3D-RPN: Improving Monocular 3D Object Detection by Synthetic Images
with Virtual Depth [64.29043589521308]
仮想深度で画像を合成することでトレーニングデータを増強するレンダリングモジュールを提案する。
レンダリングモジュールは、RGB画像と対応するスパース深度画像とを入力として、さまざまなフォトリアリスティック合成画像を出力する。
さらに,深度推定タスクを通じて共同で最適化することで,検出モデルを改善する補助モジュールを導入する。
論文 参考訳(メタデータ) (2021-07-28T11:00:47Z) - M3DSSD: Monocular 3D Single Stage Object Detector [82.25793227026443]
特徴アライメントと非対称非局所的注意を有するモノクロ3次元単段物体検出器(M3DSSD)を提案する。
提案したM3DSSDは,KITTIデータセット上のモノラルな3Dオブジェクト検出手法よりも大幅に性能が向上する。
論文 参考訳(メタデータ) (2021-03-24T13:09:11Z) - IAFA: Instance-aware Feature Aggregation for 3D Object Detection from a
Single Image [37.83574424518901]
単一の画像からの3Dオブジェクト検出は、自動運転において重要なタスクです。
本稿では,3次元物体検出の精度向上のために有用な情報を集約するインスタンス認識手法を提案する。
論文 参考訳(メタデータ) (2021-03-05T05:47:52Z) - PLUME: Efficient 3D Object Detection from Stereo Images [95.31278688164646]
既存の手法では、2つのステップでこの問題に対処する: 第一深度推定を行い、その深さ推定から擬似LiDAR点雲表現を計算し、3次元空間で物体検出を行う。
この2つのタスクを同一のメトリック空間で統一するモデルを提案する。
提案手法は,既存の手法と比較して推定時間を大幅に削減し,挑戦的なKITTIベンチマークの最先端性能を実現する。
論文 参考訳(メタデータ) (2021-01-17T05:11:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。