論文の概要: MonoPCNS: Monocular 3D Object Detection via Point Cloud Network
Simulation
- arxiv url: http://arxiv.org/abs/2208.09446v1
- Date: Fri, 19 Aug 2022 16:57:11 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-22 17:18:26.145324
- Title: MonoPCNS: Monocular 3D Object Detection via Point Cloud Network
Simulation
- Title(参考訳): monopcns:point cloud networkシミュレーションによるモノクロ3dオブジェクト検出
- Authors: Han Sun, Zhaoxin Fan, Zhenbo Song, Zhicheng Wang, Kejian Wu, Jianfeng
Lu
- Abstract要約: 既存の先行手法では、まず入力画像の深さを推定し、点雲に基づいて3Dオブジェクトを検出する傾向にある。
トレーニング期間中に単分子検出器のための点雲検出器の特徴学習挙動をシミュレートするためにMonoPCNSを提案する。
本手法は,ネットワークアーキテクチャの変更を伴わずに,各単分子検出器の性能を常に改善する。
- 参考スコア(独自算出の注目度): 16.237400933896886
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Monocular 3D object detection is a fundamental but very important task to
many applications including autonomous driving, robotic grasping and augmented
reality. Existing leading methods tend to estimate the depth of the input image
first, and detect the 3D object based on point cloud. This routine suffers from
the inherent gap between depth estimation and object detection. Besides, the
prediction error accumulation would also affect the performance. In this paper,
a novel method named MonoPCNS is proposed. The insight behind introducing
MonoPCNS is that we propose to simulate the feature learning behavior of a
point cloud based detector for monocular detector during the training period.
Hence, during inference period, the learned features and prediction would be
similar to the point cloud based detector as possible. To achieve it, we
propose one scene-level simulation module, one RoI-level simulation module and
one response-level simulation module, which are progressively used for the
detector's full feature learning and prediction pipeline. We apply our method
to the famous M3D-RPN detector and CaDDN detector, conducting extensive
experiments on KITTI and Waymo Open dataset. Results show that our method
consistently improves the performance of different monocular detectors for a
large margin without changing their network architectures. Our method finally
achieves state-of-the-art performance.
- Abstract(参考訳): モノキュラーな3dオブジェクト検出は、自動運転、ロボットの把持、拡張現実など、多くのアプリケーションにとって基本だが非常に重要なタスクである。
既存のリード手法では、まず入力画像の深さを推定し、ポイントクラウドに基づいて3dオブジェクトを検出する傾向がある。
このルーチンは、深さ推定とオブジェクト検出に固有のギャップに苦しむ。
さらに、予測エラーの蓄積はパフォーマンスにも影響を及ぼす。
本稿では,MonoPCNSという新しい手法を提案する。
MonoPCNSの導入の背景にある洞察は、トレーニング期間中に単分子検出器のための点雲検出器の特徴学習挙動をシミュレートすることである。
したがって、推測期間中、学習された特徴と予測は可能な限り点雲ベースの検出器に類似する。
そこで本研究では,1つのシーンレベルシミュレーションモジュール,1つのroiレベルシミュレーションモジュール,および1つの応答レベルシミュレーションモジュールを提案する。
本手法を有名なM3D-RPN検出器およびCaDDN検出器に適用し,KITTIおよびWaymo Openデータセットに関する広範な実験を行った。
その結果,本手法はネットワークアーキテクチャを変更することなく,各単分子検出器の性能を一定に向上することを示した。
我々の手法はついに最先端の性能を達成する。
関連論文リスト
- VFMM3D: Releasing the Potential of Image by Vision Foundation Model for Monocular 3D Object Detection [80.62052650370416]
モノクル3Dオブジェクト検出は、自律運転やロボティクスなど、さまざまなアプリケーションにおいて重要な役割を担っている。
本稿では,VFMM3Dを提案する。VFMM3Dは,ビジョンファウンデーションモデル(VFM)の機能を利用して,単一ビュー画像を正確にLiDARポイントクラウド表現に変換する,革新的なフレームワークである。
論文 参考訳(メタデータ) (2024-04-15T03:12:12Z) - Towards Unified 3D Object Detection via Algorithm and Data Unification [70.27631528933482]
我々は、最初の統一型マルチモーダル3Dオブジェクト検出ベンチマークMM-Omni3Dを構築し、上記のモノクロ検出器をマルチモーダルバージョンに拡張する。
設計した単分子・多モード検出器をそれぞれUniMODEとMM-UniMODEと命名した。
論文 参考訳(メタデータ) (2024-02-28T18:59:31Z) - Weakly Supervised Monocular 3D Object Detection using Multi-View
Projection and Direction Consistency [78.76508318592552]
モノクロ3Dオブジェクト検出は、その容易なアプリケーションのための自動駆動において、主流のアプローチとなっている。
現在のほとんどの方法は、トレーニングフェーズで使用される真実をラベル付けするために、まだ3Dポイントのクラウドデータに依存しています。
画像にマークされた2次元ラベルだけでモデルを訓練できる,弱教師付きモノクル3次元オブジェクト検出法を提案する。
論文 参考訳(メタデータ) (2023-03-15T15:14:00Z) - ALSO: Automotive Lidar Self-supervision by Occupancy estimation [70.70557577874155]
本稿では,ポイントクラウド上で動作している深層知覚モデルのバックボーンを事前学習するための自己教師型手法を提案する。
中心となる考え方は、3Dポイントがサンプリングされる表面の再構成であるプリテキストタスクでモデルをトレーニングすることである。
直感的には、もしネットワークがわずかな入力ポイントのみを考慮し、シーン表面を再構築できるなら、おそらく意味情報の断片をキャプチャする。
論文 参考訳(メタデータ) (2022-12-12T13:10:19Z) - Boosting 3D Object Detection by Simulating Multimodality on Point Clouds [51.87740119160152]
本稿では,LiDAR 画像検出器に追従する特徴や応答をシミュレートすることで,単一モダリティ (LiDAR) 3次元物体検出器を高速化する新しい手法を提案する。
このアプローチでは、単一モダリティ検出器をトレーニングする場合のみ、LiDARイメージデータを必要とし、十分にトレーニングされた場合には、推論時にのみLiDARデータが必要である。
nuScenesデータセットの実験結果から,本手法はSOTA LiDARのみの3D検出器よりも優れていることがわかった。
論文 参考訳(メタデータ) (2022-06-30T01:44:30Z) - MDS-Net: A Multi-scale Depth Stratification Based Monocular 3D Object
Detection Algorithm [4.958840734249869]
本論文では,マルチスケール深度層構造に基づく1段モノクロ3次元物体検出アルゴリズムを提案する。
KITTIベンチマークの実験では、MDS-Netは既存のモノクル3D検出方法よりも3D検出やBEV検出タスクに優れていた。
論文 参考訳(メタデータ) (2022-01-12T07:11:18Z) - The Devil is in the Task: Exploiting Reciprocal Appearance-Localization
Features for Monocular 3D Object Detection [62.1185839286255]
低コストのモノクル3D物体検出は、自律運転において基本的な役割を果たす。
DFR-Netという動的特徴反射ネットワークを導入する。
我々は、KITTIテストセットの全ての単分子3D物体検出器の中で、第1位にランク付けする。
論文 参考訳(メタデータ) (2021-12-28T07:31:18Z) - Object DGCNN: 3D Object Detection using Dynamic Graphs [32.090268859180334]
3Dオブジェクト検出は、複雑なトレーニングとテストパイプラインを伴うことが多い。
近年,非最大抑圧型2次元物体検出モデルに着想を得て,点雲上の3次元物体検出アーキテクチャを提案する。
論文 参考訳(メタデータ) (2021-10-13T17:59:38Z) - IAFA: Instance-aware Feature Aggregation for 3D Object Detection from a
Single Image [37.83574424518901]
単一の画像からの3Dオブジェクト検出は、自動運転において重要なタスクです。
本稿では,3次元物体検出の精度向上のために有用な情報を集約するインスタンス認識手法を提案する。
論文 参考訳(メタデータ) (2021-03-05T05:47:52Z) - SA-Det3D: Self-Attention Based Context-Aware 3D Object Detection [9.924083358178239]
本稿では,3次元物体検出におけるコンテキストモデリングのための2種類の自己注意法を提案する。
まず,現状のbev,voxel,ポイントベース検出器にペアワイズ自着機構を組み込む。
次に,ランダムにサンプリングされた位置の変形を学習することにより,最も代表的な特徴のサブセットをサンプリングするセルフアテンション変種を提案する。
論文 参考訳(メタデータ) (2021-01-07T18:30:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。