論文の概要: Stereo RGB and Deeper LIDAR Based Network for 3D Object Detection
- arxiv url: http://arxiv.org/abs/2006.05187v1
- Date: Tue, 9 Jun 2020 11:19:24 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-23 15:13:41.080603
- Title: Stereo RGB and Deeper LIDAR Based Network for 3D Object Detection
- Title(参考訳): 3次元物体検出のためのステレオRGBとより深いLIDARネットワーク
- Authors: Qingdong He, Zhengning Wang, Hao Zeng, Yijun Liu, Shuaicheng Liu, Bing
Zeng
- Abstract要約: 3Dオブジェクト検出は、自動運転のシナリオにおいて新たな課題となっている。
以前の作業では、プロジェクションベースまたはボクセルベースのモデルを使用して3Dポイントクラウドを処理していた。
本稿では,意味情報と空間情報の同時利用が可能なStereo RGBおよびDeeper LIDARフレームワークを提案する。
- 参考スコア(独自算出の注目度): 40.34710686994996
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: 3D object detection has become an emerging task in autonomous driving
scenarios. Previous works process 3D point clouds using either projection-based
or voxel-based models. However, both approaches contain some drawbacks. The
voxel-based methods lack semantic information, while the projection-based
methods suffer from numerous spatial information loss when projected to
different views. In this paper, we propose the Stereo RGB and Deeper LIDAR
(SRDL) framework which can utilize semantic and spatial information
simultaneously such that the performance of network for 3D object detection can
be improved naturally. Specifically, the network generates candidate boxes from
stereo pairs and combines different region-wise features using a deep fusion
scheme. The stereo strategy offers more information for prediction compared
with prior works. Then, several local and global feature extractors are stacked
in the segmentation module to capture richer deep semantic geometric features
from point clouds. After aligning the interior points with fused features, the
proposed network refines the prediction in a more accurate manner and encodes
the whole box in a novel compact method. The decent experimental results on the
challenging KITTI detection benchmark demonstrate the effectiveness of
utilizing both stereo images and point clouds for 3D object detection.
- Abstract(参考訳): 3Dオブジェクト検出は、自動運転シナリオにおいて新たな課題となっている。
以前の作業では、プロジェクションベースまたはvoxelベースのモデルを使用して3dポイントクラウドを処理する。
しかし、どちらのアプローチにもいくつかの欠点がある。
ボクセル法は意味情報を欠くが、投影法は異なる視点に投影した場合に多くの空間情報損失を被る。
本稿では,3次元物体検出のためのネットワークの性能を自然に向上させるために,意味情報と空間情報を同時に活用できるステレオrgb and deep lidar(srdl)フレームワークを提案する。
具体的には、ステレオペアから候補ボックスを生成し、深層融合方式を用いて異なる領域的特徴を組み合わせる。
ステレオ戦略は、以前の作品と比べて予測のためのより多くの情報を提供する。
次に、局所的およびグローバルな特徴抽出器をセグメンテーションモジュールに積み重ねて、ポイントクラウドからよりリッチな意味的幾何学的特徴をキャプチャする。
内部点と融合した特徴を一致させた後、提案ネットワークは予測をより正確に洗練し、ボックス全体を新しいコンパクトな方法で符号化する。
難解なkitti検出ベンチマーク実験の結果から,立体画像と点雲を併用した3次元物体検出の有効性が示された。
関連論文リスト
- Surface-biased Multi-Level Context 3D Object Detection [1.9723551683930771]
本研究は,高効率表面偏光特性抽出法(wang2022rbgnet)を用いて3次元点雲中の物体検出タスクに対処する。
本稿では,オブジェクト候補の正確な特徴表現を抽出し,点パッチやオブジェクト候補,グローバルシーンにおける自己注意を活用する3Dオブジェクト検出手法を提案する。
論文 参考訳(メタデータ) (2023-02-13T11:50:04Z) - CAGroup3D: Class-Aware Grouping for 3D Object Detection on Point Clouds [55.44204039410225]
本稿では,CAGroup3Dという新しい2段階完全スパース3Dオブジェクト検出フレームワークを提案する。
提案手法は,まず,オブジェクト表面のボクセル上でのクラス認識型局所群戦略を活用することによって,高品質な3D提案を生成する。
不正なボクセルワイドセグメンテーションにより欠落したボクセルの特徴を回復するために,完全にスパースな畳み込み型RoIプールモジュールを構築した。
論文 参考訳(メタデータ) (2022-10-09T13:38:48Z) - CMR3D: Contextualized Multi-Stage Refinement for 3D Object Detection [57.44434974289945]
本稿では,3次元オブジェクト検出(CMR3D)フレームワークのためのコンテキスト型マルチステージリファインメントを提案する。
我々のフレームワークは3Dシーンを入力として取り、シーンの有用なコンテキスト情報を明示的に統合しようと試みている。
3Dオブジェクトの検出に加えて,3Dオブジェクトカウント問題に対するフレームワークの有効性について検討する。
論文 参考訳(メタデータ) (2022-09-13T05:26:09Z) - AGO-Net: Association-Guided 3D Point Cloud Object Detection Network [86.10213302724085]
ドメイン適応によるオブジェクトの無傷な特徴を関連付ける新しい3D検出フレームワークを提案する。
我々は,KITTIの3D検出ベンチマークにおいて,精度と速度の両面で最新の性能を実現する。
論文 参考訳(メタデータ) (2022-08-24T16:54:38Z) - SIENet: Spatial Information Enhancement Network for 3D Object Detection
from Point Cloud [20.84329063509459]
LiDARベースの3Dオブジェクト検出は、自動運転車に大きな影響を与える。
LiDARの固有特性の制限により、センサーから遠く離れた物体において、より少ない点が収集される。
そこで本研究では,SIENetという2段階の3次元物体検出フレームワークを提案する。
論文 参考訳(メタデータ) (2021-03-29T07:45:09Z) - Ground-aware Monocular 3D Object Detection for Autonomous Driving [6.5702792909006735]
1台のRGBカメラで環境中の物体の位置と向きを推定することは、低コストの都市自動運転と移動ロボットにとって難しい課題である。
既存のアルゴリズムのほとんどは、2D-3D対応における幾何学的制約に基づいており、これは一般的な6Dオブジェクトのポーズ推定に由来する。
深層学習の枠組みにおいて、そのようなアプリケーション固有の事前知識を完全に活用するための新しいニューラルネットワークモジュールを導入する。
論文 参考訳(メタデータ) (2021-02-01T08:18:24Z) - Cross-Modality 3D Object Detection [63.29935886648709]
本稿では,3次元物体検出のための新しい2段階多モード融合ネットワークを提案する。
アーキテクチャ全体が2段階の融合を促進する。
KITTIデータセットを用いた実験により,提案したマルチステージ融合により,ネットワークがより良い表現を学習できることが示唆された。
論文 参考訳(メタデータ) (2020-08-16T11:01:20Z) - DOPS: Learning to Detect 3D Objects and Predict their 3D Shapes [54.239416488865565]
LIDARデータに対する高速な1段3次元物体検出法を提案する。
我々の手法の中核となる新規性は高速かつシングルパスアーキテクチャであり、どちらも3次元の物体を検出し、それらの形状を推定する。
提案手法は,ScanNetシーンのオブジェクト検出で5%,オープンデータセットでは3.4%の精度で結果が得られた。
論文 参考訳(メタデータ) (2020-04-02T17:48:50Z) - DSGN: Deep Stereo Geometry Network for 3D Object Detection [79.16397166985706]
画像ベースとLiDARベースの3Dオブジェクト検出器の間には大きなパフォーマンスギャップがある。
我々の手法であるDeep Stereo Geometry Network (DSGN)は,このギャップを著しく低減する。
初めて、シンプルで効果的な1段ステレオベースの3D検出パイプラインを提供する。
論文 参考訳(メタデータ) (2020-01-10T11:44:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。