論文の概要: CVFNet: Real-time 3D Object Detection by Learning Cross View Features
- arxiv url: http://arxiv.org/abs/2203.06585v1
- Date: Sun, 13 Mar 2022 06:23:18 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-15 16:08:35.643664
- Title: CVFNet: Real-time 3D Object Detection by Learning Cross View Features
- Title(参考訳): CVFNet:クロスビュー特徴の学習によるリアルタイム3次元物体検出
- Authors: Jiaqi Gu, Zhiyu Xiang, Pan Zhao, Tingming Bai, Lingxuan Wang, Zhiyuan
Zhang
- Abstract要約: CVFNetと呼ばれるリアルタイムビューベースの1段3Dオブジェクト検出器を提案する。
本稿ではまず,複数の段階において,ポイント・アンド・レンジ・ビュー機能を深く統合した新しいポイント・ラウンジ機能融合モジュールを提案する。
次に, 得られた深度視点特徴を鳥の目視に変換する際に, 3次元形状を良好に維持する特別のスライスピラーを設計する。
- 参考スコア(独自算出の注目度): 11.402076835949824
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In recent years 3D object detection from LiDAR point clouds has made great
progress thanks to the development of deep learning technologies. Although
voxel or point based methods are popular in 3D object detection, they usually
involve time-consuming operations such as 3D convolutions on voxels or ball
query among points, making the resulting network inappropriate for time
critical applications. On the other hand, 2D view-based methods feature high
computing efficiency while usually obtaining inferior performance than the
voxel or point based methods. In this work, we present a real-time view-based
single stage 3D object detector, namely CVFNet to fulfill this task. To
strengthen the cross-view feature learning under the condition of demanding
efficiency, our framework extracts the features of different views and fuses
them in an efficient progressive way. We first propose a novel Point-Range
feature fusion module that deeply integrates point and range view features in
multiple stages. Then, a special Slice Pillar is designed to well maintain the
3D geometry when transforming the obtained deep point-view features into bird's
eye view. To better balance the ratio of samples, a sparse pillar detection
head is presented to focus the detection on the nonempty grids. We conduct
experiments on the popular KITTI and NuScenes benchmark, and state-of-the-art
performances are achieved in terms of both accuracy and speed.
- Abstract(参考訳): 近年、LiDARポイントクラウドからの3Dオブジェクト検出は、ディープラーニング技術の開発により大きな進歩を遂げている。
ボクセルやポイントベースの手法は3Dオブジェクト検出で人気があるが、通常、ボクセル上の3D畳み込みやポイント間のボールクエリといった時間を要する操作を伴い、結果としてネットワークが時間クリティカルなアプリケーションに不適切になる。
一方,2次元ビューベース法では,voxel法やポイントベース法に比べて性能が劣るが,高い計算効率を示す。
本研究では,この課題を満たすために,リアルタイムのビューベース1段3Dオブジェクト検出器CVFNetを提案する。
要求効率の条件下でのクロスビュー特徴学習を強化するため,異なる視点の特徴を抽出し,効率的なプログレッシブな方法で融合させる。
まず,複数段階の視点特徴と視点特徴を深く統合した,新しい点距離特徴融合モジュールを提案する。
次に, 得られた深度視点特徴を鳥の目視に変換する際に, 3次元形状を良好に維持する特別のスライスピラーを設計する。
試料比のバランスを良くするため、スパースピラー検出ヘッドを提示し、非空グリッドに検出を集中させる。
我々はKITTIとNuScenesのベンチマークで実験を行い、精度と速度の両面で最先端のパフォーマンスを実現する。
関連論文リスト
- 3DiffTection: 3D Object Detection with Geometry-Aware Diffusion Features [70.50665869806188]
3DiffTectionは、単一の画像から3Dオブジェクトを検出する最先端の方法である。
拡散モデルを微調整し、単一の画像に条件付けされた新しいビュー合成を行う。
さらに、検出監視により、ターゲットデータ上でモデルをトレーニングする。
論文 参考訳(メタデータ) (2023-11-07T23:46:41Z) - Perspective-aware Convolution for Monocular 3D Object Detection [2.33877878310217]
画像の長距離依存性をキャプチャする新しい視点対応畳み込み層を提案する。
画像画素ごとの深度軸に沿った特徴を抽出するために畳み込みカーネルを強制することにより、パースペクティブ情報をネットワークアーキテクチャに組み込む。
我々は、KITTI3Dデータセットの性能向上を実証し、簡単なベンチマークで平均23.9%の精度を達成した。
論文 参考訳(メタデータ) (2023-08-24T17:25:36Z) - PillarNeXt: Rethinking Network Designs for 3D Object Detection in LiDAR
Point Clouds [29.15589024703907]
本稿では,計算資源の割り当ての観点から,局所的な点集合体を再考する。
最も単純な柱ベースのモデルは、精度とレイテンシの両方を考慮して驚くほどよく機能することがわかった。
本研究は,3次元物体検出の高性能化のために,詳細な幾何学的モデリングが不可欠である,という一般的な直観に挑戦する。
論文 参考訳(メタデータ) (2023-05-08T17:59:14Z) - Surface-biased Multi-Level Context 3D Object Detection [1.9723551683930771]
本研究は,高効率表面偏光特性抽出法(wang2022rbgnet)を用いて3次元点雲中の物体検出タスクに対処する。
本稿では,オブジェクト候補の正確な特徴表現を抽出し,点パッチやオブジェクト候補,グローバルシーンにおける自己注意を活用する3Dオブジェクト検出手法を提案する。
論文 参考訳(メタデータ) (2023-02-13T11:50:04Z) - AGO-Net: Association-Guided 3D Point Cloud Object Detection Network [86.10213302724085]
ドメイン適応によるオブジェクトの無傷な特徴を関連付ける新しい3D検出フレームワークを提案する。
我々は,KITTIの3D検出ベンチマークにおいて,精度と速度の両面で最新の性能を実現する。
論文 参考訳(メタデータ) (2022-08-24T16:54:38Z) - RBGNet: Ray-based Grouping for 3D Object Detection [104.98776095895641]
本稿では,点雲からの正確な3次元物体検出のための投票型3次元検出器RBGNetフレームワークを提案する。
決定された光線群を用いて物体表面上の点方向の特徴を集約する。
ScanNet V2 と SUN RGB-D による最先端の3D 検出性能を実現する。
論文 参考訳(メタデータ) (2022-04-05T14:42:57Z) - SASA: Semantics-Augmented Set Abstraction for Point-based 3D Object
Detection [78.90102636266276]
SASA(Semantics-Augmented Set Abstraction)と呼ばれる新しい集合抽象化手法を提案する。
そこで本研究では, 推定点前景スコアに基づいて, より重要な前景点の維持を支援するセマンティックス誘導点サンプリングアルゴリズムを提案する。
実際には、SASAは、前景オブジェクトに関連する貴重な点を識別し、ポイントベースの3D検出のための特徴学習を改善するのに有効である。
論文 参考訳(メタデータ) (2022-01-06T08:54:47Z) - HVPR: Hybrid Voxel-Point Representation for Single-stage 3D Object
Detection [39.64891219500416]
3Dオブジェクト検出手法は、シーン内の3Dオブジェクトを表現するために、ボクセルベースまたはポイントベースの特徴を利用する。
本稿では,voxelベースとポイントベースの両方の特徴を有する,新しい単段3次元検出手法を提案する。
論文 参考訳(メタデータ) (2021-04-02T06:34:49Z) - Improving Point Cloud Semantic Segmentation by Learning 3D Object
Detection [102.62963605429508]
ポイントクラウドセマンティックセグメンテーションは、自動運転において重要な役割を果たす。
現在の3Dセマンティックセグメンテーションネットワークは、よく表現されたクラスに対して優れた性能を発揮する畳み込みアーキテクチャに焦点を当てている。
Aware 3D Semantic Detection (DASS) フレームワークを提案する。
論文 参考訳(メタデータ) (2020-09-22T14:17:40Z) - InfoFocus: 3D Object Detection for Autonomous Driving with Dynamic
Information Modeling [65.47126868838836]
動的情報モデリングを用いた新しい3次元オブジェクト検出フレームワークを提案する。
粗い予測は、ボクセルベースの領域提案ネットワークを介して第1段階で生成される。
大規模なnuScenes 3D検出ベンチマークで実験を行った。
論文 参考訳(メタデータ) (2020-07-16T18:27:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。