論文の概要: Point Density-Aware Voxels for LiDAR 3D Object Detection
- arxiv url: http://arxiv.org/abs/2203.05662v1
- Date: Thu, 10 Mar 2022 22:11:06 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-14 13:11:59.699867
- Title: Point Density-Aware Voxels for LiDAR 3D Object Detection
- Title(参考訳): LiDAR3次元物体検出のための点密度対応ボクセル
- Authors: Jordan S. K. Hu, Tianshu Kuai, Steven L. Waslander
- Abstract要約: Point Density-Aware Voxel Network (PDV) は、2段階のLiDAR 3Dオブジェクト検出アーキテクチャである。
PDVは、3Dスパースバックボーンからボクセル点セントロイドを介して効率的にボクセル特徴を局在させる。
PDVはOpenデータセットのすべての最先端メソッドより優れています。
- 参考スコア(独自算出の注目度): 8.136649838488042
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: LiDAR has become one of the primary 3D object detection sensors in autonomous
driving. However, LiDAR's diverging point pattern with increasing distance
results in a non-uniform sampled point cloud ill-suited to discretized
volumetric feature extraction. Current methods either rely on voxelized point
clouds or use inefficient farthest point sampling to mitigate detrimental
effects caused by density variation but largely ignore point density as a
feature and its predictable relationship with distance from the LiDAR sensor.
Our proposed solution, Point Density-Aware Voxel network (PDV), is an
end-to-end two stage LiDAR 3D object detection architecture that is designed to
account for these point density variations. PDV efficiently localizes voxel
features from the 3D sparse convolution backbone through voxel point centroids.
The spatially localized voxel features are then aggregated through a
density-aware RoI grid pooling module using kernel density estimation (KDE) and
self-attention with point density positional encoding. Finally, we exploit
LiDAR's point density to distance relationship to refine our final bounding box
confidences. PDV outperforms all state-of-the-art methods on the Waymo Open
Dataset and achieves competitive results on the KITTI dataset. We provide a
code release for PDV which is available at https://github.com/TRAILab/PDV.
- Abstract(参考訳): LiDARは、自動運転における主要な3Dオブジェクト検出センサーの1つとなっている。
しかし、LiDARの発散点パターンは距離が大きくなると、離散化された体積特徴抽出に不適な一様サンプル点雲が生じる。
現在の方法では、酸素化点雲に依存するか、密度変化による有害な影響を緩和するために非効率な極端点サンプリングを用いるが、特徴としての点密度とLiDARセンサからの距離との予測可能な関係をほとんど無視する。
提案手法であるポイント密度認識Voxel Network (PDV) は,これらの点密度の変動を考慮した2段階のLiDARオブジェクト検出アーキテクチャである。
pdvは3dスパース畳み込みバックボーンからvoxel点センタロイドを介してvoxel機能を効率的にローカライズする。
空間的局所化されたボクセル特徴は、カーネル密度推定(KDE)と点密度位置符号化による自己アテンションを用いて密度対応のRoIグリッドプーリングモジュールを介して集約される。
最後に、LDARの点密度を距離関係に利用して、最終的な境界ボックスの信頼性を向上する。
PDVはWaymo Open Datasetのすべての最先端メソッドを上回り、KITTIデータセット上での競合的な結果を達成する。
PDVのコードリリースはhttps://github.com/TRAILab/PDVで公開しています。
関連論文リスト
- Sparse-to-Dense LiDAR Point Generation by LiDAR-Camera Fusion for 3D Object Detection [9.076003184833557]
2D画像特徴を融合させてLiDARポイントクラウドデータを再構成する新しいフレームワークであるLiDAR-Camera Augmentation Network (LCANet)を提案する。
LCANetは、画像特徴を3D空間に投影し、意味情報をポイントクラウドデータに統合することで、LiDARセンサーからのデータを融合する。
この融合は、しばしばスパースポイントで表される長距離物体の検出におけるLiDARの弱点を効果的に補う。
論文 参考訳(メタデータ) (2024-09-23T13:03:31Z) - PointOcc: Cylindrical Tri-Perspective View for Point-based 3D Semantic
Occupancy Prediction [72.75478398447396]
本稿では,点雲を効果的かつ包括的に表現する円筒型三重対視図を提案する。
また,LiDAR点雲の距離分布を考慮し,円筒座標系における三点ビューを構築した。
プロジェクション中に構造の詳細を維持するために空間群プーリングを使用し、各TPV平面を効率的に処理するために2次元バックボーンを採用する。
論文 参考訳(メタデータ) (2023-08-31T17:57:17Z) - Semantic Segmentation on 3D Point Clouds with High Density Variations [44.467561618769714]
HDVNetにはネストしたエンコーダとデコーダの経路があり、それぞれが特定の点密度範囲を扱う。
入力密度の変動を効果的に処理することにより、HDVNetは、非一貫性密度の実点雲上でのセグメンテーション精度において最先端のモデルより優れる。
論文 参考訳(メタデータ) (2023-07-04T05:44:13Z) - Improving LiDAR 3D Object Detection via Range-based Point Cloud Density
Optimization [13.727464375608765]
既存の3Dオブジェクト検出器は、遠くにある領域とは対照的に、LiDARセンサーに近い点雲領域でよく機能する傾向にある。
センサ近傍の高密度物体に対する検出モデルには学習バイアスがあり、異なる距離で入力点雲密度を操作するだけで検出性能を向上させることができることを示す。
論文 参考訳(メタデータ) (2023-06-09T04:11:43Z) - Voxel or Pillar: Exploring Efficient Point Cloud Representation for 3D
Object Detection [49.324070632356296]
我々は3次元および2次元のスパース畳み込みにより点雲をボクセルと柱の特徴に符号化するスパース・ボクセル・ピラーエンコーダを開発した。
我々の効率的で完全なスパース法は、密度検出器とスパース検出器の両方にシームレスに統合できる。
論文 参考訳(メタデータ) (2023-04-06T05:00:58Z) - Sparse2Dense: Learning to Densify 3D Features for 3D Object Detection [85.08249413137558]
LiDARが生成する点雲は、最先端の3Dオブジェクト検出器の主要な情報源である。
小さい、遠く、不完全な点の少ない物体は、しばしば検出するのが困難である。
Sparse2Denseは、潜在空間における点雲の密度化を学習することで、3D検出性能を効率的に向上する新しいフレームワークである。
論文 参考訳(メタデータ) (2022-11-23T16:01:06Z) - On Robust Cross-View Consistency in Self-Supervised Monocular Depth Estimation [56.97699793236174]
本論文では,2種類の堅牢なクロスビュー整合性について検討する。
深度特徴空間と3次元ボクセル空間の時間的コヒーレンスを自己教師付き単眼深度推定に利用した。
いくつかのアウトドアベンチマークの実験結果から,本手法は最先端技術より優れていることが示された。
論文 参考訳(メタデータ) (2022-09-19T03:46:13Z) - Fully Sparse 3D Object Detection [57.05834683261658]
長距離LiDARオブジェクト検出のためのフルスパース3Dオブジェクト検出器(FSD)を構築した。
FSDは一般的なスパース・ボクセル・エンコーダと新しいスパース・インスタンス認識(SIR)モジュール上に構築されている。
SIRは、ポイントをインスタンスにグループ化することで、以前のポイントベースのメソッドでの待ち行列クエリを避ける。
論文 参考訳(メタデータ) (2022-07-20T17:01:33Z) - RAANet: Range-Aware Attention Network for LiDAR-based 3D Object
Detection with Auxiliary Density Level Estimation [11.180128679075716]
自律運転のためのLiDARデータから3Dオブジェクトを検出するために,Range-Aware Attention Network (RAANet) が開発された。
RAANetはより強力なBEV機能を抽出し、優れた3Dオブジェクト検出を生成する。
nuScenesデータセットの実験により,提案手法がLiDARを用いた3Dオブジェクト検出の最先端手法より優れていることが示された。
論文 参考訳(メタデータ) (2021-11-18T04:20:13Z) - DV-Det: Efficient 3D Point Cloud Object Detection with Dynamic
Voxelization [0.0]
本稿では,効率的な3Dポイント・クラウド・オブジェクト検出のための新しい2段階フレームワークを提案する。
生のクラウドデータを3D空間で直接解析するが、目覚ましい効率と精度を実現する。
我々は,75 FPSでKITTI 3Dオブジェクト検出データセットを,25 FPSの推論速度で良好な精度でOpenデータセット上で強調する。
論文 参考訳(メタデータ) (2021-07-27T10:07:39Z) - Cylindrical and Asymmetrical 3D Convolution Networks for LiDAR
Segmentation [81.02742110604161]
大規模運転シーンのLiDARセグメンテーションのための最先端の手法は、しばしば点雲を2次元空間に投影し、2D畳み込みによって処理する。
そこで我々は,3次元幾何学的パタンを探索するために,円筒分割と非対称な3次元畳み込みネットワークを設計する,屋外LiDARセグメンテーションのための新しいフレームワークを提案する。
提案手法はセマンティックKITTIのリーダーボードにおいて第1位を獲得し,既存のnuScenesの手法を約4%のマージンで上回っている。
論文 参考訳(メタデータ) (2020-11-19T18:53:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。