論文の概要: DV-Det: Efficient 3D Point Cloud Object Detection with Dynamic
Voxelization
- arxiv url: http://arxiv.org/abs/2107.12707v1
- Date: Tue, 27 Jul 2021 10:07:39 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-28 21:52:16.401113
- Title: DV-Det: Efficient 3D Point Cloud Object Detection with Dynamic
Voxelization
- Title(参考訳): DV-Det:動的ボクセル化による効率的な3Dポイントクラウドオブジェクト検出
- Authors: Zhaoyu Su, Pin Siang Tan, Yu-Hsing Wang
- Abstract要約: 本稿では,効率的な3Dポイント・クラウド・オブジェクト検出のための新しい2段階フレームワークを提案する。
生のクラウドデータを3D空間で直接解析するが、目覚ましい効率と精度を実現する。
我々は,75 FPSでKITTI 3Dオブジェクト検出データセットを,25 FPSの推論速度で良好な精度でOpenデータセット上で強調する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this work, we propose a novel two-stage framework for the efficient 3D
point cloud object detection. Instead of transforming point clouds into 2D bird
eye view projections, we parse the raw point cloud data directly in the 3D
space yet achieve impressive efficiency and accuracy. To achieve this goal, we
propose dynamic voxelization, a method that voxellizes points at local scale
on-the-fly. By doing so, we preserve the point cloud geometry with 3D voxels,
and therefore waive the dependence on expensive MLPs to learn from point
coordinates. On the other hand, we inherently still follow the same processing
pattern as point-wise methods (e.g., PointNet) and no longer suffer from the
quantization issue like conventional convolutions. For further speed
optimization, we propose the grid-based downsampling and voxelization method,
and provide different CUDA implementations to accommodate to the discrepant
requirements during training and inference phases. We highlight our efficiency
on KITTI 3D object detection dataset with 75 FPS and on Waymo Open dataset with
25 FPS inference speed with satisfactory accuracy.
- Abstract(参考訳): 本研究では,効率的な3次元クラウドオブジェクト検出のための新しい2段階フレームワークを提案する。
ポイントクラウドを2dのバードアイビュープロジェクションに変換する代わりに、生のポイントクラウドデータを3d空間で直接解析し、優れた効率と精度を実現します。
この目的を達成するために,局所スケールでの点のボクセル化手法である動的ボクセル化を提案する。
これにより、3次元ボクセルで点雲の幾何学を保ち、したがって点座標から学ぶために高価なMLPへの依存を和らげる。
一方,我々は本来,ポイントワイズ法(例えばポイントネット)と同じ処理パターンに従い,従来の畳み込みのような量子化問題にもはや苦しむことはない。
さらなる速度最適化のために,グリッドを用いたダウンサンプリングとボキセル化手法を提案し,トレーニングおよび推論フェーズにおいて,異なるCUDA実装を提供する。
我々は,75 FPSのKITTI 3Dオブジェクト検出データセットと,25 FPSの推論速度で良好な精度でWaymo Openデータセットに注目する。
関連論文リスト
- FASTC: A Fast Attentional Framework for Semantic Traversability Classification Using Point Cloud [7.711666704468952]
点雲を用いたトラバーサビリティ評価の問題に対処する。
本稿では,垂直に配置された点雲から特徴を捉えるために PointNet を利用した柱状特徴抽出モジュールを提案する。
次に、LIDAR点雲の密度問題に適切に対応できる多フレーム情報を融合する新しい時間的アテンションモジュールを提案する。
論文 参考訳(メタデータ) (2024-06-24T12:01:55Z) - Dynamic 3D Point Cloud Sequences as 2D Videos [81.46246338686478]
3Dポイントクラウドシーケンスは、現実世界の環境における最も一般的で実用的な表現の1つとして機能する。
textitStructured Point Cloud Videos (SPCV) と呼ばれる新しい汎用表現を提案する。
SPCVは点雲列を空間的滑らかさと時間的一貫性を持つ2Dビデオとして再編成し、画素値は点の3D座標に対応する。
論文 参考訳(メタデータ) (2024-03-02T08:18:57Z) - Test-Time Augmentation for 3D Point Cloud Classification and
Segmentation [40.62640761825697]
データ拡張は、ディープラーニングタスクのパフォーマンスを向上させるための強力なテクニックである。
本研究は,3次元点雲に対するTTA(Test-time augmentation)について検討する。
論文 参考訳(メタデータ) (2023-11-22T04:31:09Z) - PointOcc: Cylindrical Tri-Perspective View for Point-based 3D Semantic
Occupancy Prediction [72.75478398447396]
本稿では,点雲を効果的かつ包括的に表現する円筒型三重対視図を提案する。
また,LiDAR点雲の距離分布を考慮し,円筒座標系における三点ビューを構築した。
プロジェクション中に構造の詳細を維持するために空間群プーリングを使用し、各TPV平面を効率的に処理するために2次元バックボーンを採用する。
論文 参考訳(メタデータ) (2023-08-31T17:57:17Z) - IDEA-Net: Dynamic 3D Point Cloud Interpolation via Deep Embedding
Alignment [58.8330387551499]
我々は、点方向軌跡(すなわち滑らかな曲線)の推定として問題を定式化する。
本稿では,学習した時間的一貫性の助けを借りて問題を解消する,エンドツーエンドのディープラーニングフレームワークであるIDEA-Netを提案する。
各種点群における本手法の有効性を実証し, 定量的かつ視覚的に, 最先端の手法に対する大幅な改善を観察する。
論文 参考訳(メタデータ) (2022-03-22T10:14:08Z) - Spherical Interpolated Convolutional Network with Distance-Feature
Density for 3D Semantic Segmentation of Point Clouds [24.85151376535356]
従来のグリッド形状の3次元畳み込み演算子を置き換えるために,球面補間畳み込み演算子を提案する。
提案手法は,ScanNetデータセットとParis-Lille-3Dデータセットで良好な性能を示す。
論文 参考訳(メタデータ) (2020-11-27T15:35:12Z) - Multi Projection Fusion for Real-time Semantic Segmentation of 3D LiDAR
Point Clouds [2.924868086534434]
本稿では,ポイントクラウドの複数のプロジェクションを利用する3次元ポイントクラウドセマンティックセマンティックセマンティクスの新しいアプローチを提案する。
我々のMulti-Projection Fusionフレームワークは、2つの異なる高効率2次元完全畳み込みモデルを用いて球面および鳥眼の視射影を解析する。
論文 参考訳(メタデータ) (2020-11-03T19:40:43Z) - DV-ConvNet: Fully Convolutional Deep Learning on Point Clouds with
Dynamic Voxelization and 3D Group Convolution [0.7340017786387767]
3次元点雲の解釈は、成分点のランダム性と空間性のために難しい課題である。
本研究では,効率的な3Dポイントクラウド解釈に向けて,標準的な3Dコンボリューションに注意を向ける。
我々のネットワークは、非常に高速に動作し、収束することができるが、いくつかのベンチマークデータセットの最先端の手法と比較して、オンパーまたはさらにパフォーマンスが向上する。
論文 参考訳(メタデータ) (2020-09-07T07:45:05Z) - Reinforced Axial Refinement Network for Monocular 3D Object Detection [160.34246529816085]
モノクロ3次元物体検出は、2次元入力画像から物体の位置と特性を抽出することを目的としている。
従来のアプローチでは、空間から3D境界ボックスをサンプリングし、対象オブジェクトと各オブジェクトの関係を推定するが、有効サンプルの確率は3D空間で比較的小さい。
我々は,まず最初の予測から始めて,各ステップで1つの3dパラメータだけを変えて,基礎的真理に向けて徐々に洗練することを提案する。
これは、いくつかのステップの後に報酬を得るポリシーを設計する必要があるため、最適化するために強化学習を採用します。
論文 参考訳(メタデータ) (2020-08-31T17:10:48Z) - Cylinder3D: An Effective 3D Framework for Driving-scene LiDAR Semantic
Segmentation [87.54570024320354]
大規模運転シーンのLiDARセマンティックセマンティックセグメンテーションのための最先端の手法は、しばしば2D空間の点雲を投影して処理する。
3D-to-2Dプロジェクションの問題に取り組むための簡単な解決策は、3D表現を保ち、3D空間の点を処理することである。
我々は3次元シリンダー分割と3次元シリンダー畳み込みに基づくフレームワークをCylinder3Dとして開発し,3次元トポロジの関係と運転シーンの点雲の構造を利用する。
論文 参考訳(メタデータ) (2020-08-04T13:56:19Z) - InfoFocus: 3D Object Detection for Autonomous Driving with Dynamic
Information Modeling [65.47126868838836]
動的情報モデリングを用いた新しい3次元オブジェクト検出フレームワークを提案する。
粗い予測は、ボクセルベースの領域提案ネットワークを介して第1段階で生成される。
大規模なnuScenes 3D検出ベンチマークで実験を行った。
論文 参考訳(メタデータ) (2020-07-16T18:27:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。