論文の概要: Cylindrical and Asymmetrical 3D Convolution Networks for LiDAR-based
Perception
- arxiv url: http://arxiv.org/abs/2109.05441v1
- Date: Sun, 12 Sep 2021 06:25:11 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-14 15:39:08.227273
- Title: Cylindrical and Asymmetrical 3D Convolution Networks for LiDAR-based
Perception
- Title(参考訳): LiDARに基づく知覚のための円筒・非対称3次元畳み込みネットワーク
- Authors: Xinge Zhu, Hui Zhou, Tai Wang, Fangzhou Hong, Wei Li, Yuexin Ma,
Hongsheng Li, Ruigang Yang, Dahua Lin
- Abstract要約: 運転時のLiDARに基づく認識のための最先端の手法は、しばしば点雲を2D空間に投影し、2D畳み込みによって処理する。
自然な対策として、3Dボクセル化と3D畳み込みネットワークを利用する方法がある。
本研究では,3次元幾何学的パターンを探索するために,円筒状分割と非対称な3次元畳み込みネットワークを設計する,屋外LiDARセグメンテーションのための新しいフレームワークを提案する。
- 参考スコア(独自算出の注目度): 122.53774221136193
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: State-of-the-art methods for driving-scene LiDAR-based perception (including
point cloud semantic segmentation, panoptic segmentation and 3D detection,
\etc) often project the point clouds to 2D space and then process them via 2D
convolution. Although this cooperation shows the competitiveness in the point
cloud, it inevitably alters and abandons the 3D topology and geometric
relations. A natural remedy is to utilize the 3D voxelization and 3D
convolution network. However, we found that in the outdoor point cloud, the
improvement obtained in this way is quite limited. An important reason is the
property of the outdoor point cloud, namely sparsity and varying density.
Motivated by this investigation, we propose a new framework for the outdoor
LiDAR segmentation, where cylindrical partition and asymmetrical 3D convolution
networks are designed to explore the 3D geometric pattern while maintaining
these inherent properties. The proposed model acts as a backbone and the
learned features from this model can be used for downstream tasks such as point
cloud semantic and panoptic segmentation or 3D detection. In this paper, we
benchmark our model on these three tasks. For semantic segmentation, we
evaluate the proposed model on several large-scale datasets, \ie,
SemanticKITTI, nuScenes and A2D2. Our method achieves the state-of-the-art on
the leaderboard of SemanticKITTI (both single-scan and multi-scan challenge),
and significantly outperforms existing methods on nuScenes and A2D2 dataset.
Furthermore, the proposed 3D framework also shows strong performance and good
generalization on LiDAR panoptic segmentation and LiDAR 3D detection.
- Abstract(参考訳): 最先端のLiDARベースの認識(ポイントクラウドセマンティックセグメンテーション、パン光学セグメンテーション、および3D検出を含む)のための最先端の方法は、しばしばポイントクラウドを2D空間に投影し、2D畳み込みによって処理する。
この協力は点雲の競合性を示しているが、必然的に3Dトポロジーと幾何学的関係を変更・放棄する。
3次元ボクセル化と3次元畳み込みネットワークを利用するのが自然な方法である。
しかし、屋外の点雲では、このような方法で得られる改善は極めて限られていることがわかった。
重要な理由は、屋外の点雲の性質、すなわち空間密度と密度の変化である。
そこで本研究では, 円筒状分割と非対称な3次元畳み込みネットワークを設計し, これらの特性を維持しながら3次元幾何学的パターンを探索する, 屋外LiDARセグメンテーションのための新しい枠組みを提案する。
提案モデルはバックボーンとして機能し,このモデルから得られた特徴は,ポイントクラウドセマンティックスやパンプトセグメンテーション,あるいは3D検出などの下流タスクに利用できる。
本稿では,これら3つのタスクについて,モデルの評価を行う。
セマンティックセグメンテーションでは,いくつかの大規模データセット,Shaie,SemanticKITTI,nuScenes,A2D2で提案したモデルを評価する。
提案手法は,SemanticKITTI(シングルスキャンとマルチスキャンの両課題)のリーダボード上での最先端化を実現し,nuScenesとA2D2データセットの既存手法を著しく上回っている。
さらに,提案する3dフレームワークは,lidar panopticセグメンテーションとlidar 3d検出において高い性能と優れた一般化を示す。
関連論文リスト
- Dynamic 3D Point Cloud Sequences as 2D Videos [81.46246338686478]
3Dポイントクラウドシーケンスは、現実世界の環境における最も一般的で実用的な表現の1つとして機能する。
textitStructured Point Cloud Videos (SPCV) と呼ばれる新しい汎用表現を提案する。
SPCVは点雲列を空間的滑らかさと時間的一貫性を持つ2Dビデオとして再編成し、画素値は点の3D座標に対応する。
論文 参考訳(メタデータ) (2024-03-02T08:18:57Z) - DatasetNeRF: Efficient 3D-aware Data Factory with Generative Radiance Fields [68.94868475824575]
本稿では,無限で高品質な3Dアノテーションを3Dポイントクラウドセグメンテーションとともに生成できる新しいアプローチを提案する。
我々は3次元生成モデルに先立って強力なセマンティクスを活用してセマンティクスデコーダを訓練する。
トレーニングが完了すると、デコーダは遅延空間を効率よく一般化し、無限のデータの生成を可能にする。
論文 参考訳(メタデータ) (2023-11-18T21:58:28Z) - Leveraging Large-Scale Pretrained Vision Foundation Models for
Label-Efficient 3D Point Cloud Segmentation [67.07112533415116]
本稿では3Dポイントクラウドセグメンテーションタスクに様々な基礎モデルを適用する新しいフレームワークを提案する。
我々のアプローチでは、異なる大きな視覚モデルを用いて2次元セマンティックマスクの初期予測を行う。
本研究では,ロバストな3Dセマンティックな擬似ラベルを生成するために,投票による全ての結果を効果的に組み合わせたセマンティックなラベル融合戦略を提案する。
論文 参考訳(メタデータ) (2023-11-03T15:41:15Z) - S3CNet: A Sparse Semantic Scene Completion Network for LiDAR Point
Clouds [0.16799377888527683]
S3CNetはスパース畳み込みに基づくニューラルネットワークで、単一で統一されたLiDARポイントクラウドからセマンティックに完了したシーンを予測する。
提案手法は,Semantic KITTI ベンチマークを用いて,3次元課題における全ての課題に対して優れることを示す。
論文 参考訳(メタデータ) (2020-12-16T20:14:41Z) - Exploring Deep 3D Spatial Encodings for Large-Scale 3D Scene
Understanding [19.134536179555102]
生の3次元点雲の空間的特徴を非方向性グラフモデルに符号化することで,CNNに基づくアプローチの限界を克服する代替手法を提案する。
提案手法は、訓練時間とモデル安定性を改善して、最先端の精度で達成し、さらなる研究の可能性を示す。
論文 参考訳(メタデータ) (2020-11-29T12:56:19Z) - Cylindrical and Asymmetrical 3D Convolution Networks for LiDAR
Segmentation [81.02742110604161]
大規模運転シーンのLiDARセグメンテーションのための最先端の手法は、しばしば点雲を2次元空間に投影し、2D畳み込みによって処理する。
そこで我々は,3次元幾何学的パタンを探索するために,円筒分割と非対称な3次元畳み込みネットワークを設計する,屋外LiDARセグメンテーションのための新しいフレームワークを提案する。
提案手法はセマンティックKITTIのリーダーボードにおいて第1位を獲得し,既存のnuScenesの手法を約4%のマージンで上回っている。
論文 参考訳(メタデータ) (2020-11-19T18:53:11Z) - Cylinder3D: An Effective 3D Framework for Driving-scene LiDAR Semantic
Segmentation [87.54570024320354]
大規模運転シーンのLiDARセマンティックセマンティックセグメンテーションのための最先端の手法は、しばしば2D空間の点雲を投影して処理する。
3D-to-2Dプロジェクションの問題に取り組むための簡単な解決策は、3D表現を保ち、3D空間の点を処理することである。
我々は3次元シリンダー分割と3次元シリンダー畳み込みに基づくフレームワークをCylinder3Dとして開発し,3次元トポロジの関係と運転シーンの点雲の構造を利用する。
論文 参考訳(メタデータ) (2020-08-04T13:56:19Z) - Pointwise Attention-Based Atrous Convolutional Neural Networks [15.499267533387039]
多数の点を効率的に扱うために,注目度に基づくアトラス畳み込みニューラルネットワークアーキテクチャを提案する。
提案モデルは,3次元セマンティックセグメンテーションタスクにおいて,最も重要な2つの3Dポイントクラウドデータセット上で評価されている。
精度の面では最先端モデルと比較して妥当な性能を達成し、パラメータの数ははるかに少ない。
論文 参考訳(メタデータ) (2019-12-27T13:12:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。