論文の概要: Cylindrical and Asymmetrical 3D Convolution Networks for LiDAR-based
Perception
- arxiv url: http://arxiv.org/abs/2109.05441v1
- Date: Sun, 12 Sep 2021 06:25:11 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-14 15:39:08.227273
- Title: Cylindrical and Asymmetrical 3D Convolution Networks for LiDAR-based
Perception
- Title(参考訳): LiDARに基づく知覚のための円筒・非対称3次元畳み込みネットワーク
- Authors: Xinge Zhu, Hui Zhou, Tai Wang, Fangzhou Hong, Wei Li, Yuexin Ma,
Hongsheng Li, Ruigang Yang, Dahua Lin
- Abstract要約: 運転時のLiDARに基づく認識のための最先端の手法は、しばしば点雲を2D空間に投影し、2D畳み込みによって処理する。
自然な対策として、3Dボクセル化と3D畳み込みネットワークを利用する方法がある。
本研究では,3次元幾何学的パターンを探索するために,円筒状分割と非対称な3次元畳み込みネットワークを設計する,屋外LiDARセグメンテーションのための新しいフレームワークを提案する。
- 参考スコア(独自算出の注目度): 122.53774221136193
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: State-of-the-art methods for driving-scene LiDAR-based perception (including
point cloud semantic segmentation, panoptic segmentation and 3D detection,
\etc) often project the point clouds to 2D space and then process them via 2D
convolution. Although this cooperation shows the competitiveness in the point
cloud, it inevitably alters and abandons the 3D topology and geometric
relations. A natural remedy is to utilize the 3D voxelization and 3D
convolution network. However, we found that in the outdoor point cloud, the
improvement obtained in this way is quite limited. An important reason is the
property of the outdoor point cloud, namely sparsity and varying density.
Motivated by this investigation, we propose a new framework for the outdoor
LiDAR segmentation, where cylindrical partition and asymmetrical 3D convolution
networks are designed to explore the 3D geometric pattern while maintaining
these inherent properties. The proposed model acts as a backbone and the
learned features from this model can be used for downstream tasks such as point
cloud semantic and panoptic segmentation or 3D detection. In this paper, we
benchmark our model on these three tasks. For semantic segmentation, we
evaluate the proposed model on several large-scale datasets, \ie,
SemanticKITTI, nuScenes and A2D2. Our method achieves the state-of-the-art on
the leaderboard of SemanticKITTI (both single-scan and multi-scan challenge),
and significantly outperforms existing methods on nuScenes and A2D2 dataset.
Furthermore, the proposed 3D framework also shows strong performance and good
generalization on LiDAR panoptic segmentation and LiDAR 3D detection.
- Abstract(参考訳): 最先端のLiDARベースの認識(ポイントクラウドセマンティックセグメンテーション、パン光学セグメンテーション、および3D検出を含む)のための最先端の方法は、しばしばポイントクラウドを2D空間に投影し、2D畳み込みによって処理する。
この協力は点雲の競合性を示しているが、必然的に3Dトポロジーと幾何学的関係を変更・放棄する。
3次元ボクセル化と3次元畳み込みネットワークを利用するのが自然な方法である。
しかし、屋外の点雲では、このような方法で得られる改善は極めて限られていることがわかった。
重要な理由は、屋外の点雲の性質、すなわち空間密度と密度の変化である。
そこで本研究では, 円筒状分割と非対称な3次元畳み込みネットワークを設計し, これらの特性を維持しながら3次元幾何学的パターンを探索する, 屋外LiDARセグメンテーションのための新しい枠組みを提案する。
提案モデルはバックボーンとして機能し,このモデルから得られた特徴は,ポイントクラウドセマンティックスやパンプトセグメンテーション,あるいは3D検出などの下流タスクに利用できる。
本稿では,これら3つのタスクについて,モデルの評価を行う。
セマンティックセグメンテーションでは,いくつかの大規模データセット,Shaie,SemanticKITTI,nuScenes,A2D2で提案したモデルを評価する。
提案手法は,SemanticKITTI(シングルスキャンとマルチスキャンの両課題)のリーダボード上での最先端化を実現し,nuScenesとA2D2データセットの既存手法を著しく上回っている。
さらに,提案する3dフレームワークは,lidar panopticセグメンテーションとlidar 3d検出において高い性能と優れた一般化を示す。
関連論文リスト
- Bidirectional Propagation for Cross-Modal 3D Object Detection [53.89242981791315]
本稿では,2次元画像枝に逆向きに特徴を流すことができる反対の点対画素方向を提案する。
2Dおよび3Dストリームを共同最適化する場合、2Dイメージブランチからバックプロパゲーションされた勾配は、3Dバックボーンネットワークの表現能力を高めることができる。
アーキテクチャ設計に加えて,2次元イメージブランチのトレーニングのための新しい2次元補助タスクである局所座標マップの正規化も提案する。
論文 参考訳(メタデータ) (2023-01-22T08:26:58Z) - Flattening-Net: Deep Regular 2D Representation for 3D Point Cloud
Analysis [66.49788145564004]
我々は、任意の幾何学と位相の不規則な3次元点雲を表現するために、Flattning-Netと呼ばれる教師なしのディープニューラルネットワークを提案する。
我々の手法は、現在の最先端の競合相手に対して好意的に機能する。
論文 参考訳(メタデータ) (2022-12-17T15:05:25Z) - S3CNet: A Sparse Semantic Scene Completion Network for LiDAR Point
Clouds [0.16799377888527683]
S3CNetはスパース畳み込みに基づくニューラルネットワークで、単一で統一されたLiDARポイントクラウドからセマンティックに完了したシーンを予測する。
提案手法は,Semantic KITTI ベンチマークを用いて,3次元課題における全ての課題に対して優れることを示す。
論文 参考訳(メタデータ) (2020-12-16T20:14:41Z) - ParaNet: Deep Regular Representation for 3D Point Clouds [62.81379889095186]
ParaNetは、3Dポイントクラウドを表現するための新しいエンドツーエンドのディープラーニングフレームワークである。
不規則な3D点雲を通常の2Dカラー画像に変換する。
多視点投影とボキセル化に基づく従来の正規表現法とは異なり、提案した表現は微分可能で可逆である。
論文 参考訳(メタデータ) (2020-12-05T13:19:55Z) - Exploring Deep 3D Spatial Encodings for Large-Scale 3D Scene
Understanding [19.134536179555102]
生の3次元点雲の空間的特徴を非方向性グラフモデルに符号化することで,CNNに基づくアプローチの限界を克服する代替手法を提案する。
提案手法は、訓練時間とモデル安定性を改善して、最先端の精度で達成し、さらなる研究の可能性を示す。
論文 参考訳(メタデータ) (2020-11-29T12:56:19Z) - Cylindrical and Asymmetrical 3D Convolution Networks for LiDAR
Segmentation [81.02742110604161]
大規模運転シーンのLiDARセグメンテーションのための最先端の手法は、しばしば点雲を2次元空間に投影し、2D畳み込みによって処理する。
そこで我々は,3次元幾何学的パタンを探索するために,円筒分割と非対称な3次元畳み込みネットワークを設計する,屋外LiDARセグメンテーションのための新しいフレームワークを提案する。
提案手法はセマンティックKITTIのリーダーボードにおいて第1位を獲得し,既存のnuScenesの手法を約4%のマージンで上回っている。
論文 参考訳(メタデータ) (2020-11-19T18:53:11Z) - Cylinder3D: An Effective 3D Framework for Driving-scene LiDAR Semantic
Segmentation [87.54570024320354]
大規模運転シーンのLiDARセマンティックセマンティックセグメンテーションのための最先端の手法は、しばしば2D空間の点雲を投影して処理する。
3D-to-2Dプロジェクションの問題に取り組むための簡単な解決策は、3D表現を保ち、3D空間の点を処理することである。
我々は3次元シリンダー分割と3次元シリンダー畳み込みに基づくフレームワークをCylinder3Dとして開発し,3次元トポロジの関係と運転シーンの点雲の構造を利用する。
論文 参考訳(メタデータ) (2020-08-04T13:56:19Z) - Weakly Supervised Semantic Segmentation in 3D Graph-Structured Point
Clouds of Wild Scenes [36.07733308424772]
3Dセグメンテーションラベルの欠如は、効率的な点雲セグメンテーションの主な障害の1つである。
本稿では,2D のみを監督する点群における大規模セマンティックシーンセグメンテーションのための,新しいディープグラフ畳み込みネットワークフレームワークを提案する。
論文 参考訳(メタデータ) (2020-04-26T23:02:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。