論文の概要: Sparse Single Sweep LiDAR Point Cloud Segmentation via Learning
Contextual Shape Priors from Scene Completion
- arxiv url: http://arxiv.org/abs/2012.03762v1
- Date: Mon, 7 Dec 2020 14:58:25 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-18 14:14:54.854263
- Title: Sparse Single Sweep LiDAR Point Cloud Segmentation via Learning
Contextual Shape Priors from Scene Completion
- Title(参考訳): シーン・コンプリートからの文脈形状の学習によるSparse Single Sweep LiDAR Point Cloud Segmentation
- Authors: Xu Yan, Jiantao Gao, Jie Li, Ruimao Zhang, Zhen Li, Rui Huang,
Shuguang Cui
- Abstract要約: LiDARポイントクラウド分析は、3Dコンピュータビジョン、特に自動運転のコアタスクである。
本論文では,学習したコンテキスト形状の優先度を補助する新しいLiDAR点群セマンティックセグメンテーションフレームワークを提案する。
JS3C-NetはSemanticKITTIとSemanticPOSSベンチマークの両方で優れたパフォーマンスを実現しています。
- 参考スコア(独自算出の注目度): 43.86692068523167
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: LiDAR point cloud analysis is a core task for 3D computer vision, especially
for autonomous driving. However, due to the severe sparsity and noise
interference in the single sweep LiDAR point cloud, the accurate semantic
segmentation is non-trivial to achieve. In this paper, we propose a novel
sparse LiDAR point cloud semantic segmentation framework assisted by learned
contextual shape priors. In practice, an initial semantic segmentation (SS) of
a single sweep point cloud can be achieved by any appealing network and then
flows into the semantic scene completion (SSC) module as the input. By merging
multiple frames in the LiDAR sequence as supervision, the optimized SSC module
has learned the contextual shape priors from sequential LiDAR data, completing
the sparse single sweep point cloud to the dense one. Thus, it inherently
improves SS optimization through fully end-to-end training. Besides, a
Point-Voxel Interaction (PVI) module is proposed to further enhance the
knowledge fusion between SS and SSC tasks, i.e., promoting the interaction of
incomplete local geometry of point cloud and complete voxel-wise global
structure. Furthermore, the auxiliary SSC and PVI modules can be discarded
during inference without extra burden for SS. Extensive experiments confirm
that our JS3C-Net achieves superior performance on both SemanticKITTI and
SemanticPOSS benchmarks, i.e., 4% and 3% improvement correspondingly.
- Abstract(参考訳): LiDARポイントクラウド分析は、3Dコンピュータビジョン、特に自動運転のコアタスクである。
しかし、単一スイープlidar点雲の厳しいスパーシティとノイズ干渉のため、正確な意味セグメンテーションを達成することは容易ではない。
本稿では,学習した文脈形状の先行処理を支援する,新しい疎いLiDARポイントクラウドセマンティックセマンティックセグメンテーションフレームワークを提案する。
実際には、単一のスイープポイントクラウドの最初のセマンティックセグメンテーション(SS)は、魅力的なネットワークによって達成され、入力としてセマンティックシーン補完(SSC)モジュールに流れ込む。
最適化されたSSCモジュールは、LiDARシーケンス内の複数のフレームを監視としてマージすることにより、シーケンシャルなLiDARデータからコンテキスト形状を学習し、スパースな単一スイープポイントクラウドを高密度なものに仕上げる。
したがって、完全にエンドツーエンドのトレーニングによってSS最適化を本質的に改善する。
また,ポイント・ボクセル相互作用(pvi)モジュールは,ssタスクとsscタスクの知識融合,すなわち,ポイント・クラウドの不完全局所幾何と完全なボクセル・ワイズ・グローバル構造との相互作用を促進するために提案されている。
さらに、SSを余分に負担することなく、推論中に補助SSCおよびPVIモジュールを破棄することができる。
JS3C-NetはSemanticKITTIベンチマークとSemanticPOSSベンチマークの両方で優れたパフォーマンス、すなわち4%と3%の改善を実現しています。
関連論文リスト
- FASTC: A Fast Attentional Framework for Semantic Traversability Classification Using Point Cloud [7.711666704468952]
点雲を用いたトラバーサビリティ評価の問題に対処する。
本稿では,垂直に配置された点雲から特徴を捉えるために PointNet を利用した柱状特徴抽出モジュールを提案する。
次に、LIDAR点雲の密度問題に適切に対応できる多フレーム情報を融合する新しい時間的アテンションモジュールを提案する。
論文 参考訳(メタデータ) (2024-06-24T12:01:55Z) - PointSSC: A Cooperative Vehicle-Infrastructure Point Cloud Benchmark for
Semantic Scene Completion [4.564209472726044]
Semantic Scene Completionは、複雑な3Dシーンのための空間占有とセマンティックラベルを共同で生成することを目的としている。
PointSSCは、セマンティックシーン補完のための最初の協調的な車両とインフラのポイントクラウドベンチマークである。
論文 参考訳(メタデータ) (2023-09-22T08:39:16Z) - LiDAR-Camera Panoptic Segmentation via Geometry-Consistent and
Semantic-Aware Alignment [63.83894701779067]
我々は,最初のLiDAR-Camera Panoptic NetworkであるLCPSを提案する。
提案手法では,LiDAR-Camera融合を3段階に分けて行う。
我々の融合戦略は、NuScenesデータセット上のLiDARのみのベースラインに対して、約6.9%のPQ性能を改善する。
論文 参考訳(メタデータ) (2023-08-03T10:57:58Z) - Clustering based Point Cloud Representation Learning for 3D Analysis [80.88995099442374]
本稿では,ポイントクラウド分析のためのクラスタリングに基づく教師付き学習手法を提案する。
現在のデファクトでシーンワイドなトレーニングパラダイムとは異なり、我々のアルゴリズムは点埋め込み空間上でクラス内のクラスタリングを行う。
我々のアルゴリズムは、有名なポイントクラウドセグメンテーションデータセットの顕著な改善を示している。
論文 参考訳(メタデータ) (2023-07-27T03:42:12Z) - LiDAR-based 4D Panoptic Segmentation via Dynamic Shifting Network [56.71765153629892]
本稿では,ポイントクラウド領域における効果的な単視分割フレームワークとして機能する動的シフトネットワーク(DS-Net)を提案する。
提案するDS-Netは,両タスクの現在の最先端手法よりも優れた精度を実現する。
DS-Netを4次元パノプティカルLiDARセグメンテーションに拡張し、一列のLiDARフレーム上で時間的に統一されたインスタンスクラスタリングを行う。
論文 参考訳(メタデータ) (2022-03-14T15:25:42Z) - SCSS-Net: Superpoint Constrained Semi-supervised Segmentation Network
for 3D Indoor Scenes [6.3364439467281315]
本稿では,SCSS-Net という名称の3次元点雲に対するスーパーポイント制約付き半教師付きセグメンテーションネットワークを提案する。
具体的には、ラベルのない点群から予測される擬似ラベルを自己学習に利用し、幾何ベースおよび色に基づく領域成長アルゴリズムによって生成されたスーパーポイントを組み合わせて、疑似ラベルを低信頼で修正・削除する。
論文 参考訳(メタデータ) (2021-07-08T04:43:21Z) - SPU-Net: Self-Supervised Point Cloud Upsampling by Coarse-to-Fine
Reconstruction with Self-Projection Optimization [52.20602782690776]
実際のスキャンされたスパースデータからトレーニング用の大規模なペアリングスパーススキャンポイントセットを得るのは高価で面倒です。
本研究では,SPU-Net と呼ばれる自己監視型点群アップサンプリングネットワークを提案する。
本研究では,合成データと実データの両方について様々な実験を行い,最先端の教師付き手法と同等の性能が得られることを示す。
論文 参考訳(メタデータ) (2020-12-08T14:14:09Z) - LiDAR-based Panoptic Segmentation via Dynamic Shifting Network [56.71765153629892]
LiDARベースのパノプティカルセグメンテーションは、オブジェクトとシーンを統一的に解析することを目的としている。
本稿では,ポイントクラウド領域における効果的な単視分割フレームワークとして機能する動的シフトネットワーク(DS-Net)を提案する。
提案するDS-Netは,現在の最先端手法よりも優れた精度を実現する。
論文 参考訳(メタデータ) (2020-11-24T08:44:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。