論文の概要: Weakly Supervised Semantic Segmentation in 3D Graph-Structured Point
Clouds of Wild Scenes
- arxiv url: http://arxiv.org/abs/2004.12498v2
- Date: Sun, 17 May 2020 21:14:07 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-09 13:46:23.017442
- Title: Weakly Supervised Semantic Segmentation in 3D Graph-Structured Point
Clouds of Wild Scenes
- Title(参考訳): 野生の3次元グラフ構造点雲における弱教師付きセマンティックセグメンテーション
- Authors: Haiyan Wang, Xuejian Rong, Liang Yang, Jinglun Feng, Jizhong Xiao,
Yingli Tian
- Abstract要約: 3Dセグメンテーションラベルの欠如は、効率的な点雲セグメンテーションの主な障害の1つである。
本稿では,2D のみを監督する点群における大規模セマンティックシーンセグメンテーションのための,新しいディープグラフ畳み込みネットワークフレームワークを提案する。
- 参考スコア(独自算出の注目度): 36.07733308424772
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The deficiency of 3D segmentation labels is one of the main obstacles to
effective point cloud segmentation, especially for scenes in the wild with
varieties of different objects. To alleviate this issue, we propose a novel
deep graph convolutional network-based framework for large-scale semantic scene
segmentation in point clouds with sole 2D supervision. Different with numerous
preceding multi-view supervised approaches focusing on single object point
clouds, we argue that 2D supervision is capable of providing sufficient
guidance information for training 3D semantic segmentation models of natural
scene point clouds while not explicitly capturing their inherent structures,
even with only single view per training sample. Specifically, a Graph-based
Pyramid Feature Network (GPFN) is designed to implicitly infer both global and
local features of point sets and an Observability Network (OBSNet) is
introduced to further solve object occlusion problem caused by complicated
spatial relations of objects in 3D scenes. During the projection process,
perspective rendering and semantic fusion modules are proposed to provide
refined 2D supervision signals for training along with a 2D-3D joint
optimization strategy. Extensive experimental results demonstrate the
effectiveness of our 2D supervised framework, which achieves comparable results
with the state-of-the-art approaches trained with full 3D labels, for semantic
point cloud segmentation on the popular SUNCG synthetic dataset and S3DIS
real-world dataset.
- Abstract(参考訳): 3Dセグメンテーションラベルの欠如は、特に様々な物体を持つ野生のシーンにおいて、効果的な点雲セグメンテーションの主な障害の1つである。
そこで本研究では,2次元監視による大規模セマンティックシーンセグメンテーションのためのディープグラフ畳み込みネットワークフレームワークを提案する。
従来の多視点監視アプローチとは違って、2次元監視は自然のシーンポイントクラウドの3次元セマンティックセグメンテーションモデルをトレーニングするための十分なガイダンス情報を提供すると同時に、トレーニングサンプルごとの単一のビューのみであっても、それらの固有の構造を明示的に捉えない。
具体的には、グラフベースのピラミッド特徴ネットワーク(GPFN)は、点集合のグローバルな特徴と局所的な特徴の両方を暗黙的に推測するように設計され、オブザーバビリティネットワーク(OBSNet)は、3Dシーンにおけるオブジェクトの複雑な空間的関係に起因するオブジェクトの閉塞問題を解決するために導入された。
プロジェクション過程において,2次元3次元共同最適化戦略とともに2次元監視信号の高度化を実現するために,視点描画と意味融合モジュールを提案する。
SUNCG合成データセットとS3DIS実世界のデータセットのセマンティックポイントクラウドセグメンテーションにおいて、フル3Dラベルでトレーニングされた最先端のアプローチと同等の結果を得る2D教師付きフレームワークの有効性を示す。
関連論文リスト
- Dynamic 3D Point Cloud Sequences as 2D Videos [81.46246338686478]
3Dポイントクラウドシーケンスは、現実世界の環境における最も一般的で実用的な表現の1つとして機能する。
textitStructured Point Cloud Videos (SPCV) と呼ばれる新しい汎用表現を提案する。
SPCVは点雲列を空間的滑らかさと時間的一貫性を持つ2Dビデオとして再編成し、画素値は点の3D座標に対応する。
論文 参考訳(メタデータ) (2024-03-02T08:18:57Z) - U3DS$^3$: Unsupervised 3D Semantic Scene Segmentation [19.706172244951116]
本稿では,U3DS$3$について,総合的な3Dシーンに対して,完全に教師なしのポイントクラウドセグメンテーションに向けたステップとして提示する。
提案手法の最初のステップは,各シーンの幾何学的特徴に基づいてスーパーポイントを生成することである。
次に、空間クラスタリングに基づく手法を用いて学習プロセスを行い、次いで、クラスタセントロイドに応じて生成された擬似ラベルを用いて反復的なトレーニングを行う。
論文 参考訳(メタデータ) (2023-11-10T12:05:35Z) - Leveraging Large-Scale Pretrained Vision Foundation Models for
Label-Efficient 3D Point Cloud Segmentation [67.07112533415116]
本稿では3Dポイントクラウドセグメンテーションタスクに様々な基礎モデルを適用する新しいフレームワークを提案する。
我々のアプローチでは、異なる大きな視覚モデルを用いて2次元セマンティックマスクの初期予測を行う。
本研究では,ロバストな3Dセマンティックな擬似ラベルを生成するために,投票による全ての結果を効果的に組み合わせたセマンティックなラベル融合戦略を提案する。
論文 参考訳(メタデータ) (2023-11-03T15:41:15Z) - Flattening-Net: Deep Regular 2D Representation for 3D Point Cloud
Analysis [66.49788145564004]
我々は、任意の幾何学と位相の不規則な3次元点雲を表現するために、Flattning-Netと呼ばれる教師なしのディープニューラルネットワークを提案する。
我々の手法は、現在の最先端の競合相手に対して好意的に機能する。
論文 参考訳(メタデータ) (2022-12-17T15:05:25Z) - Dual Adaptive Transformations for Weakly Supervised Point Cloud
Segmentation [78.6612285236938]
弱制御点雲分割のための新しいDATモデル(textbfDual textbfAdaptive textbfTransformations)を提案する。
我々は,大規模S3DISデータセットとScanNet-V2データセットの2つの人気バックボーンを用いたDATモデルの評価を行った。
論文 参考訳(メタデータ) (2022-07-19T05:43:14Z) - Cylindrical and Asymmetrical 3D Convolution Networks for LiDAR-based
Perception [122.53774221136193]
運転時のLiDARに基づく認識のための最先端の手法は、しばしば点雲を2D空間に投影し、2D畳み込みによって処理する。
自然な対策として、3Dボクセル化と3D畳み込みネットワークを利用する方法がある。
本研究では,3次元幾何学的パターンを探索するために,円筒状分割と非対称な3次元畳み込みネットワークを設計する,屋外LiDARセグメンテーションのための新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2021-09-12T06:25:11Z) - PC-RGNN: Point Cloud Completion and Graph Neural Network for 3D Object
Detection [57.49788100647103]
LiDARベースの3Dオブジェクト検出は、自動運転にとって重要なタスクです。
現在のアプローチでは、遠方および閉ざされた物体の偏りと部分的な点雲に苦しむ。
本稿では,この課題を2つの解決法で解決する新しい二段階アプローチ,pc-rgnnを提案する。
論文 参考訳(メタデータ) (2020-12-18T18:06:43Z) - S3CNet: A Sparse Semantic Scene Completion Network for LiDAR Point
Clouds [0.16799377888527683]
S3CNetはスパース畳み込みに基づくニューラルネットワークで、単一で統一されたLiDARポイントクラウドからセマンティックに完了したシーンを予測する。
提案手法は,Semantic KITTI ベンチマークを用いて,3次元課題における全ての課題に対して優れることを示す。
論文 参考訳(メタデータ) (2020-12-16T20:14:41Z) - Exploring Deep 3D Spatial Encodings for Large-Scale 3D Scene
Understanding [19.134536179555102]
生の3次元点雲の空間的特徴を非方向性グラフモデルに符号化することで,CNNに基づくアプローチの限界を克服する代替手法を提案する。
提案手法は、訓練時間とモデル安定性を改善して、最先端の精度で達成し、さらなる研究の可能性を示す。
論文 参考訳(メタデータ) (2020-11-29T12:56:19Z) - Pointwise Attention-Based Atrous Convolutional Neural Networks [15.499267533387039]
多数の点を効率的に扱うために,注目度に基づくアトラス畳み込みニューラルネットワークアーキテクチャを提案する。
提案モデルは,3次元セマンティックセグメンテーションタスクにおいて,最も重要な2つの3Dポイントクラウドデータセット上で評価されている。
精度の面では最先端モデルと比較して妥当な性能を達成し、パラメータの数ははるかに少ない。
論文 参考訳(メタデータ) (2019-12-27T13:12:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。