論文の概要: Self-supervised Point Cloud Completion on Real Traffic Scenes via
Scene-concerned Bottom-up Mechanism
- arxiv url: http://arxiv.org/abs/2203.10569v1
- Date: Sun, 20 Mar 2022 14:42:37 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-23 09:28:20.790516
- Title: Self-supervised Point Cloud Completion on Real Traffic Scenes via
Scene-concerned Bottom-up Mechanism
- Title(参考訳): Scene-concerned Boottom-up メカニズムによる実交通シーンの自己監視ポイントクラウド補完
- Authors: Yiming Ren, Peishan Cong, Xinge Zhu, Yuexin Ma
- Abstract要約: ポイントクラウド補完は、オブジェクトの不完全な3Dスキャンのための完全な形状を参照することを目的としている。
現在のディープラーニングベースのアプローチは、トレーニングプロセスにおける大規模な完全な形状に依存しています。
本研究では,交通現場の車両に対して,完全なデータを持たない自己監視点クラウド補完手法(TraPCC)を提案する。
- 参考スコア(独自算出の注目度): 14.255659581428333
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Real scans always miss partial geometries of objects due to the
self-occlusions, external-occlusions, and limited sensor resolutions. Point
cloud completion aims to refer the complete shapes for incomplete 3D scans of
objects. Current deep learning-based approaches rely on large-scale complete
shapes in the training process, which are usually obtained from synthetic
datasets. It is not applicable for real-world scans due to the domain gap. In
this paper, we propose a self-supervised point cloud completion method (TraPCC)
for vehicles in real traffic scenes without any complete data. Based on the
symmetry and similarity of vehicles, we make use of consecutive point cloud
frames to construct vehicle memory bank as reference. We design a bottom-up
mechanism to focus on both local geometry details and global shape features of
inputs. In addition, we design a scene-graph in the network to pay attention to
the missing parts by the aid of neighboring vehicles. Experiments show that
TraPCC achieve good performance for real-scan completion on KITTI and nuScenes
traffic datasets even without any complete data in training. We also show a
downstream application of 3D detection, which benefits from our completion
approach.
- Abstract(参考訳): 実際のスキャンは、自己閉塞性、外部閉塞性、センサーの解像度の制限により、オブジェクトの部分的なジオメトリを見逃す。
point cloud completionは、オブジェクトの不完全な3dスキャンの完全な形状を参照することを目的としている。
現在のディープラーニングベースのアプローチは、トレーニングプロセスで通常合成データセットから得られる大規模な完全な形状に依存している。
ドメインギャップのため、実世界のスキャンには適用できない。
本稿では,交通現場の車両に対して,完全なデータを必要としない自己教師付きポイントクラウド補完手法(TraPCC)を提案する。
車両の対称性と類似性に基づいて、連続点雲フレームを用いて車両のメモリバンクを基準として構築する。
入力の局所幾何学的詳細と大域的形状特徴の両方に焦点を当てたボトムアップ機構を設計した。
さらに,隣接する車両の助けを借りて,欠落した部品に注意を払うために,ネットワーク内のシーングラフを設計する。
実験により、TraPCCは、トレーニング中に完全なデータがなくても、KITTIとnuScenesのトラフィックデータセットのリアルタイム補完に優れた性能を発揮することが示された。
また,完成したアプローチの恩恵を受ける3D検出のダウンストリーム応用についても紹介する。
関連論文リスト
- Self-supervised 3D Point Cloud Completion via Multi-view Adversarial Learning [61.14132533712537]
我々は、オブジェクトレベルとカテゴリ固有の幾何学的類似性の両方を効果的に活用するフレームワークであるMAL-SPCを提案する。
私たちのMAL-SPCは3Dの完全な監視を一切必要とせず、各オブジェクトに1つの部分点クラウドを必要とするだけです。
論文 参考訳(メタデータ) (2024-07-13T06:53:39Z) - U3DS$^3$: Unsupervised 3D Semantic Scene Segmentation [19.706172244951116]
本稿では,U3DS$3$について,総合的な3Dシーンに対して,完全に教師なしのポイントクラウドセグメンテーションに向けたステップとして提示する。
提案手法の最初のステップは,各シーンの幾何学的特徴に基づいてスーパーポイントを生成することである。
次に、空間クラスタリングに基づく手法を用いて学習プロセスを行い、次いで、クラスタセントロイドに応じて生成された擬似ラベルを用いて反復的なトレーニングを行う。
論文 参考訳(メタデータ) (2023-11-10T12:05:35Z) - Point Cloud Completion Guided by Prior Knowledge via Causal Inference [19.935868881427226]
本稿では,ポイントPCと呼ばれる新たなクラウド完了タスクを提案する。
Point-PCはメモリネットワークを用いて形状の先行情報を検索し、因果推論モデルを設計し、欠落した形状情報をフィルタリングする。
ShapeNet-55、PCN、KITTIデータセットの実験結果から、Point-PCは最先端の手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2023-05-28T16:33:35Z) - Variational Relational Point Completion Network for Robust 3D
Classification [59.80993960827833]
可変点雲補完法は、局所的な詳細を欠くため、大域的な形状の骨格を生成する傾向がある。
本稿では2つの魅力的な特性を持つ変分フレームワークであるポイントコンプリートネットワーク(VRCNet)を提案する。
VRCNetは、現実世界のポイントクラウドスキャンにおいて、非常に一般化性と堅牢性を示している。
論文 参考訳(メタデータ) (2023-04-18T17:03:20Z) - Towards Confidence-guided Shape Completion for Robotic Applications [6.940242990198]
深層学習は、部分的な視覚データから完全な3Dオブジェクト表現を推測する効果的な方法として牽引され始めている。
本稿では,各再構成点に対する信頼度を示す暗黙の3次元表現に基づくオブジェクト形状完備化手法を提案する。
再構成された形状と地上の真実を比較し,ロボットの把握パイプラインに形状完了アルゴリズムを配置することにより,我々のアプローチを実験的に検証する。
論文 参考訳(メタデータ) (2022-09-09T13:48:24Z) - Voxel-based Network for Shape Completion by Leveraging Edge Generation [76.23436070605348]
エッジ生成(VE-PCN)を利用した点雲補完のためのボクセルネットワークを開発した。
まず点雲を正規のボクセル格子に埋め込み、幻覚した形状のエッジの助けを借りて完全な物体を生成する。
この分離されたアーキテクチャとマルチスケールのグリッド機能学習は、より現実的な表面上の詳細を生成することができる。
論文 参考訳(メタデータ) (2021-08-23T05:10:29Z) - Cascaded Refinement Network for Point Cloud Completion with
Self-supervision [74.80746431691938]
形状整形のための2分岐ネットワークを提案する。
第1分枝は、完全なオブジェクトを合成するためのカスケード形状補完サブネットワークである。
第2のブランチは、元の部分入力を再構築する自動エンコーダである。
論文 参考訳(メタデータ) (2020-10-17T04:56:22Z) - VPC-Net: Completion of 3D Vehicles from MLS Point Clouds [16.041815273682317]
Vehicle Points CompletionNet (VPCNet)
本稿では,入力インスタンスからグローバルな特徴を抽出する新しいエンコーダモジュールを提案する。
車両の詳細を入力から保存し、詳細な情報で完全な出力を洗練するために、新しい精細モジュールも提示される。
論文 参考訳(メタデータ) (2020-08-08T00:22:43Z) - Point Cloud Completion by Skip-attention Network with Hierarchical
Folding [61.59710288271434]
本研究では,3Dポイントクラウド補完のためのSkip-Attention Network (SA-Net)を提案する。
まず,不完全点雲の局所構造を効果的に活用するためのスキップアテンション機構を提案する。
第二に、異なる解像度でスキップアテンション機構によって符号化された選択された幾何情報を完全に活用するために、新しい構造保存デコーダを提案する。
論文 参考訳(メタデータ) (2020-05-08T06:23:51Z) - DOPS: Learning to Detect 3D Objects and Predict their 3D Shapes [54.239416488865565]
LIDARデータに対する高速な1段3次元物体検出法を提案する。
我々の手法の中核となる新規性は高速かつシングルパスアーキテクチャであり、どちらも3次元の物体を検出し、それらの形状を推定する。
提案手法は,ScanNetシーンのオブジェクト検出で5%,オープンデータセットでは3.4%の精度で結果が得られた。
論文 参考訳(メタデータ) (2020-04-02T17:48:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。