論文の概要: CP-Net: Contour-Perturbed Reconstruction Network for Self-Supervised
Point Cloud Learning
- arxiv url: http://arxiv.org/abs/2201.08215v1
- Date: Thu, 20 Jan 2022 15:04:12 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-21 14:20:31.092905
- Title: CP-Net: Contour-Perturbed Reconstruction Network for Self-Supervised
Point Cloud Learning
- Title(参考訳): CP-Net: 自己教師付きポイントクラウド学習のための輪郭型再構成ネットワーク
- Authors: Mingye Xu, Zhipeng Zhou, Hongbin Xu, Yali Wang, and Yu Qiao
- Abstract要約: 本稿では,CP-Net(Contour-Perturbed Restruction Network)を提案する。
分類では、ModelNet40(92.5%の精度)とScanObjectNN(87.9%の精度)の完全教師付き手法で競合する結果を得る。
- 参考スコア(独自算出の注目度): 53.1436669083784
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Self-supervised learning has not been fully explored for point cloud
analysis. Current frameworks are mainly based on point cloud reconstruction.
Given only 3D coordinates, such approaches tend to learn local geometric
structures and contours, while failing in understanding high level semantic
content. Consequently, they achieve unsatisfactory performance in downstream
tasks such as classification, segmentation, etc. To fill this gap, we propose a
generic Contour-Perturbed Reconstruction Network (CP-Net), which can
effectively guide self-supervised reconstruction to learn semantic content in
the point cloud, and thus promote discriminative power of point cloud
representation. First, we introduce a concise contour-perturbed augmentation
module for point cloud reconstruction. With guidance of geometry disentangling,
we divide point cloud into contour and content components. Subsequently, we
perturb the contour components and preserve the content components on the point
cloud. As a result, self supervisor can effectively focus on semantic content,
by reconstructing the original point cloud from such perturbed one. Second, we
use this perturbed reconstruction as an assistant branch, to guide the learning
of basic reconstruction branch via a distinct dual-branch consistency loss. In
this case, our CP-Net not only captures structural contour but also learn
semantic content for discriminative downstream tasks. Finally, we perform
extensive experiments on a number of point cloud benchmarks. Part segmentation
results demonstrate that our CP-Net (81.5% of mIoU) outperforms the previous
self-supervised models, and narrows the gap with the fully-supervised methods.
For classification, we get a competitive result with the fully-supervised
methods on ModelNet40 (92.5% accuracy) and ScanObjectNN (87.9% accuracy). The
codes and models will be released afterwards.
- Abstract(参考訳): 自己教師付き学習は、ポイントクラウド分析のために完全には検討されていない。
現在のフレームワークは主にポイントクラウドの再構築に基づいている。
3次元座標のみを考えると、そのようなアプローチは局所幾何学的構造や輪郭を学習する傾向があり、高レベルの意味的内容を理解することができない。
その結果、分類やセグメンテーションといった下流タスクでは不満足なパフォーマンスが得られる。
このギャップを埋めるために,cp-net (generic contour-perturbed reconstruction network) を提案する。
まず,点雲再構成のための簡潔な輪郭拡大モジュールを提案する。
幾何学的分離の指導により、点雲を輪郭とコンテンツ成分に分割する。
その後、輪郭コンポーネントを摂動させ、コンテンツコンポーネントをポイントクラウドに保存します。
その結果、自己監督者は、そのような混乱したものから元の点雲を再構築することで、セマンティックコンテンツに効果的にフォーカスすることができる。
第2に,この摂動型復元を補助分枝として使用し,個別の二重分岐一貫性損失による基本復元分枝の学習を指導する。
この場合、cp-netは構造的輪郭をとらえるだけでなく、判別下流タスクの意味的コンテンツも学習する。
最後に、多数のポイントクラウドベンチマークで広範な実験を行う。
パートセグメンテーションの結果は、CP-Net(mIoUの81.5%)が以前の自己教師付きモデルより優れており、完全に教師付き手法とのギャップを狭めていることを示している。
分類では、ModelNet40(92.5%の精度)とScanObjectNN(87.9%の精度)の完全教師付き手法で競合する結果が得られる。
コードとモデルはその後リリースされる。
関連論文リスト
- Self-supervised 3D Point Cloud Completion via Multi-view Adversarial Learning [61.14132533712537]
我々は、オブジェクトレベルとカテゴリ固有の幾何学的類似性の両方を効果的に活用するフレームワークであるMAL-SPCを提案する。
私たちのMAL-SPCは3Dの完全な監視を一切必要とせず、各オブジェクトに1つの部分点クラウドを必要とするだけです。
論文 参考訳(メタデータ) (2024-07-13T06:53:39Z) - Variational Relational Point Completion Network for Robust 3D
Classification [59.80993960827833]
可変点雲補完法は、局所的な詳細を欠くため、大域的な形状の骨格を生成する傾向がある。
本稿では2つの魅力的な特性を持つ変分フレームワークであるポイントコンプリートネットワーク(VRCNet)を提案する。
VRCNetは、現実世界のポイントクラウドスキャンにおいて、非常に一般化性と堅牢性を示している。
論文 参考訳(メタデータ) (2023-04-18T17:03:20Z) - Point cloud completion on structured feature map with feedback network [28.710494879042002]
本稿では,FSNetを提案する。FSNetは,ポイントワイドな特徴を適応的に2次元構造的特徴マップに集約できる機能構造化モジュールである。
2次元畳み込みニューラルネットワークを用いて、FSNetから粗い完全点クラウドに特徴マップをデコードする。
点雲アップサンプリングネットワークを用いて、部分入力と粗い中間出力から高密度点雲を生成する。
論文 参考訳(メタデータ) (2022-02-17T10:59:40Z) - Self-Supervised Feature Learning from Partial Point Clouds via Pose
Disentanglement [35.404285596482175]
部分点雲から情報表現を学習するための,新たな自己教師型フレームワークを提案する。
コンテンツとポーズ属性の両方を含むLiDARでスキャンされた部分点雲を利用する。
提案手法は,既存の自己教師付き手法に勝るだけでなく,合成および実世界のデータセット間でのより優れた一般化性を示す。
論文 参考訳(メタデータ) (2022-01-09T14:12:50Z) - Unsupervised Representation Learning for 3D Point Cloud Data [66.92077180228634]
我々は、教師なしのポイントクラウド学習に対して、シンプルで効果的なアプローチを提案する。
特に、原点雲の優れたコントラストバージョンを生成する非常に有用な変換を同定する。
本研究では,3次元オブジェクト分類,形状部分分割,シーン分割の3つの下流タスクについて実験を行った。
論文 参考訳(メタデータ) (2021-10-13T10:52:45Z) - Refinement of Predicted Missing Parts Enhance Point Cloud Completion [62.997667081978825]
点雲完了は、部分的な観測から3次元形状の点集合表現を用いて完全な幾何学を予測するタスクである。
従来のアプローチでは、不完全点集合によって供給されるエンコーダ・デコーダモデルにより、点雲全体を直接推定するニューラルネットワークが提案されていた。
本稿では、欠落した幾何を計算し、既知の入力と予測点クラウドを融合することに焦点を当てたエンドツーエンドニューラルネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2020-10-08T22:01:23Z) - Multi-scale Receptive Fields Graph Attention Network for Point Cloud
Classification [35.88116404702807]
MRFGATアーキテクチャはModelNet10とModelNet40データセットでテストされている。
その結果,形状分類作業における最先端性能が得られた。
論文 参考訳(メタデータ) (2020-09-28T13:01:28Z) - TearingNet: Point Cloud Autoencoder to Learn Topology-Friendly
Representations [20.318695890515613]
本稿では,固定長ディスクリプタを用いたポイントクラウドの表現に挑戦する自動エンコーダTearingNetを提案する。
我々のTeringNetは、提案されたTeringネットワークモジュールと、相互に反復的に相互作用するFoldingネットワークモジュールによって特徴付けられる。
実験は、点雲の再構成や、ベンチマークよりもトポロジに優しい表現を生成するという点で、我々の提案の優位性を示している。
論文 参考訳(メタデータ) (2020-06-17T22:42:43Z) - GRNet: Gridding Residual Network for Dense Point Cloud Completion [54.43648460932248]
完全な3Dポイントクラウドを不完全なクラウドから推定することは、多くのビジョンやロボティクスアプリケーションにおいて重要な問題である。
本稿では,ポイントクラウド補完のための新しいGridding Residual Network(GRNet)を提案する。
実験結果から,提案したGRNetはShapeNet,Completion3D,KITTIベンチマークの最先端手法に対して良好に動作することがわかった。
論文 参考訳(メタデータ) (2020-06-06T02:46:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。