論文の概要: Unsupervised Learning of Intrinsic Structural Representation Points
- arxiv url: http://arxiv.org/abs/2003.01661v2
- Date: Thu, 26 Mar 2020 11:54:35 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-26 23:02:27.980440
- Title: Unsupervised Learning of Intrinsic Structural Representation Points
- Title(参考訳): 内在的構造表現点の教師なし学習
- Authors: Nenglun Chen, Lingjie Liu, Zhiming Cui, Runnan Chen, Duygu Ceylan,
Changhe Tu, Wenping Wang
- Abstract要約: 3次元形状の学習構造は、コンピュータグラフィックスと幾何学処理の分野における根本的な問題である。
本稿では,3次元構造点の形で新しい構造表現を学習するための簡易かつ解釈不能な手法を提案する。
- 参考スコア(独自算出の注目度): 50.92621061405056
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Learning structures of 3D shapes is a fundamental problem in the field of
computer graphics and geometry processing. We present a simple yet
interpretable unsupervised method for learning a new structural representation
in the form of 3D structure points. The 3D structure points produced by our
method encode the shape structure intrinsically and exhibit semantic
consistency across all the shape instances with similar structures. This is a
challenging goal that has not fully been achieved by other methods.
Specifically, our method takes a 3D point cloud as input and encodes it as a
set of local features. The local features are then passed through a novel point
integration module to produce a set of 3D structure points. The chamfer
distance is used as reconstruction loss to ensure the structure points lie
close to the input point cloud. Extensive experiments have shown that our
method outperforms the state-of-the-art on the semantic shape correspondence
task and achieves comparable performance with the state-of-the-art on the
segmentation label transfer task. Moreover, the PCA based shape embedding built
upon consistent structure points demonstrates good performance in preserving
the shape structures. Code is available at
https://github.com/NolenChen/3DStructurePoints
- Abstract(参考訳): 3次元形状の学習構造は、コンピュータグラフィックスと幾何学処理の分野における根本的な問題である。
本稿では,3次元構造点の形で新しい構造表現を学習するための簡易かつ解釈不能な手法を提案する。
本手法により得られた3次元構造点を内在的に形状構造を符号化し, 類似構造を持つ全ての形状インスタンスに対して意味的整合性を示す。
これは他の方法では完全に達成されていない挑戦的な目標です。
具体的には、3dポイントクラウドを入力として、それをローカル機能のセットとしてエンコードします。
局所的な特徴は、3D構造点の集合を生成するために新しい点積分モジュールに渡される。
チャンファー距離は、入力点雲に近接する構造点を確保するために再構成損失として使用される。
提案手法は,セグメンテーションラベル転送タスクにおける最先端技術と同等の性能が得られることを示す広範な実験を行った。
さらに、一貫した構造点上に構築されたPCAベースの形状埋め込みは、形状構造を保存する上で優れた性能を示す。
コードはhttps://github.com/NolenChen/3DStructurePointsで入手できる。
関連論文リスト
- Robust 3D Tracking with Quality-Aware Shape Completion [67.9748164949519]
そこで本研究では,高密度および完全点の雲からなる合成対象表現について,ロバストな3次元追跡のための形状完備化により正確に表現する。
具体的には, 形状が整ったボキセル化3次元追跡フレームワークを設計し, ノイズのある歴史的予測の悪影響を軽減するために, 品質に配慮した形状完備化機構を提案する。
論文 参考訳(メタデータ) (2023-12-17T04:50:24Z) - Flattening-Net: Deep Regular 2D Representation for 3D Point Cloud
Analysis [66.49788145564004]
我々は、任意の幾何学と位相の不規則な3次元点雲を表現するために、Flattning-Netと呼ばれる教師なしのディープニューラルネットワークを提案する。
我々の手法は、現在の最先端の競合相手に対して好意的に機能する。
論文 参考訳(メタデータ) (2022-12-17T15:05:25Z) - 3D Shape Reconstruction from 2D Images with Disentangled Attribute Flow [61.62796058294777]
単一の2D画像から3D形状を再構築することは難しい作業だ。
従来の手法の多くは3次元再構成作業における意味的属性の抽出に苦慮している。
本稿では,3DAttriFlowを用いて,入力画像の異なる意味レベルから意味的属性を抽出する手法を提案する。
論文 参考訳(メタデータ) (2022-03-29T02:03:31Z) - RISA-Net: Rotation-Invariant Structure-Aware Network for Fine-Grained 3D
Shape Retrieval [46.02391761751015]
きめ細かい3D形状の検索は、同じクラスに属するモデルを持つレポジトリのクエリ形状に似た3D形状の検索を目的としている。
回転不変な3次元形状記述子を学習する新しいディープアーキテクチャ RISA-Net を提案する。
本手法は,3次元形状の最終コンパクト潜時特徴を生成する際に,各部分の幾何学的・構造的情報の重要性を学習することができる。
論文 参考訳(メタデータ) (2020-10-02T13:06:12Z) - DSG-Net: Learning Disentangled Structure and Geometry for 3D Shape
Generation [98.96086261213578]
DSG-Netは3次元形状の非交叉構造と幾何学的メッシュ表現を学習するディープニューラルネットワークである。
これは、幾何(構造)を不変に保ちながら構造(幾何学)のような不整合制御を持つ新しい形状生成アプリケーションの範囲をサポートする。
本手法は,制御可能な生成アプリケーションだけでなく,高品質な合成形状を生成できる。
論文 参考訳(メタデータ) (2020-08-12T17:06:51Z) - KAPLAN: A 3D Point Descriptor for Shape Completion [80.15764700137383]
KAPLANは、一連の2D畳み込みを通じて局所的な形状情報を集約する3Dポイント記述子である。
各平面において、正規点や平面間距離のような点特性は2次元グリッドに集約され、効率的な2次元畳み込みエンコーダを持つ特徴表現に抽象化される。
公開データセットの実験では、KAPLANが3D形状の完成のために最先端のパフォーマンスを達成することが示されている。
論文 参考訳(メタデータ) (2020-07-31T21:56:08Z) - STD-Net: Structure-preserving and Topology-adaptive Deformation Network
for 3D Reconstruction from a Single Image [27.885717341244014]
単一のビューイメージからの3D再構成は、コンピュータビジョンにおける長年の進歩である。
本稿では,メッシュ表現を用いた3次元モデル再構築のためのSTD-Netを提案する。
ShapeNetの画像による実験結果から, 提案したSTD-Netは, 3Dオブジェクトを再構成する他の最先端手法よりも優れた性能を示した。
論文 参考訳(メタデータ) (2020-03-07T11:02:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。