論文の概要: Deep Implicit Templates for 3D Shape Representation
- arxiv url: http://arxiv.org/abs/2011.14565v2
- Date: Thu, 13 May 2021 09:22:32 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-06 14:49:40.786515
- Title: Deep Implicit Templates for 3D Shape Representation
- Title(参考訳): 3次元形状表現のための奥行きテンプレート
- Authors: Zerong Zheng, Tao Yu, Qionghai Dai, Yebin Liu
- Abstract要約: 深い暗黙表現における明示的な対応推論を支援する新しい3次元形状表現を提案する。
我々のキーとなる考え方は、テンプレートの暗黙関数の条件変形としてDIFを定式化することである。
提案手法は,形状の集合に対する一般的な暗黙テンプレートを学習するだけでなく,すべての形状を相互に同時に対応させることも可能であることを示す。
- 参考スコア(独自算出の注目度): 70.9789507686618
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep implicit functions (DIFs), as a kind of 3D shape representation, are
becoming more and more popular in the 3D vision community due to their
compactness and strong representation power. However, unlike polygon mesh-based
templates, it remains a challenge to reason dense correspondences or other
semantic relationships across shapes represented by DIFs, which limits its
applications in texture transfer, shape analysis and so on. To overcome this
limitation and also make DIFs more interpretable, we propose Deep Implicit
Templates, a new 3D shape representation that supports explicit correspondence
reasoning in deep implicit representations. Our key idea is to formulate DIFs
as conditional deformations of a template implicit function. To this end, we
propose Spatial Warping LSTM, which decomposes the conditional spatial
transformation into multiple affine transformations and guarantees
generalization capability. Moreover, the training loss is carefully designed in
order to achieve high reconstruction accuracy while learning a plausible
template with accurate correspondences in an unsupervised manner. Experiments
show that our method can not only learn a common implicit template for a
collection of shapes, but also establish dense correspondences across all the
shapes simultaneously without any supervision.
- Abstract(参考訳): 3d形状表現の一種であるdif(deep implicit function)は、そのコンパクトさと強い表現力によって、3d視覚コミュニティでますます人気が高まっている。
しかしながら、ポリゴンメッシュベースのテンプレートとは異なり、difで表される形状間の密接な対応やその他の意味関係を推論することは依然として課題であり、テクスチャ転送や形状解析などへの応用は制限されている。
この制限を克服し、DIFをより解釈可能にするために、深い暗黙表現における明示的な対応推論をサポートする新しい3次元形状表現であるDeep Implicit Templatesを提案する。
我々のキーとなる考え方は、テンプレート暗黙関数の条件変形としてDIFを定式化することである。
そこで我々は,条件付き空間変換を複数のアフィン変換に分解し,一般化能力を保証した空間ウォーピングLSTMを提案する。
さらに、教師なしの精度で精度の高いテンプレートを学習しながら、高い復元精度を達成するために、トレーニング損失を慎重に設計する。
実験により,本手法は形状の集合に共通する暗黙のテンプレートを学習できるだけでなく,全ての形状を相互に相互に相互に相互に関連付けることができることがわかった。
関連論文リスト
- NeuSDFusion: A Spatial-Aware Generative Model for 3D Shape Completion, Reconstruction, and Generation [52.772319840580074]
3D形状生成は、特定の条件や制約に固執する革新的な3Dコンテンツを作成することを目的としている。
既存の方法は、しばしば3Dの形状を局所化されたコンポーネントの列に分解し、各要素を分離して扱う。
本研究では2次元平面表現を利用した空間認識型3次元形状生成フレームワークを提案する。
論文 参考訳(メタデータ) (2024-03-27T04:09:34Z) - ReshapeIT: Reliable Shape Interaction with Implicit Template for Anatomical Structure Reconstruction [59.971808117043366]
ReShapeITは、同じカテゴリ内で共有される暗黙のテンプレートフィールドを持つ解剖学的構造を表す。
これにより、インスタンス形状とテンプレート形状との対応性の制約を強化することにより、暗黙テンプレートフィールドが有効なテンプレートを生成する。
テンプレートインタラクションモジュールは、有効なテンプレートシェイプとインスタンスワイドの潜在コードとを相互作用することで、目に見えないシェイプを再構築するために導入される。
論文 参考訳(メタデータ) (2023-12-11T07:09:32Z) - Self-supervised Learning of Implicit Shape Representation with Dense
Correspondence for Deformable Objects [26.102490905989338]
変形可能な物体に対する暗黙的形状表現を学習するための,新しい自己教師型アプローチを提案する。
本手法は, 骨格と皮膚の重量の先行を必要とせず, 符号付き距離場で表現される形状の収集のみを必要とする。
我々のモデルは大きな変形を伴う形状を表現することができ、テクスチャ転送や形状編集といった2つの典型的な応用をサポートすることができる。
論文 参考訳(メタデータ) (2023-08-24T06:38:33Z) - Hybrid Neural Diffeomorphic Flow for Shape Representation and Generation
via Triplane [16.684276798449115]
HNDFは、基礎となる表現を暗黙的に学習し、複雑な高密度対応を明示的に軸整列三面体特徴に分解する手法である。
新しい3次元形状を直接生成する従来の手法とは異なり、微分同相流による変形テンプレート形状による形状生成の考え方を探求する。
論文 参考訳(メタデータ) (2023-07-04T23:28:01Z) - 3D Equivariant Graph Implicit Functions [51.5559264447605]
局所的詳細のモデリングを容易にする同変層を持つグラフ暗黙関数の新しいファミリを導入する。
提案手法は,ShapeNet再構成作業において既存の回転同変暗黙関数を0.69から0.89に改善する。
論文 参考訳(メタデータ) (2022-03-31T16:51:25Z) - Topology-Preserving Shape Reconstruction and Registration via Neural
Diffeomorphic Flow [22.1959666473906]
Deep Implicit Function (DIF) は、ディープニューラルネットワークを通して学習された連続符号付き距離関数を持つ3次元幾何学を表す。
深い暗黙的形状テンプレートを学習するためのニューラル拡散型流れ(NDF)と呼ばれる新しいモデルを提案する。
NDFは、常に最先端の臓器形状の再構築と、精度と品質の両面での登録結果を達成する。
論文 参考訳(メタデータ) (2022-03-16T14:39:11Z) - ShapeFormer: Transformer-based Shape Completion via Sparse
Representation [41.33457875133559]
本稿では,不完全でノイズの多い点雲に条件付きオブジェクト完了の分布を生成するネットワークであるShapeFormerを提案する。
結果の分布をサンプリングして、入力に忠実な状態で、それぞれがもっともらしい形状の詳細を示す、可能性のある完了を生成する。
論文 参考訳(メタデータ) (2022-01-25T13:58:30Z) - Deep Marching Tetrahedra: a Hybrid Representation for High-Resolution 3D
Shape Synthesis [90.26556260531707]
DMTetは粗いボクセルのような単純なユーザーガイドを用いて高解像度の3次元形状を合成できる条件付き生成モデルである。
メッシュなどの明示的な表現を直接生成する深部3次元生成モデルとは異なり、我々のモデルは任意の位相で形状を合成することができる。
論文 参考訳(メタデータ) (2021-11-08T05:29:35Z) - SNARF: Differentiable Forward Skinning for Animating Non-Rigid Neural
Implicit Shapes [117.76767853430243]
SNARFは多角形メッシュに対する線形ブレンドスキンの利点とニューラル暗黙表面の利点を組み合わせたものである。
反復ルート探索を用いて任意の変形点のすべての正準対応を探索するフォワードスキンモデルを提案する。
最先端のニューラルネットワークの暗黙的表現と比較すると,このアプローチは,精度を維持しつつ,未認識のポーズを一般化する。
論文 参考訳(メタデータ) (2021-04-08T17:54:59Z) - Deformed Implicit Field: Modeling 3D Shapes with Learned Dense
Correspondence [30.849927968528238]
本稿では,カテゴリの3次元形状をモデル化するための新しいDeformed Implicit Field表現を提案する。
我々のニューラルネットワーク、DIF-Netは、カテゴリに属する3Dオブジェクトの形状潜在空間とこれらのフィールドを共同で学習する。
実験により、DIF-Netは高忠実度3次元形状を生成するだけでなく、異なる形状の高品位密度対応を生成することが示された。
論文 参考訳(メタデータ) (2020-11-27T10:45:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。